DataLearnerAI Profile Banner
DataLearner Profile
DataLearner

@DataLearnerAI

Followers
522
Following
3K
Media
149
Statuses
1K

关注数据科学 关注科技行业 关注人工智能 关注一切促进人类生活美好的新技术 业界主流大模型列表:https://t.co/H4FUDd7Gfb 国产开源大模型生态现状:https://t.co/q5KU9WhPuE

Hefei, China
Joined March 2023
Don't wanna be here? Send us removal request.
@DataLearnerAI
DataLearner
4 days
DeepSeek官网更新了!这是一个新模型,虽然没有公开,但是从回复的结果中可以看到知识截止日期已经是2025年5月份,最高支持100万tokens输入。为了防止这是假消息,我们上传了67万tokens的《三体》全文,DeepSeek可以准确回答!而此前DeepSeek所有对外模型均最高仅支持160K上下文!看样子很快会公布了!
1
0
3
@DataLearnerAI
DataLearner
4 hours
Kimi官方推出了Kimi Claw,这应该是第一个大模型官方企业下场推出的类似OpenClaw的产品了。这个Kimi Claw看起来是云端提供一个完全可以自由控制的环境,集成了Kimi大模型,看介绍是包含社区的5000+skills以及天生集成了Telegram等消息应用。不过只有月付费39美元及以上的会员才能使用哦~
@Kimi_Moonshot
Kimi.ai
4 hours
Introducing Kimi Claw🦞 OpenClaw, now native to https://t.co/8PH4O9dh6m. Living right in your browser tab, online 24/7. 🔹 ClawHub Access: 5,000+ community skills in the ClawHub library. 🔹 40GB Cloud Storage: Massive space for all your files 🔹 Pro-Grade Search: Fetch live,
0
0
0
@DataLearnerAI
DataLearner
6 hours
跳票了好多个月的Grok 4.2终于要来了 不过之前我用Grok的时候有一些对比不同回复的选择 不知道是不是Grok4.2 单纯从写作角度看 感觉不明显
@elonmusk
Elon Musk
11 hours
@raul_1329 @BasedTorba Grok 4.20 is finally out next week. Will be a significant improvement over 4.1.
0
0
1
@DataLearnerAI
DataLearner
15 hours
Codex 5.3还是非常可以的,会在做需求的时候发现一些小问题,然后会顺手帮我改掉,然而这些小问题基本上是它前代模型或者Opus或者Gemini 3 Pro遗留的,可以显著看到模型的能力的增强啊
0
0
1
@DataLearnerAI
DataLearner
19 hours
Claude官网出现了一个新的banner代码了 告诉大家去试试Parsley,之前Opus 4.6就是类似这种。莫非这就是Sonnet5了?这么快吗?不过不应该是默认替换Sonnet 4.5吗?为啥提示Try?难道要收费?🤔
@btibor91
Tibor Blaho
21 hours
Anthropic is preparing a new announcement banner in the Claude web app and Console codenamed "Try Parsley" - the last similar banner added to both was "Try Cilantro" which was the codename for Opus 4.6
0
0
1
@DataLearnerAI
DataLearner
1 day
下周会有DeepSeek V4🤔🤔过年期间啊 合理吗
@swyx
swyx
1 day
i've been cynical on open source ai for the last 3 years, and it's not been a popular view. people want to hear that open source is catching up, that some underdog team found this One Weird Trick to outperform gpt5. Kimi K2.5 didnt even beat GPT 5.2 in the end. @DeepSeek_ai v4
0
0
5
@DataLearnerAI
DataLearner
2 days
验证了,应该是节点问题,或者部分地区问题
0
0
0
@DataLearnerAI
DataLearner
2 days
MiniMaxAI的M2.5模型终于在HF上开源了,昨天匆匆忙忙发布之后,官网的API价格列表没有、HF上没有,官方都没有说这些信息,很多人都怀疑是不是不开源了,现在可以放宽心了。话说这真的感觉像是临时触发的,不像精心准备的😄
@MiniMax_AI
MiniMax (official)
2 days
MiniMax-M2.5 is now open source. Trained with reinforcement learning across hundreds of thousands of complex real-world environments, it delivers SOTA performance in coding, agentic tool use, search, and office workflows. Hugging Face: https://t.co/Wxksq9BB7t GitHub:
0
0
4
@DataLearnerAI
DataLearner
2 days
ChatGPT网页版本疑似挂了,Codex接口也是,无法访问了😅😅
1
0
0
@DataLearnerAI
DataLearner
2 days
DeepSeekAI官宣新模型了,不过版本号模型名称均未变,只说了是新的模型结构,用来支持100万上下文。不知道是为了保密还是说模型真的没有更新🤔🤔不过移动端感觉明显快了很多了,应该不是旧的模型+新的工程方法吧。不过大家普遍感受也没有那么好,看样子可能真的是Lite版本?
@DataLearnerAI
DataLearner
4 days
DeepSeek官网更新了!这是一个新模型,虽然没有公开,但是从回复的结果中可以看到知识截止日期已经是2025年5月份,最高支持100万tokens输入。为了防止这是假消息,我们上传了67万tokens的《三体》全文,DeepSeek可以准确回答!而此前DeepSeek所有对外模型均最高仅支持160K上下文!看样子很快会公布了!
0
0
3
@DataLearnerAI
DataLearner
2 days
从明天开始Codex App的Windows版本(这么看估计今晚就有了)开始批量邀请测试了,各位Windows小伙伴有需要的抓紧申请排队啊~~
@ajambrosino
Andrew Ambrosino
3 days
Sending the first batch of alpha invites tomorrow for the Codex app on Windows, starting with Pro https://t.co/76HSVrS4Zk
0
0
0
@DataLearnerAI
DataLearner
2 days
所以大模型的数学能力完全超过了顶尖高中生了吗?AIME 2026(美国高中数学邀请赛)在2月5日举办,智谱GLM-5发布的时候给了一些数据,几个模型得分都是90分以上,最高时Opus 4.5,93.3分,而国产几个开源模型居然高于Gemin 3 Pro,不过差距并不是很明显(另外GLM-4.7得分居然高于GLM-5🧐🧐)
2
0
0
@DataLearnerAI
DataLearner
3 days
转需 不过这个cch是个啥 好奇怪🤔
0
0
0
@DataLearnerAI
DataLearner
3 days
OpenAI发布了一个新模型GPT-5.3-Codex-Spark,部署在Cerrbras的基础设施上。官方明确这是一个参数规模更小的模型,不是原版Codex。然后有人根据此前Cerebras托管的模型速度估计,它和GLM-4.7-Flash的速度很接近。GLM-4.7-Flash总参数355B,激活参数32B。合理推测,这个spark版本模型大概也就是这个规模
@stalkermustang
Igor Kotenkov
3 days
From what we know, the biggest model served on Cerebras is GLM-4.7, a 355B-A32B model. They never served DeepSeek's 671B or Kimi's 1T models. At the same time, the advertised speed for GLM-4.7 is 1k tokens, roughly matching what OpenAI has written in the blogpost. So Spark is
0
0
2
@DataLearnerAI
DataLearner
3 days
Anthropic最新估值3800亿美元,最新年化运行收入140亿美金,市销率27.8倍左右,这估值比国内企业便宜啊🤔
@AnthropicAI
Anthropic
3 days
Our run-rate revenue is $14 billion, and has grown over 10x in each of the past 3 years. This growth has been driven by our position as the intelligence platform of choice for enterprises and developers. Read more:
0
0
1
@DataLearnerAI
DataLearner
4 days
看到Reddit上有个帖子说Google即将发布Gemini 3.1 Pro Preview,是从artificialanalysis官网上的源代码中发现的这个模型代号,同时也有部分的推友爆料说可能是周四就会发布。传闻是原来的Gemini 3.0 Pro的正式版,但是因为希望表现出差距改为3.1了,传闻哦,还未证实
0
0
0
@DataLearnerAI
DataLearner
4 days
智谱GLM-5,你这……我该说啥???😅😅😅
138
59
720
@DataLearnerAI
DataLearner
4 days
真的是过年了 MiniMax的M2.5也发布了 😁
0
0
3
@DataLearnerAI
DataLearner
4 days
感觉GLM-5还不错啊
@DataLearnerAI
DataLearner
4 days
哇哦 看样子GLM-5模型也来了 过年太热闹了
0
0
0
@DataLearnerAI
DataLearner
4 days
哇哦 看样子GLM-5模型也来了 过年太热闹了
@Zai_org
Z.ai
4 days
A new model is now available on https://t.co/gocggrfb3U.
0
0
0
@DataLearnerAI
DataLearner
4 days
我们用了各种办法问这个模型的信息,虽然它没有办法证实自己是新模型,但是通过分析上传的这个67万tokens、80万文本的三体数据,它也认为自己是一个全新的模型。此外,之前DeepSeek官网也说即使是V3.2也受限于预训练而没有那么好,这次看样子真的来了: https://t.co/1JhorsK35Z
Tweet card summary image
datalearner.com
就在刚才,很多人发现DeepSeek官网已经更新了模型,虽然不确定是DeepSeek-V4,但是目前可以肯定,这不是之前公布的DeepSeek-V3.2而是一个全新的模型。为此,DataLearnerAI实测正式,这个模型的确并非此前的版本。
0
0
0