Explore tweets tagged as #AutoThink
@KwaiAICoder
KwaiKAT
5 months
🚀 Excited to introduce KAT-V1 (Kwaipilot-AutoThink) – a breakthrough 40B large language model from the Kwaipilot team! KAT-V1 dynamically switches between reasoning and non-reasoning modes to address the “overthinking” problem in complex reasoning tasks. Key Highlights: 📌 40B
4
21
95
@aquiffoo
aqui 🇧🇷
3 months
aquif-3.6-8B is a hybrid reasoning model that automatically determines when and how deeply to think based on query complexity. Built on aquif-3.5-8B-Think with AutoThink RL data, it achieves 28% better token efficiency and 4% performance improvement across benchmarks.
1
0
0
@not_autothink
生まれ変わり
11 days
@OWARI_200 すいません、ちょっと教えてください。プラコンユーザーです。あぶさんのお勧め設定1とえむさんの設定を参考に1Hでプラコン無裁量取り引きをしていますが昨日今日と惨憺たる結果です。何か間違っているのでしょうか。OWARIさんは現在利益でておられますか?
1
1
3
@not_autothink
生まれ変わり
22 days
朝パンさんという方のTIPSを購入しました。 正直な感想として、ここまで「個人トレーダーの弱点」に寄り添い、具体的かつ論理的に解決策を示してくれた教材は初めてでした。明るい希望がはっきり見えてきました。 間違いなく読む価値のあるTIPSです。 https://t.co/JnGWVAr0Va
0
0
2
@MyLLMnews
wtllm_news
11 days
Researchers propose Omni-AutoThink, a framework that enables adaptive multimodal reasoning via reinforcement learning, improving performance on multimodal tasks by dynamically adjusting reasoning depth. https://t.co/OnZ5GDU4Jq
0
0
0
@ai_zona
AI Zona
7 months
🚀 How does boosting your local LLM performance by 43% sound? Discover the transformative power of adaptive reasoning with AutoThink! 🌟 Key Takeaways: - AutoThink enhances local LLM performance by leveraging adaptive reasoning techniques. - This advancement is crucial for
0
0
1
@asankhaya
Asankhaya Sharma
5 months
@jiqizhixin We saw similar results with DeekSeek R1, thinking for more tokens doesn't always lead to correct answers, in fact we can get same results with roughly half the tokens. Paper: "AutoThink: efficient inference for reasoning LLMs" - https://t.co/f3pw793NhE
0
2
11
@not_autothink
生まれ変わり
7 days
@soubashishin プライムコンボシグナル私は全く勝てません。どうしたらいいのかわかりません
2
0
3
@dngzsn37461
ThirdBro
5 months
快手开源了KAT-V1模型,40B参数能追平DeepSeek-R1...这个AutoThink功能挺有意思的,能自动判断要不要深度思考,不像其他模型啥问题都要想半天。200B版本性能更强但还在训练中,感觉解决了AI过度思考的问题
0
0
6
@fleet_enable
Fleet Enable
3 years
We aim to optimize your #finalmile & streamline back-office operations. Here's what the CEO & Founder of @AutoThinkUSA shares about the benefits of adding Fleet Enable to AutoThink's tech stack.
0
0
1
@DataYuanChina
数据猿
5 months
The Kwai Kwaipilot-AutoThink model has been officially released https://t.co/ZmpXKMiW1K
0
0
0
@AINativeF
AI Native Foundation
6 months
⭐ Today’s China AI Native Industry Insights include: 1. Kuaishou Open-Sources AutoThink: The LLM that Automatically Adjusts Thinking Depth 2. Meta Sota's AI Learning Platform Now Exports Complete PPT Slides 3. Manus Launches AI Video Generation: Turn Prompts into Stories
1
0
8
@KwaiAICoder
KwaiKAT
6 months
1/🚀 Introducing KwaiCoder-AutoThink-preview 🧠 Dynamically switches thinking modes — deep reasoning for hard problems, instant answers for simple ones ⚡ + 20pts on code/math benchmarks with auto-switch thinking 🪄 Trained with 1/30 cost via distillation + MTP 👇 Try it: 🤗
1
1
5
@Aldo_Verteramo
Aldo Verteramo 🚀
7 months
AutoThink es una nueva técnica de IA que mejora la eficiencia de los modelos de lenguaje. Reduce el uso de recursos, optimiza preguntas difíciles y solo tarda 10 milisegundos más.
0
0
0
@OWARI_200
OWARI@株FX
11 days
@not_autothink 生まれ変わりさんのいう設定が私の方で分からないのですが、どんな設定でしょうか。 今週のプラコンから計測してますが今週だけで6%くらい利益出てます。 ロットは一旦抑えてます。
2
0
3
@not_autothink
生まれ変わり
2 months
#朝パンワールド に参加しました。 これまで曖昧だった相場や手法の捉え方が理論的に整理できた感じがします。 単なる手法じゃなく思考の軸が整う感じです。 心理的に挫折しやすそうなところの対策がとても参考になります。 学びを実践に落とし込み、ここから成果を出していきたいと思います。
0
0
0
@shao__meng
meng shao
6 months
快手 Kwaipilot 团队发布首个自动思考 LLM - KwaiCoder-AutoThink-preview,参数规模为406亿,支持动态调整推理深度,适用于问答、代码生成、文本摘要等多任务场景 模型特点 · 模型规模:406亿参数,使用 BF16 张量 · 多功能性:能处理问答、代码生成、文本摘要等多种任务 ·
2
5
13
@rg_vasicek
r.g. vašíček
2 years
aut[o]think is a machine for living in https://t.co/gr5cN1kcPu
1
1
4
@SciFi
AI Papers
11 days
Omni-AutoThink: Adaptive Multimodal Reasoning via Reinforcement Learning.
0
0
1