
はまち
@B2E62e0POSfw7CS
Followers
14
Following
2K
Media
1
Statuses
221
Joined September 2022
Google is releasing a 5-Day AI Agents course on Kaggle. Their last course had over 420,000 learners. This one covers: > Agents and their architectures > Tools & MCP integration > Context Engineering > Evaluating the quality of agents > Prototype to Production
20
267
2K
Microsoft just killed the GPU mafia! 🤯 They've open-sourced bitnet.cpp, a blazing-fast 1-bit LLM inference framework optimized for CPUs. This is a major step forward for running large models locally, without expensive GPUs or cloud costs. Demo app + repo + paper in 🧵 ↓
173
899
6K
【9月27日発売】最新刊プレゼントキャンペーン ➡️下記書籍を抽選で3名様にプレゼント🎁 ✅応募方法 ❶当アカウントをフォロー ❷このポストをリポスト 応募締切10月5日まで/当選連絡DM📩 『生成AI時代の価値のつくりかた』 https://t.co/3Y8yrsU9W2
14
921
411
丸1日かけて、Codex(Claude Code)の実力を引き出すべくAGENTS .mdを育成した話。 そのまま使えるAGENTS .md(添付画像)と、育成手順も書き残しておきます。あくまで参考まで。 みなさんもAGENTS .md / Claude .mdの育成テクあったらリプで教えて下さい🙏🙏 [前提]
6
121
2K
Build a Claude Code-like CLI Agent with Pydantic AI and MCP. Step-by-step instructions:
8
44
257
個人的に激アツだったPydantic AIがついにv1.0.0になってる!!!!!! https://t.co/kwMdyguQjl
github.com
GenAI Agent Framework, the Pydantic way. Contribute to pydantic/pydantic-ai development by creating an account on GitHub.
1
25
273
Apple just dropped a killer open-source visualization tool for embeddings — Embedding Atlas — and it’s surprisingly powerful for anyone working with large text+metadata datasets. This reminds me of Nomic's Atlas, but I never got around to using it 😅 We’re talking real-time
37
420
4K
This room was digitised using a camera-mounted flash. As a result, the view-dependent lighting is stored in spherical harmonics. If you disable spherical harmonics you get, roughly, surface albedo. 🔗Link to the scene below
10
38
513
Turn PDF files into clean, LLM-ready data! Dolphin is an open source document parsing framework that converts PDFs into structured formats like Markdown, HTML, LaTeX, and JSON. 100% Open Source
50
566
4K
We are releasing NuMarkdown-8B-Thinking, an open-source (MIT License) reasoning OCR model 🧠✨📄 NuMarkdown-8B-Thinking is apparently the first (!) reasoning VLM specialized in converting PDFs/Scans/Spreadsheets into Markdown files (typically used for RAG applications). It
27
160
1K
we're all sleeping on this OCR model 🔥 dots.ocr is a new 3B model with sota performance, support for 100 languages & allowing commercial use! 🤯 single e2e model to extract image, convert tables, formula, and more into markdown 📝
56
375
3K
This is the fastest serving engine for LLMs! LMCache cuts time-to-first-token by 7x and slashes GPU costs dramatically. Think of it as a smart caching layer that remembers everything your LLM has processed before. 100% open-source, makes vLLM go brr...
22
182
1K
RAGの新記事を出しました。「Deep Research」は便利ですが、自分で実装するのは難しいです。ただ今回の論文では、Googleの研究者が、本家OpenAIよりも高精度な手法を提案しています。しかも内容としては「シゴデキ人間」のプロセスを、AIが模倣。という感じで、直感的です↓ https://t.co/MV7apv8KWC
zenn.dev
1
96
710
NVIDIA Researchより「AIエージェントでは小規模言語モデル(SLM)が主役」との主張。ケーススタディではLLM呼び出しの40~70%を置換可能と示し、移行手順(6章)も提案。SLMでの自己蒸留ループで性能改善のアイディアも。 Small Language Models are the Future of Agentic AI https://t.co/fwEAInQAc8
arxiv.org
Large language models (LLMs) are often praised for exhibiting near-human performance on a wide range of tasks and valued for their ability to hold a general conversation. The rise of agentic AI...
1
30
204
「ChatGPTは日本の落語がよく理解できてない~!やっぱ日本の事を完全理解するLLM作んなきゃダメなんだ~」とかよりも、落語データセット作ってHuggingFaceに上げて「OpenAI様、DeepSeek様、是非ともあなた方のAIにこのデータを学習させてやってくだされ~」って祈る方が簡単だ
0
27
131
日本はAI開発競争に敗北しましたとハッキリ書かなきゃいけないんだろうか。始まる前から負けてたし最初から最後まで負けている。別に日本だけじゃなくて米国中国以外は基本論外ってだけだから恥ずかしい事ではない。意外な事に負けたとて特に困らない状況だけど、そんな環境作ってくれたオープンモデル
0
38
157
ニュース「ローカルLLM実行環境「LM Studio」、企業・組織での商用利用を無料に」公開
gihyo.jp
Element Labsは2025年7月8日、同社が提供しているローカルLLM実行環境「LM Studio」を企業利用においても無料で使えるように方針を変更したことを発表した。
0
235
1K
DeepSeek-R1で有名になった強化学習手法 「GRPO(Group Relative Policy Optimization)」 (※REINFORCEとPPOの御兄弟のような手法) を、 CartPoleタスク(およびPendulum)に対して、Google Colab上で実装しながら解説する記事を執筆しました https://t.co/sg90VcdZ2D
zenn.dev
0
66
375
Introducing 1.58bit DeepSeek-R1 GGUFs! 🐋 DeepSeek-R1 can now run in 1.58-bit, while being fully functional. We shrank the 671B parameter model from 720GB to just 131GB - a 80% size reduction. Naively quantizing all layers breaks the model entirely, causing endless loops &
134
613
4K
R1+Sonnet set a new SOTA on the aider polyglot benchmark, at 14X less cost compared to o1. 64% R1+Sonnet 62% o1 57% R1 52% Sonnet 48% DeepSeek V3 https://t.co/q5uVZwv7mq
44
125
1K