どくとりん
@docto_rin
Followers
95
Following
191
Media
3
Statuses
83
Medical Student (B5) at Nagoya Univ. | Part-time @PreferredNetJP | ML Engineer
Joined July 2024
今年頭くらいからH&Eの基盤モデルで空間トランスクリプトームを予測する研究が流行っていたけど、時代はもう空間プロテオームなのか...H&Eレッドオーシャンすぎる
0
0
0
H&E画像から、21種類のタンパク質マーカー(PD-L1, CD8, CD68など)発現を予測し仮想mIF画像を推論する「GigaTIME」を発表(Cell誌)。 21人の肺がん患者のH&EとmIFのペアデータ4000万細胞分で学習し、CycleGANを凌駕。Providenceの1.4万人+TCGAの1万人で検証し、空間的な免疫プロファイルを解明。
Open-source AI just leveled up cancer research. In collaboration with Providence and University of Washington, GigaTIME is helping scientists advance cancer research by flipping routine pathology slides into rich, virtual deep maps so they can explore more scenarios, faster
0
0
2
ソフトウェアエンジニアリング協会のコーディング練習会で学んだこと|どくとりん 練習会でコーディングを学んできたことについて記事を書きました。 https://t.co/19s4vI5SHk
note.com
はじめに ソフトウェアエンジニアリング協会(swe.or.jp)のコーディング練習会に参加し、約1か月半でコースを完走しました。この記事では、コーディングを学ぶとはどういうことか、そして私がこの練習会に参加して学んだことを共有させていただきます。 この記事の対象読者 (「動くコード」は書けるが、)「良いコード」の基準が分からない方 一流のソフトウェアエンジニアからコードレビューを受けてみたい方...
0
1
3
GPT-5などの最先端モデルは医療ベンチマークで高スコアを達成するが、画像なしでも正解したり、選択肢の順番変更で精度が下がったり、試験テクニックに頼っているだけということを明らかにした。 真に実臨床で役立てるために、臨床医と共同で評価軸を考える重要性を訴えた。 https://t.co/mRWNZxofzk
0
2
5
臨床記録の誤り検出ベンチマークMedRECTをTech Blogで解説しました。ベンチマーク設計の考え方と評価結果をまとめています。 Preferred-MedRECT-32Bは、誤り訂正などのサブタスクで医師2人に勝るスコアを出しました。 医療AIの安全性評価に関心のある方におすすめです! https://t.co/o9Mevhv2bP
【ブログ】パートタイムエンジニアの岩瀬直人さんによる寄稿です。臨床記録における誤り検出に特化したLLMベンチマーク(MedRECT)を提案しています。 併せて、誤り検出の用途向けに特化させた医療LLM、Preferred-MedRECT-32Bを公開しました。
0
2
2
Our new preprint is out on arXiv! We built MedRECT, a medical reasoning benchmark to study how LLMs detect, localize, and correct errors in clinical texts. Paper: https://t.co/1PRCHwEJ2l Code:
github.com
Contribute to pfnet-research/medrect development by creating an account on GitHub.
1
2
7
Paper2Agent: Reimagining Research Papers As Interactive and Reliable AI Agents Stanfordより 論文のコードと手順をMCPサーバーとしてtool callableにし、Claude Codeなどを用いて対話しながら実験再現や応用が可能に AlphaGenome、Scanpy、TISSUEなどがtoolとして搭載 https://t.co/KtvPAT3kgH
0
0
1
Claude CodeがGithub Copilot, Cursor, Clineの潮流を汲んでいるのに対し、CodexはDevinっぽい
0
0
0
Codex軽く触ってみましたが自己完結力がClaude Codeより高いですね Claude CodeだとユーザーがPlan and Executeを意識しないとすぐ暴走する印象がありますが、Codexは適当なプロンプトを投げても計画的・俯瞰的に動いてくれます (とはいえClaude Codeほど小回りが効かないのが難点)
1
0
1
MedResearcher-R1 医療特化 Deep Research。 1. PubMedから、希少疾患も重視した知識グラフを構築 2. 臨床権威性と鑑別診断を両方加味した検索エンジン 3. SFT+RLで堅牢な医療推論能力を獲得 MedBrowseCompでo3 Deep Researchを倒してSOTA。 一般タスクでも競争力のある成績。 https://t.co/QKSz1qBzMG
arxiv.org
Recent developments in Large Language Model (LLM)-based agents have shown impressive capabilities spanning multiple domains, exemplified by deep research systems that demonstrate superior...
0
1
3
コード実行型エージェントのためのRL 可変時間行動に対する時間重み付き勾配+進捗ログへの部分報酬により、勾配更新が速い方法の過剰評価を防ぎ、軽微な失敗も適切に評価。 Qwen2.5-3Bに適用し、Claude-3.5-Sonnet + agent scaffoldsに対しKaggleの12課題で平均+22%。 https://t.co/2oF4wixBkK
arxiv.org
Existing agents for solving tasks such as ML engineering rely on prompting powerful language models. As a result, these agents do not improve with more experience. In this paper, we show that...
0
0
1
pre-eclampsia の和訳は昔は子癇前症を当てていたけど、最近では妊娠高血圧腎症だよという話を産科の授業で聞きました google翻訳、DeepL、gpt-5-thinking、gemini-2.5-proに和訳させてみたらいずれも子癇前症と答えててなるほどなぁとなりました。医学用語の翻訳は難しい
0
0
1
時代は Daniel Han なんよ
GPT-OSS bug fixes + Flex Attention support is here! 1. Fixed float16 infinite losses (>65504 overflows) 2. SWA=128 Flex default uses 129 tokens (extra 1) 3. Fixed MXFP4 inference swiglu_limit=7.0 not set 4. Sink token moved to index 0 5. FA3 doesn't have attn sink dX Details:
0
0
1
- 元の8倍以上のコンテキスト長でも単一GPU(80GB VRAM)で学習可能に - モデルロード時、expertをmxfp4のまま保持可能に - 学習後、mxfp4をon demand dequantizationしながらlora adapterとマージし、bf16でexport可能に - bf16未対応GPU上で損失が発散するバグを修正 やっとインフラ整備されてきた
OpenAI gpt-oss with ultra long context is here!🚀 Introducing Unsloth Flex Attention which enables 61K context for gpt-oss bf16 training on a 80GB GPU. Unsloth achieves 8×longer context, 50% less VRAM & 1.5×faster training vs. all implementations. 🔗 https://t.co/dstyEsZe1V
0
0
3
このたび7月から、Preferred Networks (@PreferredNetJP) の医療用 LLM チームでパートタイムエンジニアとして働かせていただくことになりました! 医学生としての視点も活かしながら、���療分野における AI 技術の発展に貢献できるよう、精一杯頑張ります。 どうぞよろしくお願いいたします!
1
0
17
Microsoftと中国のチームが提唱する新手法「Reinforcement Pre-Training (RPT)」。 従来の「次トークン予測」を、報酬付きの「次トークン推論」として再定義する試み。 アライメント用の強化学習(GRPO)を事前学習に導入し、モデルの根源的な推論能力向上を達成。 論文: https://t.co/6TJDWzO9ih
arxiv.org
In this work, we introduce Reinforcement Pre-Training (RPT) as a new scaling paradigm for large language models and reinforcement learning (RL). Specifically, we reframe next-token prediction as a...
0
0
3
【入門】フローマッチングのエッセンス https://t.co/nN15QVKHmz 前回投稿した「【入門】拡散モデルのエッセンス」に引き続き、フローマッチングの数理をまとめました。備忘録
zenn.dev
0
6
17