docto_rin Profile Banner
どくとりん Profile
どくとりん

@docto_rin

Followers
95
Following
191
Media
3
Statuses
83

Medical Student (B5) at Nagoya Univ. | Part-time @PreferredNetJP | ML Engineer

Joined July 2024
Don't wanna be here? Send us removal request.
@docto_rin
どくとりん
8 days
今年頭くらいからH&Eの基盤モデルで空間トランスクリプトームを予測する研究が流行っていたけど、時代はもう空間プロテオームなのか...H&Eレッドオーシャンすぎる
0
0
0
@docto_rin
どくとりん
8 days
H&E画像から、21種類のタンパク質マーカー(PD-L1, CD8, CD68など)発現を予測し仮想mIF画像を推論する「GigaTIME」を発表(Cell誌)。 21人の肺がん患者のH&EとmIFのペアデータ4000万細胞分で学習し、CycleGANを凌駕。Providenceの1.4万人+TCGAの1万人で検証し、空間的な免疫プロファイルを解明。
@Microsoft
Microsoft
8 days
Open-source AI just leveled up cancer research. In collaboration with Providence and University of Washington, GigaTIME is helping scientists advance cancer research by flipping routine pathology slides into rich, virtual deep maps so they can explore more scenarios, faster
0
0
2
@docto_rin
どくとりん
1 month
GPT-5などの最先端モデルは医療ベンチマークで高スコアを達成するが、画像なしでも正解したり、選択肢の順番変更で精度が下がったり、試験テクニックに頼っているだけということを明らかにした。 真に実臨床で役立てるために、臨床医と共同で評価軸を考える重要性を訴えた。 https://t.co/mRWNZxofzk
0
2
5
@docto_rin
どくとりん
1 month
臨床記録の誤り検出ベンチマークMedRECTをTech Blogで解説しました。ベンチマーク設計の考え方と評価結果をまとめています。 Preferred-MedRECT-32Bは、誤り訂正などのサブタスクで医師2人に勝るスコアを出しました。 医療AIの安全性評価に関心のある方におすすめです! https://t.co/o9Mevhv2bP
@preferred_jp
PFN Tech
1 month
【ブログ】パートタイムエンジニアの岩瀬直人さんによる寄稿です。臨床記録における誤り検出に特化したLLMベンチマーク(MedRECT)を提案しています。 併せて、誤り検出の用途向けに特化させた医療LLM、Preferred-MedRECT-32Bを公開しました。
0
2
2
@docto_rin
どくとりん
1 month
Our new preprint is out on arXiv! We built MedRECT, a medical reasoning benchmark to study how LLMs detect, localize, and correct errors in clinical texts. Paper: https://t.co/1PRCHwEJ2l Code:
Tweet card summary image
github.com
Contribute to pfnet-research/medrect development by creating an account on GitHub.
1
2
7
@docto_rin
どくとりん
2 months
"Reinforced"
@karpathy
Andrej Karpathy
2 months
@LucasAtkins7 This code is extremely dangerous. Here, I improved it.
0
0
0
@docto_rin
どくとりん
2 months
コンピュータ科学の本を10冊持って山に篭りたい
0
0
3
@docto_rin
どくとりん
3 months
Paper2Agent: Reimagining Research Papers As Interactive and Reliable AI Agents Stanfordより 論文のコードと手順をMCPサーバーとしてtool callableにし、Claude Codeなどを用いて対話しながら実験再現や応用が可能に AlphaGenome、Scanpy、TISSUEなどがtoolとして搭載 https://t.co/KtvPAT3kgH
0
0
1
@docto_rin
どくとりん
3 months
Claude CodeがGithub Copilot, Cursor, Clineの潮流を汲んでいるのに対し、CodexはDevinっぽい
0
0
0
@docto_rin
どくとりん
3 months
Codex軽く触ってみましたが自己完結力がClaude Codeより高いですね Claude CodeだとユーザーがPlan and Executeを意識しないとすぐ暴走する印象がありますが、Codexは適当なプロンプトを投げても計画的・俯瞰的に動いてくれます (とはいえClaude Codeほど小回りが効かないのが難点)
1
0
1
@docto_rin
どくとりん
3 months
MedResearcher-R1 医療特化 Deep Research。 1. PubMedから、希少疾患も重視した知識グラフを構築 2. 臨床権威性と鑑別診断を両方加味した検索エンジン 3. SFT+RLで堅牢な医療推論能力を獲得 MedBrowseCompでo3 Deep Researchを倒してSOTA。 一般タスクでも競争力のある成績。 https://t.co/QKSz1qBzMG
Tweet card summary image
arxiv.org
Recent developments in Large Language Model (LLM)-based agents have shown impressive capabilities spanning multiple domains, exemplified by deep research systems that demonstrate superior...
0
1
3
@docto_rin
どくとりん
3 months
コード実行型エージェントのためのRL 可変時間行動に対する時間重み付き勾配+進捗ログへの部分報酬により、勾配更新が速い方法の過剰評価を防ぎ、軽微な失敗も適切に評価。 Qwen2.5-3Bに適用し、Claude-3.5-Sonnet + agent scaffoldsに対しKaggleの12課題で平均+22%。 https://t.co/2oF4wixBkK
Tweet card summary image
arxiv.org
Existing agents for solving tasks such as ML engineering rely on prompting powerful language models. As a result, these agents do not improve with more experience. In this paper, we show that...
0
0
1
@docto_rin
どくとりん
3 months
論文草稿を書き上げたゾ〜
0
0
2
@docto_rin
どくとりん
4 months
pre-eclampsia の和訳は昔は子癇前症を当てていたけど、最近では妊娠高血圧腎症だよという話を産科の授業で聞きました google翻訳、DeepL、gpt-5-thinking、gemini-2.5-proに和訳させてみたらいずれも子癇前症と答えててなるほどなぁとなりました。医学用語の翻訳は難しい
0
0
1
@docto_rin
どくとりん
4 months
時代は Daniel Han なんよ
@danielhanchen
Daniel Han
4 months
GPT-OSS bug fixes + Flex Attention support is here! 1. Fixed float16 infinite losses (>65504 overflows) 2. SWA=128 Flex default uses 129 tokens (extra 1) 3. Fixed MXFP4 inference swiglu_limit=7.0 not set 4. Sink token moved to index 0 5. FA3 doesn't have attn sink dX Details:
0
0
1
@docto_rin
どくとりん
4 months
- 元の8倍以上のコンテキスト長でも単一GPU(80GB VRAM)で学習可能に - モデルロード時、expertをmxfp4のまま保持可能に - 学習後、mxfp4をon demand dequantizationしながらlora adapterとマージし、bf16でexport可能に - bf16未対応GPU上で損失が発散するバグを修正 やっとインフラ整備されてきた
@UnslothAI
Unsloth AI
4 months
OpenAI gpt-oss with ultra long context is here!🚀 Introducing Unsloth Flex Attention which enables 61K context for gpt-oss bf16 training on a 80GB GPU. Unsloth achieves 8×longer context, 50% less VRAM & 1.5×faster training vs. all implementations. 🔗 https://t.co/dstyEsZe1V
0
0
3
@docto_rin
どくとりん
6 months
このたび7月から、Preferred Networks (@PreferredNetJP) の医療用 LLM チームでパートタイムエンジニアとして働かせていただくことになりました! 医学生としての視点も活かしながら、���療分野における AI 技術の発展に貢献できるよう、精一杯頑張ります。 どうぞよろしくお願いいたします!
1
0
17
@docto_rin
どくとりん
6 months
Microsoftと中国のチームが提唱する新手法「Reinforcement Pre-Training (RPT)」。 従来の「次トークン予測」を、報酬付きの「次トークン推論」として再定義する試み。 アライメント用の強化学習(GRPO)を事前学習に導入し、モデルの根源的な推論能力向上を達成。 論文: https://t.co/6TJDWzO9ih
Tweet card summary image
arxiv.org
In this work, we introduce Reinforcement Pre-Training (RPT) as a new scaling paradigm for large language models and reinforcement learning (RL). Specifically, we reframe next-token prediction as a...
0
0
3
@docto_rin
どくとりん
6 months
【入門】フローマッチングのエッセンス https://t.co/nN15QVKHmz 前回投稿した「【入門】拡散モデルのエッセンス」に引き続き、フローマッチングの数理をまとめました。備忘録
Tweet card summary image
zenn.dev
0
6
17