SaitohKoki Profile Banner
Koki Saitoh 斎藤康毅 Profile
Koki Saitoh 斎藤康毅

@SaitohKoki

Followers
8K
Following
545
Media
68
Statuses
267

ゼロから作るのが好きです。著書に『ゼロから作るDeep Learning』など。

Joined May 2013
Don't wanna be here? Send us removal request.
@SaitohKoki
Koki Saitoh 斎藤康毅
1 month
『ゼロから作るDeep Learning ❻ —LLM編』の公開レビューが終了しました。 参加してくださった皆さま、本当にありがとうございました。いただいたフィードバックのおかげで、本がより良いものになりました。
1
16
211
@SaitohKoki
Koki Saitoh 斎藤康毅
1 month
明日までです。 公開レビュー「ゼロから作るDeep Learning❻️—LLM編」 https://t.co/TGbMdZCTt2
1
13
117
@SaitohKoki
Koki Saitoh 斎藤康毅
1 month
KVキャッシュの仕組みを実装レベルで理解しよう! ゼロから作るDeep Learning❻—LLM編(公開レビュー中) https://t.co/oI9olE7v8o
0
37
399
@SaitohKoki
Koki Saitoh 斎藤康毅
2 months
RoPEは、「回転」というシンプルなアイデアで相対位置を表現できるのが美しいです。 2次元の回転行列から始めて、高次元への拡張、そして実装まで。 ゼロから作るDeep Learning❻—LLM編(公開レビュー中) https://t.co/3kVVcE1T3X
0
32
270
@oreilly_japan
O'Reilly Japan
2 months
【📢まもなく終了】 2026年6月刊行予定の人気シリーズ最新刊『ゼロから作るDeep Learning ❻ ―LLM編』の公開レビューを実施中です✨ レビュー期間は1月18日(日)まで。本文の原稿をご覧いただけます。コメントも歓迎しておりますので、みなさまぜひご参加ください! https://t.co/II9g2NObNI
0
18
74
@SaitohKoki
Koki Saitoh 斎藤康毅
2 months
BPEトークナイザはUTF-8でテキストをバイト列に変換します。 "a" → [97] "あ" → [227, 129, 130] "😁"→ [240, 159, 152, 129] 文字によって長さが違う。どういう仕組みか?興味のある方は👇 ゼロから作るDeep Learning❻️—LLM編(公開レビュー中) https://t.co/QhOx83SRxV
0
2
26
@SaitohKoki
Koki Saitoh 斎藤康毅
2 months
トークナイザとは、テキストをIDの列に変換するもの。下記は文字単位のトークン化の実装 text = "hello世界😁" ids = [ord(w) for w in text] たったこれだけ(ordはユニコードへの変換)。ここから「なぜBPEが必要か」が見えてきます。 👇 公開レビュー中 https://t.co/IUDgc6vng7
0
1
42
@SaitohKoki
Koki Saitoh 斎藤康毅
2 months
BPEトークナイザの仕組み 1. テキストをバイト列(0〜255)に変換 2. 隣接するペアの出現回数をカウント 3. 最頻出ペアを新しいトークンに置き換え 4. 2〜3を繰り返す つまりは「よく出るペアをまとめる」を繰り返すだけ 👇 公開レビュー中 https://t.co/NPwJkIdWRt
0
5
48
@SaitohKoki
Koki Saitoh 斎藤康毅
2 months
本書で作る3つのチャットボット: 🟡 CodeBot:Pythonコードを書く 🔵 StoryBot:子供向けの物語を生成 🔴 WebBot:インターネット規模のデータで学習 👇 ゼロから作るDeep Learning❻️—LLM編(公開レビュー中) https://t.co/TGbMdZClDu
0
11
63
@SaitohKoki
Koki Saitoh 斎藤康毅
2 months
Transformerは入力トークン数と同じ数の確率分布を出力します。 テキスト生成では最後だけ使う。学習では全部使う。この違いを押さえておくと、後の理解がスムーズになります。 👇 公開レビュー中 https://t.co/DtafVdUsZW
1
20
211
@SaitohKoki
Koki Saitoh 斎藤康毅
2 months
Transformerが「I ate a fresh orange」を処理するとき(イメージ) 最初「orange」ベクトルにはいろいろな意味が含まれています(果物?色?)。Attentionが周囲の言葉との関係性を見て、「これは果物だ」とベクトルを更新します。 👇公開レビュー中 https://t.co/JfvquRGcq7
1
50
395
@SaitohKoki
Koki Saitoh 斎藤康毅
2 months
Attentionについて、答えられますか? ・なぜ√dでスケーリングするのか ・因果マスクはなぜ必要か ・マルチヘッドの「ヘッド」とは何か ・KVキャッシュはどう効率化を実現するか ・RoPEはどうやって位置情報を組み込むか 👇 公開レビュー中 https://t.co/83uRnEp9Tn
0
53
449
@SaitohKoki
Koki Saitoh 斎藤康毅
2 months
Attentionの本質は「ソフトなディクショナリ」。 普通のディクショナリは完全一致するキーの値だけを返す。一方、Attentionはクエリとすべてのキーの類似度を計算し、重み付けして混ぜ合わせた値を返す。 👇 ゼロから作るDeep Learning ❻ —LLM編(公開レビュー中) https://t.co/RQdxvfSgUb
2
87
677
@SaitohKoki
Koki Saitoh 斎藤康毅
2 months
『ゼロから作るDeep Learning ❻ —LLM編』の公開レビューを開始しました! 今回のテーマはLLM。CodeBot → StoryBot → WebBotという3段階のチャットボット開発を通じて、LLMの仕組みをゼロから実装します。 https://t.co/n7dDfMfsyY
3
241
1K
@oreilly_japan
O'Reilly Japan
2 months
ついに… Amazonではまだ予約受付のカートが開いておりませんので予告のみです。楽天ブックスは予約受付が始まっております。 著者の斎藤康毅さんによる恒例の公開レビューも予定されておりますので、続報をお待ちください! https://t.co/jQJ6KpcN13 https://t.co/uhD8JEqIKn
0
48
231
@oreilly_japan
O'Reilly Japan
3 months
累計発行部数が驚きの20万部を突破しているディープラーニングの超定番入門解説書『ゼロから作るDeep Learning』ですが、Amazonで読者の皆さまから寄せられた評価数が、ついに✨900個✨に到達しました🎉皆さまありがとうございます!1,000個に向けても引き続きよろしくお願いいたします!
0
14
57