AnalogTechnica Profile Banner
analog_technica Profile
analog_technica

@AnalogTechnica

Followers
68
Following
480
Media
12
Statuses
219

Keisuke KIRYU - SW Engineer/ Natural Language Processing

Japan
Joined May 2020
Don't wanna be here? Send us removal request.
@AnalogTechnica
analog_technica
5 days
この研修を担当しました!.素敵なコメントありがとうございます🤗.
@schroneko
ぬこぬこ | NUKO
5 days
リクルートの資料、めちゃくちゃ丁寧でわかりやすかった. つくって納得、つかって実感! 大規模言語モデルことはじめ
1
1
20
@AnalogTechnica
analog_technica
4 days
「大規模言語モデルことはじめ」の資料が多くの方に届いておりとても嬉しいです。私が担当した研修の他にも多数の研修資料が公開されていますので、よろしければぜひご覧ください!. エンジニアコース新人研修の内容を公開します!(2025年度版) | Recruit Tech Blog
Tweet card summary image
techblog.recruit.co.jp
株式会社リクルート エンジニアコース新人研修の内容を公開します!(2025年度版)です。リクルートの社内組織やプロダクト開発、最新のTech関連情報などを紹介しています。
0
0
1
@grok
Grok
19 days
Blazing-fast image creation – using just your voice. Try Grok Imagine.
284
566
3K
@AnalogTechnica
analog_technica
5 days
RT @schroneko: リクルートの資料、めちゃくちゃ丁寧でわかりやすかった. つくって納得、つかって実感! 大規模言語モデルことはじめ
Tweet card summary image
speakerdeck.com
2025年度リクルート エンジニアコース新人研修の講義資料です
0
126
0
@AnalogTechnica
analog_technica
3 months
LLMのプロンプトエンジニアリング、ちょいちょいLLMジョークが入ってて面白い(が、それをジョークと気づくにはLLMに対するそれなりの理解が必要という.
1
0
2
@AnalogTechnica
analog_technica
9 months
Why Small Language Models Are The Next Big Thing In AI
0
0
0
@AnalogTechnica
analog_technica
10 months
どういう訳かここ最近、誤字脱字検出モデルのダウンロード数が伸びていて嬉しい。使った人の感想も聞いてみたいところ。.
Tweet media one
0
0
1
@AnalogTechnica
analog_technica
11 months
それから「あとがき」がとても良いです.
0
0
0
@AnalogTechnica
analog_technica
11 months
小町先生の「自然言語処理の教科書」がタイトル通り本当に良くまとまっていて、これからNLPやりたい人にはまずこの本を薦めたい。ページ数の割に内容が濃くて網羅性が高い。参考文献の章には関連書籍や主要論文の丁寧なコメントがあり、迷える人を導く道標になっている。.
amazon.co.jp
深層学習の登場により、人工知能分野の技術が広く注目されています。特に自然言語処理は、我々の生活の中に深く浸透してきました。例えば検索システム、SiriやAlexaなどの音声対話システム、DeepLといった機械翻訳が挙げられます。いまや多くの企業や研究機関が、自然言語処理を用いた様々なプロジェクトを進めています。 本書はどの時代の自然言語処理にも必要となる技術について解説します。新しい技術が次...
2
2
5
@AnalogTechnica
analog_technica
1 year
いい話.LLMを開発する意義って何?と問われがちな身分として励みになる. #fukabori
Tweet card summary image
podcasts.apple.com
ポッドキャストのエピソード · fukabori.fm · 2024/08/23 · 56分
0
1
5
@AnalogTechnica
analog_technica
1 year
7Bのモデルマージは割と良好な結果になるが13Bだとモデルが崩壊する謎….
0
0
0
@AnalogTechnica
analog_technica
1 year
RT @llm_jp: LLM勉強会では130億パラメータの事前学習済み大規模言語モデルの新しいバージョン「LLM-jp-13B v2.0」を公開しました。.事前学習コーパスやモデル構造の改善、安全性を考慮したチューニングの導入等を行っています。. プレスリリース.https:….
Tweet card summary image
nii.ac.jp
国立情報学研究所は、情報学という新しい研究分野での「未来価値創成」を目指すわが国唯一の学術総合研究所として、ネットワーク、ソフトウェア、コンテンツなどの情報関連分野の新しい理論・方法論から応用展開までの研究開発を総合的に推進しています。
0
63
0
@AnalogTechnica
analog_technica
1 year
LangChainのTextSplitter に使うためのモデルを作るのは地味に需要ありそう。文長さとか指定できたりすると嬉しい.
0
0
0
@AnalogTechnica
analog_technica
1 year
メモ.LlamaIndexのFine-tuning Embeddingsサンプルにデフォルトで使われている損失関数のMultipleNegativeRankingLossはラベルなしで使える.
0
0
0
@AnalogTechnica
analog_technica
1 year
arxivのfaviconがこう見えている人は少なくないはず…
Tweet media one
0
0
0
@AnalogTechnica
analog_technica
1 year
arxiv落ちてるな?.
0
0
0
@AnalogTechnica
analog_technica
1 year
メモ.streamlitからsqliteに接続してconnections.queryを叩くときにttl=0にしておくとキャッシュを無視できる.
0
0
0
@AnalogTechnica
analog_technica
1 year
PKSHAさんのブースでもらったキーキャップをデプロイ.かっこいい!
Tweet media one
0
1
6
@AnalogTechnica
analog_technica
1 year
NLP2023での問い「ChatGPTで自然言語処理は終わるのか?」に対する1年後の答え「全然終わりません!」. 今回もとても楽しい学会でした!.#NLP2024.
0
2
10
@AnalogTechnica
analog_technica
1 year
スポンサーブースは明日までですね.LLMの継続事前学習にまつわる話を展示しています、ぜひどうぞ〜. #NLP2024
Tweet media one
0
0
3