
Sho Sakai
@simplesho_CLT
Followers
713
Following
9K
Media
51
Statuses
1K
Ph.D. student at the University of Tsukuba | JST BOOST | Machine Learning | Podcast #DataScienceLG | English posts available on LinkedIn
Joined October 2022
RT @AIcia_Solid: 学び. まだ画像とか動画の diffusion しかちゃんと知らないから、.diffusion を policy とか molecule gen. に使う研究見てもよくわからない.(雰囲気はわかる). まず問題意識を知らないんですね、だから研究….
0
2
0
RT @ramchanthedog: 長いけど、29:30〜頃から聴いてほしいです。メディアを信じる / 信じないという話以前に事実は事実として今あり、それを受け止めた上で前に進むか、そうでないかだと思います。 お掃除や家事やお散歩のお供にどうぞ🐕💨.
0
4
0
RT @ano2math5: Hier sind meine Folien für das Seminar an der Universität Ulm! Ich hoffe, es ist ein guter Anfang für die zwei Wochen hier!….
0
2
0
【質問募集(締切:なし)】#DataScienceLG.返信や応募フォーム、メール、Discord���slackにて募集!.Podcast(Data Science LG: 学び合う統計とデータサイエンス、にて、. 中山 優吾さん.にご出演いただきます。質問などございましたらお送りください!.
0
0
1
RT @tmiyatake1: AppleのAirPods 2がインドネシア、台湾、オーストラリア、ベトナムなどで補聴器として承認された。. Off Topicでも3年前ぐらいにこの展開について予想していたが、Appleとしては次の大きな展開はヘルスケア領域。 https://….
0
2
0
RT @tmiyatake1: 会話は探りのためであり、知的厳密さのためではないとNew York TimesコラムニストのEzra Kleinが主張。. 文章は知的厳密さのテクノロジーであり、ツッコミが入る可能性が高まるからこそより準備して書くとのこと。 https://t.….
0
7
0
RT @NStudAmbProg: 「NVIDIA学生アンバサダープログラム」は、学生がAIやデータサイエンスの最新動向を学びながら、コミュニティ内で技術共有ワークショップやイベントを通じてGPUに関する最新技術やノウハウを発信するプログラムです。. https://t.co/….
0
1
0
RT @asap2650: これが本当なら、残念ながらQwen系の強化学習論文の信憑性は完全に無くなってしまった。. つまみ食い程度しかAI系の論文を読んでない自分です���、QwenがLlamaよりも強化学習で数学の能力が上がる結….
0
112
0
RT @StatMEPapers: Kun Fan, Srijana Subedi, Vishmi Ridmika Dissanayake Pathiranage, Cen Wu. [. Robust Bayesian high-….
0
1
0
RT @StatsPapers: GOLFS: Feature Selection via Combining Both Global and Local Information for High Dimensional Clustering. .
0
1
0
RT @StatMEPapers: Zixuan Wu, Elena Tuzhilina, Claire Donnat. [. Efficient Canonical Correlation Analysis with Spars….
0
1
0
RT @KenjiKai_OMU: 論文を紹介するラボセミナーで、FigやTableをスライドに貼り付けて、全訳(おそらく丸投げ翻訳)を朗読するだけなのは、こちらの本意ではないんだが、それで最低限のレベルをクリアしてしまうのも事実。皆さんはどう工夫して、論文紹介セミナーをより学….
0
49
0
RT @KU_politik0618: 誇り高き「日本人」の皆さんは、今まで我々がどんなに声を上げても苦学生の置かれた状況になど見向きもしなかったではないですか。それを排外主義が争点になるや否や、留学生を追い出したいがためだけに「日本人学生の苦境」をダシに使うの本当にどうなんで….
0
3K
0
RT @hillbig: 1層のTransformerはコンテキスト中の連想記憶を再現でき、教師なしのインコンテキスト学習を実現しているといえる。Transformerは文脈中の事例を元に、それを記憶するモダン連想記憶に基づくエネルギー関数を暗黙的に構築し、クエリ近くの局所解に….
0
34
0
RT @kis: 「下手なテック系よりもマイルドヤンキー向けビジネス」.「日本でこれまでやってきて、レッドオーシャンになったタイプのビジネスでも、そのやり方をそのままアメリカに持ってきただけで、美味しい商売になる可能性」.おもしろい.
0
974
0