webbigdata
@webbigdata
Followers
2K
Following
3K
Media
2K
Statuses
3K
vtuber, aituberの配信活動をAIの力で改善する手法を自ら探求し、情報共有します youtube チャンネル https://t.co/RH5DwFs5lD 自作AI/LLM https://t.co/xJqZm3mKcM
Joined March 2020
Google フォームのアンケートからVoiceCoreについてご相談頂いた方、恐れ入りますが再度ご送信をお願いいたします 回答しやすいように「メールアドレスを収集しない」にしていたため、私たちから連絡する手段がありません。 送信しないのにGメールアドレスを最上段に表示する設計は誤解を招きますね
0
0
2
PyTorchリードのソウミスさんMeta退社 当時天下のGoogle TensorFlowに対して「今更後発?」と半信半疑だった事を覚えてます ・ニ番手大学出身数学苦手 ・修士27校応募26校不合格 ・Google DeepMind3回不合格 ・Meta入社時は極度の自信喪失 ・社内政治に潰されかける 神が試した感ある波乱万丈で感動
If you feel like giving up, you must read this never-before-shared story of the creator of PyTorch and ex-VP at Meta, Soumith Chintala. > from hyderabad public school, but bad at math > goes to a "tier 2" college in India, VIT in Vellore > rejected from all 12 universities for
0
81
553
強化学習(GRPO)においてFP16 > BF16になる説、vLLMが対応版を公開 温度0でもバッチサイズによって結果が変わる件などにも対応し、学習時と推論時のミスマッチをなくしてビット単位で一貫性がある事を実証できたとの事 代償として2倍近く遅くなってしまうようですが今後のアップデートが期待されます
🚀 No More Train–Inference Mismatch! We demonstrate bitwise consistent on-policy RL with TorchTitan (training) + vLLM (inference) — the first open-source run where training and inference numerics match exactly. It only takes 3 steps: 1️⃣ Make vLLM batch-invariant (same seq →
0
2
16
中国のTwitterであるWeibo(微博)が公開した数学/コーディング特化型モデルVibeThinker-1.5B、なんと主要な数学ベンチマーク3つでDeepSeek R1を上回っているとの事 正直、この難度の数学問題は私には検証できないので未チェックですが、特化型SLMに新天地を開いた感はあります
⭐ VibeThinker-1.5B — SOTA reasoning in a tiny model. 🚀 Performance: Highly competitive on AIME24/25 & HMMT25 — surpasses DeepSeek R1-0120 on math, and outperforms same-size models in competitive coding. ⚡ Efficiency: Only 1.5B params — 100-600× smaller than giants like Kimi K2
0
1
8
5月に発表されたIntel Arc Pro B60 24GB、日本ではまだ売られているのを見たことがありませんが米国では$599で意外に安価、vLLMも対応したとの事 4つ買えば24GB x 4 = 96GBで70Bクラスのモデルやopenai/gpt-oss-120bなども動くとの事で、将来的に組み替える際の候補にはなりそうです
0
0
7
第11回YouTube動画 [世界進出したい配信者必見]私たち日本の動画クリエイターが世界に羽ばたけるワンチャンがあるカテゴリとは? 副題「日本の YouTuber の99%は電動のこぎりに勝てない」 個人的にはかなり大きな発見でした。電動のこぎりツヨツヨです #YouTuber #Vtuber
https://t.co/Bs2ptgWE9j
0
0
3
合成データアプローチを根本的に変えそうなSYNTH 推論能力向上を念頭に5万件の重要なウィキペディア記事から完全に合成された(500ファイル x 475MB)サイズのデータセット Baguettotron SYNTH200Bで学習した0.3Bモデル。Qwen 3 0.6B(36Tトークン学習)に迫る Monad 50Mモデル。Gemma3 270mに勝つ
Breaking: we release a fully synthetic generalist dataset for pretraining, SYNTH and two new SOTA reasoning models exclusively trained on it. Despite having seen only 200 billion tokens, Baguettotron is currently best-in-class in its size range.
0
1
3
The Value of Personalized Recommendations: Evidence from Netflix YouTubeでいえば、1にカテゴリ選択、2にタイトルとサムネと内容、3に外部プラットフォームで宣伝、でしょうか クリエイター側も意識する必要がありますね https://t.co/54ULf7P7Po
arxiv.org
Personalized recommendation systems shape much of user choice online, yet their targeted nature makes separating out the value of recommendation and the underlying goods challenging. We build a...
0
0
0
Netflixのパーソナライズされた推薦の価値 新推薦アルゴリズムではなくて既存の検証結果だった 応用できそうな「視聴に繋がる効果が大きい」事は 1位 選択 51.3% 誰のための何のコンテンツなのか 2位 ターゲティング 41.9% 一部に深く刺さるコンテンツ 3位 露出 6.8% やみくもな宣伝。効果が薄い
1
0
1
中国発のLLM、Kimi K2 thinkingの評判が良い 米国輸出規制で最新のGPUが学習時に使えなかった ↓ 最新のGPUでなくても効率的に動作する方向に進化 ↓ (予算の問題で)最新のGPUを利用できない欧米圏のユーザーも大喜び の流れ 247GB(RAM+VRAM)で1bit量子化版が動くとの事でご家庭内のGPT-4が現実に
You can now run Kimi K2 Thinking locally with our Dynamic 1-bit GGUFs! We shrank the 1T model to 245GB (-62%) & retained ~85% of accuracy. Run on 247GB RAM. We also worked with the Kimi team on a system prompt fix. Guide: https://t.co/RPYMcVYy5s GGUF: https://t.co/tfCbGX4Ebk
8
223
796
Note記事第5弾 視聴回数が54→10に激減。YouTubeカテゴリ変更で痛い目を見た私が作った、最適カテゴリ診断ツール【無料公開】 YouTube カテゴリ診断ツールは自分で使っていても意外な発見が沢山あって面白かったのでオススメです #YouTuber #vtuber
https://t.co/5USmq13eI3
note.com
こんにちは、webbigdata配信データ研究所です。 週2回、真面目に動画をアップしているのに、視聴回数が54回から10回に激減。 手抜きをしたわけでもないのに、何が起きたのか? 答えは「YouTubeの動画カテゴリの変更」を気軽にやらかしてしまった。 前回の記事「再生数2回の衝撃。カテゴリ変更で起きたインプレッション激減の原因分析と今後の戦略」で、カテゴリ変更がどれだけ危険かをお伝えしま...
0
0
3
第10回YouTube動画 【初心者配信者必見!】AIが教えてくれたYoutTubeのカテゴリ設定に関する驚きの事実 今回の動画は #YouTuber #Vtuber 、もしくは配信初心者の人でカテゴリ設定「ブログ」って何なの?と思った事がある人は見ておいた方が良いと思います 知見が盛々です https://t.co/4J4H1GtshF
0
0
2
AIの内部を新手法K-FACで分解した結果「汎用的な能力を担う部分」と特定のデータを丸暗記した「記憶を担う部分」の切り分けに成功 この発見により能力を維持しつつ、記憶だけを選択的に消去する事が可能に AIが特定のイラストを丸ごと記憶してパクっているという議論は成り立たなくなる可能性が高い
LLMs memorize a lot of training data, but memorization is poorly understood. Where does it live inside models? How is it stored? How much is it involved in different tasks? @jack_merullo_ & @srihita_raju's new paper examines all of these questions using loss curvature! (1/7)
0
2
14
Geminiのパラメータサイズは1.2Tで確定? アップルは、アルファベット傘下のグーグルが開発した1兆2000億パラメータの人工知能モデルを活用し ... このカスタムGeminiシステムは、...Apple Intelligenceで使用されている1500億パラメータモデルから大きな進歩 https://t.co/Bk141Ixwjs
bloomberg.com
Apple Inc. is planning to pay about $1 billion a year for an ultrapowerful 1.2 trillion parameter artificial intelligence model developed by Alphabet Inc.’s Google that would help run its long-prom...
0
0
6
Google GeminiのDeep Researchが、情報ソースとしてYouTubeの動画を含めている事に気づく AI検索が広まるにつれて、HowTo系のWebサイト/記事が訪問者減で大打撃を受けているが、動画も同様にひっそりとアクセスが減っていく可能性が高い 情報発信方法は本当に考える必要がありますね
0
0
7
第9回YouTube動画 【ライブ初心者必見】配信者に人気の高いゲームランキングTOP7!ライバルが多いゲームと本当の狙い目ゲームの見つけ方 TOP YouTuber曰く、始めたばかりの頃の動画なんて誰も見ないんだから黙って100動画アップしろとの事ですが少しずつ収録も慣れてきました https://t.co/YMi0w8tbdz
0
0
1
Open Character Training プロンプト内でAIの性格を定義するのではなくで事後学習でキャラクターの人格を定義して一貫性を高める試み DPOで好みを学習→モデル自身に内省 and モデル間対話で学習データ作成 → SFT まさに、いま、私が挑戦している所だったので参考になりました
AI that is “forced to be good” v ��genuinely good” Should we care about the difference? (yes!) We’re releasing the first open implementation of character training. We shape the persona of AI assistants in a more robust way than alternatives like prompting or activation steering.
0
1
9
GemmaがGoogle AI Studioから削除 共和党上院議員がGoogle AI StudioでGemmaに自己の犯罪歴を聞きGemmaが虚偽の回答をしたと非難した事と関連していると見られている 某米企業が公開した独自モデルがthinkingを中国語でやってるらしいのですが中国系モデルの躍進は続きそう https://t.co/UGDmDFF1it
theverge.com
Senator Marsha Blackburn accused Google of anti-conservative bias.
Gemma is available via an API and was also available via AI Studio, which is a developer tool (in fact to use it you need to attest you're a developer). We’ve now seen reports of non-developers trying to use Gemma in AI Studio and ask it factual questions. We never intended this
0
1
8
ビルボード、つまり米国で最も権威のある音楽ランキングで、AI生成の歌が10月25日付チャートで3位にランクイン 日本でもWeb小説の日間ランキング1位をAI生成小説が取った事が話題になってましたが、同じ土俵で戦う事になると反発も強まるから別にした方が良い気はしています https://t.co/uxSmuSXffx
billboard.com
Xania Monet, who becomes the first AI-powered artist to debut on an airplay chart this week, is one of several AI-driven acts to chart over the past two months.
0
0
7
強化学習(GRPO)においてFP16 > BF16になる説は、諸説入り乱れていますが、ハードウェア or 実装依存の可能性もある感じですね A100はモデル崩壊しやすくてH100だと崩壊をほとんど見た事がないという意見も見ました 直近でGRPOで高みを狙う際はH100やTPUを使うと良いのかもしれません
0
2
32