webbigdata Profile Banner
webbigdata Profile
webbigdata

@webbigdata

Followers
2K
Following
3K
Media
2K
Statuses
3K

vtuber, aituberの配信活動をAIの力で改善する手法を自ら探求し、情報共有します youtube チャンネル https://t.co/RH5DwFs5lD 自作AI/LLM https://t.co/xJqZm3mKcM

Joined March 2020
Don't wanna be here? Send us removal request.
@webbigdata
webbigdata
20 days
Google フォームのアンケートからVoiceCoreについてご相談頂いた方、恐れ入りますが再度ご送信をお願いいたします 回答しやすいように「メールアドレスを収集しない」にしていたため、私たちから連絡する手段がありません。 送信しないのにGメールアドレスを最上段に表示する設計は誤解を招きますね
0
0
2
@webbigdata
webbigdata
1 day
PyTorchリードのソウミスさんMeta退社 当時天下のGoogle TensorFlowに対して「今更後発?」と半信半疑だった事を覚えてます ・ニ番手大学出身数学苦手 ・修士27校応募26校不合格 ・Google DeepMind3回不合格 ・Meta入社時は極度の自信喪失 ・社内政治に潰されかける 神が試した感ある波乱万丈で感動
@deedydas
Deedy
2 days
If you feel like giving up, you must read this never-before-shared story of the creator of PyTorch and ex-VP at Meta, Soumith Chintala. > from hyderabad public school, but bad at math > goes to a "tier 2" college in India, VIT in Vellore > rejected from all 12 universities for
0
81
553
@webbigdata
webbigdata
1 day
強化学習(GRPO)においてFP16 > BF16になる説、vLLMが対応版を公開 温度0でもバッチサイズによって結果が変わる件などにも対応し、学習時と推論時のミスマッチをなくしてビット単位で一貫性がある事を実証できたとの事 代償として2倍近く遅くなってしまうようですが今後のアップデートが期待されます
@vllm_project
vLLM
3 days
🚀 No More Train–Inference Mismatch! We demonstrate bitwise consistent on-policy RL with TorchTitan (training) + vLLM (inference) — the first open-source run where training and inference numerics match exactly. It only takes 3 steps: 1️⃣ Make vLLM batch-invariant (same seq →
0
2
16
@webbigdata
webbigdata
2 days
中国のTwitterであるWeibo(微博)が公開した数学/コーディング特化型モデルVibeThinker-1.5B、なんと主要な数学ベンチマーク3つでDeepSeek R1を上回っているとの事 正直、この難度の数学問題は私には検証できないので未チェックですが、特化型SLMに新天地を開いた感はあります
@WeiboLLM
WeiboLLM
4 days
⭐ VibeThinker-1.5B — SOTA reasoning in a tiny model. 🚀 Performance: Highly competitive on AIME24/25 & HMMT25 — surpasses DeepSeek R1-0120 on math, and outperforms same-size models in competitive coding. ⚡ Efficiency: Only 1.5B params — 100-600× smaller than giants like Kimi K2
0
1
8
@webbigdata
webbigdata
3 days
5月に発表されたIntel Arc Pro B60 24GB、日本ではまだ売られているのを見たことがありませんが米国では$599で意外に安価、vLLMも対応したとの事 4つ買えば24GB x 4 = 96GBで70Bクラスのモデルやopenai/gpt-oss-120bなども動くとの事で、将来的に組み替える際の候補にはなりそうです
0
0
7
@webbigdata
webbigdata
3 days
第11回YouTube動画 [世界進出したい配信者必見]私たち日本の動画クリエイターが世界に羽ばたけるワンチャンがあるカテゴリとは? 副題「日本の YouTuber の99%は電動のこぎりに勝てない」 個人的にはかなり大きな発見でした。電動のこぎりツヨツヨです #YouTuber #Vtuber https://t.co/Bs2ptgWE9j
0
0
3
@webbigdata
webbigdata
3 days
合成データアプローチを根本的に変えそうなSYNTH 推論能力向上を念頭に5万件の重要なウィキペディア記事から完全に合成された(500ファイル x 475MB)サイズのデータセット Baguettotron SYNTH200Bで学習した0.3Bモデル。Qwen 3 0.6B(36Tトークン学習)に迫る Monad 50Mモデル。Gemma3 270mに勝つ
@Dorialexander
Alexander Doria
5 days
Breaking: we release a fully synthetic generalist dataset for pretraining, SYNTH and two new SOTA reasoning models exclusively trained on it. Despite having seen only 200 billion tokens, Baguettotron is currently best-in-class in its size range.
0
1
3
@webbigdata
webbigdata
4 days
The Value of Personalized Recommendations: Evidence from Netflix YouTubeでいえば、1にカテゴリ選択、2にタイトルとサムネと内容、3に外部プラットフォームで宣伝、でしょうか クリエイター側も意識する必要がありますね https://t.co/54ULf7P7Po
Tweet card summary image
arxiv.org
Personalized recommendation systems shape much of user choice online, yet their targeted nature makes separating out the value of recommendation and the underlying goods challenging. We build a...
0
0
0
@webbigdata
webbigdata
4 days
Netflixのパーソナライズされた推薦の価値 新推薦アルゴリズムではなくて既存の検証結果だった 応用できそうな「視聴に繋がる効果が大きい」事は 1位 選択 51.3% 誰のための何のコンテンツなのか 2位 ターゲティング 41.9% 一部に深く刺さるコンテンツ 3位 露出 6.8% やみくもな宣伝。効果が薄い
1
0
1
@webbigdata
webbigdata
5 days
ChatGPTに自分が最高技術責任者(CTO)だと伝えたら、技術的な質問に対する回答を全部、私が技術の事を良くわかっていない前提で噛み砕いて説明してくれるようになった
@cramforce
Malte Ubl
8 days
I told ChatGPT that I'm a CTO and now it dumbs down all the answers to technical questions so I can understand them
0
1
8
@webbigdata
webbigdata
5 days
中国発のLLM、Kimi K2 thinkingの評判が良い 米国輸出規制で最新のGPUが学習時に使えなかった ↓ 最新のGPUでなくても効率的に動作する方向に進化 ↓ (予算の問題で)最新のGPUを利用できない欧米圏のユーザーも大喜び の流れ 247GB(RAM+VRAM)で1bit量子化版が動くとの事でご家庭内のGPT-4が現実に
@UnslothAI
Unsloth AI
7 days
You can now run Kimi K2 Thinking locally with our Dynamic 1-bit GGUFs! We shrank the 1T model to 245GB (-62%) & retained ~85% of accuracy. Run on 247GB RAM. We also worked with the Kimi team on a system prompt fix. Guide: https://t.co/RPYMcVYy5s GGUF: https://t.co/tfCbGX4Ebk
8
223
796
@webbigdata
webbigdata
7 days
第10回YouTube動画 【初心者配信者必見!】AIが教えてくれたYoutTubeのカテゴリ設定に関する驚きの事実 今回の動画は #YouTuber #Vtuber 、もしくは配信初心者の人でカテゴリ設定「ブログ」って何なの?と思った事がある人は見ておいた方が良いと思います 知見が盛々です https://t.co/4J4H1GtshF
0
0
2
@webbigdata
webbigdata
8 days
AIの内部を新手法K-FACで分解した結果「汎用的な能力を担う部分」と特定のデータを丸暗記した「記憶を担う部分」の切り分けに成功 この発見により能力を維持しつつ、記憶だけを選択的に消去する事が可能に AIが特定のイラストを丸ごと記憶してパクっているという議論は成り立たなくなる可能性が高い
@GoodfireAI
Goodfire
9 days
LLMs memorize a lot of training data, but memorization is poorly understood. Where does it live inside models? How is it stored? How much is it involved in different tasks? @jack_merullo_ & @srihita_raju's new paper examines all of these questions using loss curvature! (1/7)
0
2
14
@webbigdata
webbigdata
9 days
Geminiのパラメータサイズは1.2Tで確定? アップルは、アルファベット傘下のグーグルが開発した1兆2000億パラメータの人工知能モデルを活用し ... このカスタムGeminiシステムは、...Apple Intelligenceで使用されている1500億パラメータモデルから大きな進歩 https://t.co/Bk141Ixwjs
Tweet card summary image
bloomberg.com
Apple Inc. is planning to pay about $1 billion a year for an ultrapowerful 1.2 trillion parameter artificial intelligence model developed by Alphabet Inc.’s Google that would help run its long-prom...
0
0
6
@webbigdata
webbigdata
9 days
Google GeminiのDeep Researchが、情報ソースとしてYouTubeの動画を含めている事に気づく AI検索が広まるにつれて、HowTo系のWebサイト/記事が訪問者減で大打撃を受けているが、動画も同様にひっそりとアクセスが減っていく可能性が高い 情報発信方法は本当に考える必要がありますね
0
0
7
@webbigdata
webbigdata
10 days
第9回YouTube動画 【ライブ初心者必見】配信者に人気の高いゲームランキングTOP7!ライバルが多いゲームと本当の狙い目ゲームの見つけ方 TOP YouTuber曰く、始めたばかりの頃の動画なんて誰も見ないんだから黙って100動画アップしろとの事ですが少しずつ収録も慣れてきました https://t.co/YMi0w8tbdz
0
0
1
@webbigdata
webbigdata
10 days
Open Character Training プロンプト内でAIの性格を定義するのではなくで事後学習でキャラクターの人格を定義して一貫性を高める試み DPOで好みを学習→モデル自身に内省 and モデル間対話で学習データ作成 → SFT まさに、いま、私が挑戦している所だったので参考になりました
@_maiush
Sharan
11 days
AI that is “forced to be good” v ��genuinely good” Should we care about the difference? (yes!) We’re releasing the first open implementation of character training. We shape the persona of AI assistants in a more robust way than alternatives like prompting or activation steering.
0
1
9
@webbigdata
webbigdata
11 days
GemmaがGoogle AI Studioから削除 共和党上院議員がGoogle AI StudioでGemmaに自己の犯罪歴を聞きGemmaが虚偽の回答をしたと非難した事と関連していると見られている 某米企業が公開した独自モデルがthinkingを中国語でやってるらしいのですが中国系モデルの躍進は続きそう https://t.co/UGDmDFF1it
Tweet card summary image
theverge.com
Senator Marsha Blackburn accused Google of anti-conservative bias.
@NewsFromGoogle
News from Google
14 days
Gemma is available via an API and was also available via AI Studio, which is a developer tool (in fact to use it you need to attest you're a developer). We’ve now seen reports of non-developers trying to use Gemma in AI Studio and ask it factual questions. We never intended this
0
1
8
@webbigdata
webbigdata
12 days
ビルボード、つまり米国で最も権威のある音楽ランキングで、AI生成の歌が10月25日付チャートで3位にランクイン 日本でもWeb小説の日間ランキング1位をAI生成小説が取った事が話題になってましたが、同じ土俵で戦う事になると反発も強まるから別にした方が良い気はしています https://t.co/uxSmuSXffx
Tweet card summary image
billboard.com
Xania Monet, who becomes the first AI-powered artist to debut on an airplay chart this week, is one of several AI-driven acts to chart over the past two months.
0
0
7
@webbigdata
webbigdata
13 days
強化学習(GRPO)においてFP16 > BF16になる説は、諸説入り乱れていますが、ハードウェア or 実装依存の可能性もある感じですね A100はモデル崩壊しやすくてH100だと崩壊をほとんど見た事がないという意見も見ました 直近でGRPOで高みを狙う際はH100やTPUを使うと良いのかもしれません
0
2
32