ぐれーぷ@最新テクノロジーまとめ垢
@2022_technology
Followers
330
Following
11K
Media
18
Statuses
2K
質の高いGGUFをあなたに
Joined January 2022
More Gemma! Meet TranslateGemma, a new collection of open translation models built on Gemma 3 designed for high-performance communication. - Available in 4B, 12B, and 27B parameter sizes. - Evaluated on 55 languages using the WMT24++ dataset. - 12B model outperforms the Gemma 3
11
33
193
Here is a direct comparison of the update rule for decoupled weight decay and cautious weight decay for reference. Basically we just mask out updates to any parameters where the update / weight have opposite signs. Very clever! Paper is here: https://t.co/LBkCEWb1cr
0
6
37
X、Grokでのビキニ画像を技術的に禁止 画像生成は有料プランのみに https://t.co/9wbOSbQQQQ
itmedia.co.jp
Xは、AI「Grok」による性的画像生成の制限を発表した。露出度の高い画像編集を禁止し、画像生成機能を有料会員限定とする。英国に続き米カリフォルニア州も調査を開始した直後の緊急対応だが、xAIの単体アプリでは依然として画像生成が可能だ。
6
290
243
new Ministral 3 tech report from @MistralAI, they train competitive small models on 1/3T tokens only. the secret? pruning + distillation distillation: > in pre-training they use Mistral Small 3.1 Instruct as a teacher for ALL variants (so not really cascade distillation, each
14
49
340
エルデシュ未解決問題集、冷静に最近の更新見てたらAI補助のもと(コメントに付記されてる)昨年末から凄まじいペースでsolvedになってる 思ってたよりだいぶ物凄い事態が起こってるのかもしれない https://t.co/IdVwF6eEDO
3
299
939
NVidiaがここ数カ月の間がんばってComfyUIとLlama.cppに対してNVidiaグラボ用の最適化を実装してくれていたらしい。NVFP4、FP8、全般的な最適化がそれぞれあって、Blackwell世代グラボならFluxやQwenImageの生成速度が3倍、Ada世代なら2倍になってるという。それより古い世代でも効く最適化も色々入っ
reddit.com
Explore this post and more from the StableDiffusion community
1
79
479
個人的には、元が激遅な上に再生成までして5%か…とちょっと期待外れに思ってしまいましたが、、、 次の高速化のプルリクも控えているようですし、これがこれからの本格的な高速化の布石となることを信じましょう 私はGGUFを再生成して待っこととします
0
0
1
原理としては、Alibabaが公開しているQwen3-Nextの重みには順序がおかしい箇所があり、今までは推論エンジン側がそれをいちいち転置して推論していました これをGGUF生成時にあらかじめ転置して直しておけば、推論中のオペレーションが減って高速化できるよね、ということらしいです
1
0
2
llama.cpp b7708より、Qwen3-NextのGGUFの再生成が必要になるのと引き換えに5%ほど高速化したらしいです https://t.co/jxcdYGx7MQ
github.com
ImportantIf you're using old GGUF and it's no longer loaded, be sure to update to this fix: #18762 I was quite curious why there was a function called fix_query_key_value_ordering ...
1
0
3
Llama4 tried to use NOPE (no positional information) and it was a huge failure. My expectation is that this will fail in practice and lead to weird behaviors. But I would be happy to be wrong since ROPE is limiting long context generalization. Time will tell.
Introducing DroPE: Extending the Context of Pretrained LLMs by Dropping Their Positional Embeddings https://t.co/TCHELUQYOq We are releasing a new method called DroPE to extend the context length of pretrained LLMs without the massive compute costs usually associated with
24
29
426
Geforceで「ブラウザを最大化orフルスクリーンで開いて特定のページを開く」と「モニターがブラックアウトして応答しなくなる」不具合が多発。 ドライバ入れ直しやケーブル変更等試したが一向に改善せず 結局、NVIDIAアプリの「スケーリングデバイス」を「GPU」に選択したらあっさり解決した。何これ
10
1K
7K
"位置埋め込みはただの補助輪" 事前学習中にRoPEの影響をゆっくり取り除くみたいなほうが良い気もしますが、どうなんでしょう?
One of my favorite findings: Positional embeddings are just training wheels. They help convergence but hurt long-context generalization. We found that if you simply delete them after pretraining and recalibrate for < 1% of the original budget, you unlock massive context windows.
0
0
0
めちゃくちゃ頑張った結果、GRPOのみでELYZA-task100でSFTと同じ性能を叩き出せるようになりました。 一体どうなってるんだよ...
0
6
40
面白い
Introducing DroPE: Extending the Context of Pretrained LLMs by Dropping Their Positional Embeddings https://t.co/TCHELUQYOq We are releasing a new method called DroPE to extend the context length of pretrained LLMs without the massive compute costs usually associated with
0
0
0
llama.cppがGemma3nのマルチモーダル機能をサポート そういえば今まではtext-onlyでしたねぇ https://t.co/gYXLCOb6yb
github.com
This PR implements multimodal (image) support for the Gemma3n model, which uses the MobileNetV5 architecture as its vision encoder (instead of SigLIP used in Gemma3). Related issues Partially Addre...
1
1
2
こ、これは…
GeForce RTX 5090, 5080, 5070 Ti and even 5060 Ti are now sold in blower-style designs for AI farms https://t.co/azxS7YvFYj
0
0
0
グラボ品薄により中古価格が暴騰中 ヤフオクでは中古のGeForce RTX 5090は50万円台、RTX 4090は40万円に迫る価格で取引される... RTX 5080からRTX 5070も販売時の価格とほぼ同額で落札される傾向に https://t.co/vJYQxHbI36
gazlog.com
NVIDIAのGeForce RTX 5090やRTX 5080などのハイエンドグラフィックカードは、メモリ不足や価格高騰の影響で入手困難な状況になっています。この影響により、ヤフオクなど中古市場ではハイエンドモデルの取引価格が異常な水準にまで値上がりしています。
2
107
220