2022_technology Profile Banner
ぐれーぷ@最新テクノロジーまとめ垢 Profile
ぐれーぷ@最新テクノロジーまとめ垢

@2022_technology

Followers
330
Following
11K
Media
18
Statuses
2K

質の高いGGUFをあなたに

Joined January 2022
Don't wanna be here? Send us removal request.
@2022_technology
ぐれーぷ@最新テクノロジーまとめ垢
2 years
gemma-2-27b-itのElyza tasks 100のスコアは… どのモデルよりも高い3.88点です!驚異のジャイアントキリング! というわけでみなさんぜひダウンロードしてください!!
@2022_technology
ぐれーぷ@最新テクノロジーまとめ垢
2 years
Googleさんのgemma-2-27b-itの日本語imatrix量子化ggufが完成しました! 軽量なのにとんでもなく賢い、現状最強のローカルLLMだと思います
1
7
43
@_philschmid
Philipp Schmid
9 hours
More Gemma! Meet TranslateGemma, a new collection of open translation models built on Gemma 3 designed for high-performance communication. - Available in 4B, 12B, and 27B parameter sizes. - Evaluated on 55 languages using the WMT24++ dataset. - 12B model outperforms the Gemma 3
11
33
193
@cwolferesearch
Cameron R. Wolfe, Ph.D.
21 hours
Here is a direct comparison of the update rule for decoupled weight decay and cautious weight decay for reference. Basically we just mask out updates to any parameters where the update / weight have opposite signs. Very clever! Paper is here: https://t.co/LBkCEWb1cr
0
6
37
@ErnieforDevs
ERNIE for Developers
1 day
🚀Introducing ERNIE-5.0-0110 We're excited to announce the release of ERNIE-5.0-0110, now ranking #8 in the @arena Text Leaderboard. Key highlights: 🧮Top-tier Math performance 💻Strong Expert & Coding capabilities ✍️Competitive results in Creative Writing and Instruction
16
31
255
@eliebakouch
elie
1 day
new Ministral 3 tech report from @MistralAI, they train competitive small models on 1/3T tokens only. the secret? pruning + distillation distillation: > in pre-training they use Mistral Small 3.1 Instruct as a teacher for ALL variants (so not really cascade distillation, each
14
49
340
@monoxxxx
もの(換気中)
3 days
エルデシュ未解決問題集、冷静に最近の更新見てたらAI補助のもと(コメントに付記されてる)昨年末から凄まじいペースでsolvedになってる 思ってたよりだいぶ物凄い事態が起こってるのかもしれない https://t.co/IdVwF6eEDO
3
299
939
@umiyuki_ai
うみゆき@AI研究
3 days
NVidiaがここ数カ月の間がんばってComfyUIとLlama.cppに対してNVidiaグラボ用の最適化を実装してくれていたらしい。NVFP4、FP8、全般的な最適化がそれぞれあって、Blackwell世代グラボならFluxやQwenImageの生成速度が3倍、Ada世代なら2倍になってるという。それより古い世代でも効く最適化も色々入っ
Tweet card summary image
reddit.com
Explore this post and more from the StableDiffusion community
1
79
479
@2022_technology
ぐれーぷ@最新テクノロジーまとめ垢
3 days
個人的には、元が激遅な上に再生成までして5%か…とちょっと期待外れに思ってしまいましたが、、、 次の高速化のプルリクも控えているようですし、これがこれからの本格的な高速化の布石となることを信じましょう 私はGGUFを再生成して待っこととします
0
0
1
@2022_technology
ぐれーぷ@最新テクノロジーまとめ垢
3 days
原理としては、Alibabaが公開しているQwen3-Nextの重みには順序がおかしい箇所があり、今までは推論エンジン側がそれをいちいち転置して推論していました これをGGUF生成時にあらかじめ転置して直しておけば、推論中のオペレーションが減って高速化できるよね、ということらしいです
1
0
2
@2022_technology
ぐれーぷ@最新テクノロジーまとめ垢
3 days
llama.cpp b7708より、Qwen3-NextのGGUFの再生成が必要になるのと引き換えに5%ほど高速化したらしいです https://t.co/jxcdYGx7MQ
Tweet card summary image
github.com
ImportantIf you're using old GGUF and it's no longer loaded, be sure to update to this fix: #18762 I was quite curious why there was a function called fix_query_key_value_ordering ...
1
0
3
@jm_alexia
Alexia Jolicoeur-Martineau
3 days
Llama4 tried to use NOPE (no positional information) and it was a huge failure. My expectation is that this will fail in practice and lead to weird behaviors. But I would be happy to be wrong since ROPE is limiting long context generalization. Time will tell.
@SakanaAILabs
Sakana AI
4 days
Introducing DroPE: Extending the Context of Pretrained LLMs by Dropping Their Positional Embeddings https://t.co/TCHELUQYOq We are releasing a new method called DroPE to extend the context length of pretrained LLMs without the massive compute costs usually associated with
24
29
426
@__H_A_Z_E_
へいず@夜勤&低浮上
4 days
Geforceで「ブラウザを最大化orフルスクリーンで開いて特定のページを開く」と「モニターがブラックアウトして応答しなくなる」不具合が多発。 ドライバ入れ直しやケーブル変更等試したが一向に改善せず 結局、NVIDIAアプリの「スケーリングデバイス」を「GPU」に選択したらあっさり解決した。何これ
10
1K
7K
@2022_technology
ぐれーぷ@最新テクノロジーまとめ垢
4 days
"位置埋め込みはただの補助輪" 事前学習中にRoPEの影響をゆっくり取り除くみたいなほうが良い気もしますが、どうなんでしょう?
@hardmaru
hardmaru
4 days
One of my favorite findings: Positional embeddings are just training wheels. They help convergence but hurt long-context generalization. We found that if you simply delete them after pretraining and recalibrate for < 1% of the original budget, you unlock massive context windows.
0
0
0
@Holy_fox_LLM
ほーりーふぉっくす
4 days
めちゃくちゃ頑張った結果、GRPOのみでELYZA-task100でSFTと同じ性能を叩き出せるようになりました。 一体どうなってるんだよ...
0
6
40
@2022_technology
ぐれーぷ@最新テクノロジーまとめ垢
4 days
面白い
@SakanaAILabs
Sakana AI
4 days
Introducing DroPE: Extending the Context of Pretrained LLMs by Dropping Their Positional Embeddings https://t.co/TCHELUQYOq We are releasing a new method called DroPE to extend the context length of pretrained LLMs without the massive compute costs usually associated with
0
0
0
@gosrum
金のニワトリ
5 days
@uzuki425 VRAM容量だけ見ると同じ32GBですが、メモリ帯域幅もGPU性能もRTX 5090の半分ぐらいしか無いのに価格は同じくらい高かったので、個人的に罠だという認識でした。 まあ今はRTX 5090の在庫がほぼないので、確かに選択肢にはなりそうです。
1
2
19
@2022_technology
ぐれーぷ@最新テクノロジーまとめ垢
5 days
llama.cppがGemma3nのマルチモーダル機能をサポート そういえば今まではtext-onlyでしたねぇ https://t.co/gYXLCOb6yb
Tweet card summary image
github.com
This PR implements multimodal (image) support for the Gemma3n model, which uses the MobileNetV5 architecture as its vision encoder (instead of SigLIP used in Gemma3). Related issues Partially Addre...
1
1
2
@2022_technology
ぐれーぷ@最新テクノロジーまとめ垢
5 days
こ、これは…
@VideoCardz
VideoCardz.com
6 days
GeForce RTX 5090, 5080, 5070 Ti and even 5060 Ti are now sold in blower-style designs for AI farms https://t.co/azxS7YvFYj
0
0
0
@gazlog_blog
ギャズログ | Gaz:Log
6 days
グラボ品薄により中古価格が暴騰中 ヤフオクでは中古のGeForce RTX 5090は50万円台、RTX 4090は40万円に迫る価格で取引される... RTX 5080からRTX 5070も販売時の価格とほぼ同額で落札される傾向に https://t.co/vJYQxHbI36
Tweet card summary image
gazlog.com
NVIDIAのGeForce RTX 5090やRTX 5080などのハイエンドグラフィックカードは、メモリ不足や価格高騰の影響で入手困難な状況になっています。この影響により、ヤフオクなど中古市場ではハイエンドモデルの取引価格が異常な水準にまで値上がりしています。
2
107
220