OpenMOSE
@_m0se_
Followers
305
Following
1K
Media
473
Statuses
2K
Rice Farmer, Fish Farmer, Welder(TIG,MIG), Electrician, Programming, Rocm RWKV is all you need. 元高専生です https://t.co/XICxvc5uor https://t.co/NShkwbjoVS
Joined February 2023
Second stop on the journey! RWKV-Qwen3-30B-A3B-Hybrid 🚀 (Preview) ✨ 30B params running on 24GB GPU 📊 81.25% RWKV layers → just 1/5.3 KV cache 🔧 Custom llama.cpp support 🎯 2-3× longer context on consumer GPUs 🌟 My very first MoE! https://t.co/efiuRrraEA
huggingface.co
0
3
13
よく、GPTとかClaudeとか性能ナーフの話がでたりするけど、Active Expert数を増やしたり、減らしたりしているのかな? それによって、ユーザー当たりのComputeをコントロールする的な。
0
0
5
Vision Embeddingトークン、想像以上に手ごわい 空間認知能力は、テキストEmbeddingによるAttention蒸留は機能しないかもしれない 転移してほしかったんだけどねー
0
0
4
Value残差接続の有効性について、有意な差が得られず、 07cでは削除してるのだけれど、あったほうがいいの?ないほうがいいの? 推論時にGraph Breakの可能性が高まるから、削除したいんだけど。
1
0
4
予想よりは、Lossはまだ高いけど、 フル線形だからこんなものかな?? フル変換だと、外挿がほとんどできないので、 8kでトレーニングしてます 目標は<0.14くらいかなー
0
0
5
よいニュースとしては、 hxa07Cは、 現時点ですべての項目(収束特性、過学習耐性、コンテキスト長)で、hxa079を超えられています。 いったん、ローカルPC or ライトCloudを前提としたデプロイソリューションも同時に開発中です 基本的にはOSSで公開します。
0
1
5
日本のAI規制案はいったん見なかったことにして、 RWKV hxa07Cハイブリッドを確実にリリースできるようにがんばります。 メモリが高騰する中、 ビジネスを考えていくうえで 16GB PCでの快適動作は必須な気がしています。
0
1
7
海外に法人設立して、そこから 国内法人に開発依頼という体裁、 デプロイ、管理などは海外で完結させ、 日本側ではAPIで使わせてもらう という形で逃げるしかないのでは?
0
1
10