_m0se_ Profile Banner
OpenMOSE Profile
OpenMOSE

@_m0se_

Followers
305
Following
1K
Media
473
Statuses
2K

Rice Farmer, Fish Farmer, Welder(TIG,MIG), Electrician, Programming, Rocm RWKV is all you need. 元高専生です https://t.co/XICxvc5uor https://t.co/NShkwbjoVS

Joined February 2023
Don't wanna be here? Send us removal request.
@_m0se_
OpenMOSE
2 months
Second stop on the journey! RWKV-Qwen3-30B-A3B-Hybrid 🚀 (Preview) ✨ 30B params running on 24GB GPU 📊 81.25% RWKV layers → just 1/5.3 KV cache 🔧 Custom llama.cpp support 🎯 2-3× longer context on consumer GPUs 🌟 My very first MoE! https://t.co/efiuRrraEA
Tweet card summary image
huggingface.co
0
3
13
@_m0se_
OpenMOSE
13 hours
いいじゃん
0
0
3
@_m0se_
OpenMOSE
13 hours
30Bと Search APIを使ってLLM的に納得いくまで 調べる君作ってみてる
0
0
2
@_m0se_
OpenMOSE
23 hours
よく、GPTとかClaudeとか性能ナーフの話がでたりするけど、Active Expert数を増やしたり、減らしたりしているのかな? それによって、ユーザー当たりのComputeをコントロールする的な。
0
0
5
@_m0se_
OpenMOSE
1 day
フルRWKVでも実質Ctx長を32kくらいまで伸ばせる可能性見えてきたので、 T-BPTTの記憶を思いだします 爆発した記憶しかないけど
0
0
6
@_m0se_
OpenMOSE
1 day
Vision Embeddingトークン、想像以上に手ごわい 空間認知能力は、テキストEmbeddingによるAttention蒸留は機能しないかもしれない 転移してほしかったんだけどねー
0
0
4
@_m0se_
OpenMOSE
1 day
うげぇぇ
0
0
3
@_m0se_
OpenMOSE
2 days
POWERRRRRRRRRRRRR
1
0
3
@_m0se_
OpenMOSE
2 days
Manusちゃん、進化してて、 とてもすごい(語彙力ない)
0
0
1
@_m0se_
OpenMOSE
3 days
hxa07C + MRoPE Stage1 done Vision Encoder + Full Linear
0
0
5
@_m0se_
OpenMOSE
3 days
07C フル線形Ver 600mtk で、8kにはまだ届いてない https://t.co/BYdB2DIZil
Tweet card summary image
huggingface.co
0
2
6
@_m0se_
OpenMOSE
4 days
来年も、研究して研究して研究して研究して研究してまいります プロダクトも作りたい 箱を作ろうとしてます🙂
0
0
9
@_m0se_
OpenMOSE
4 days
Value残差接続の有効性について、有意な差が得られず、 07cでは削除してるのだけれど、あったほうがいいの?ないほうがいいの? 推論時にGraph Breakの可能性が高まるから、削除したいんだけど。
1
0
4
@_m0se_
OpenMOSE
4 days
DDR5が高騰しすぎて、Zen3 128GBおじさんから 卒業できない。。。
0
0
6
@_m0se_
OpenMOSE
4 days
予想よりは、Lossはまだ高いけど、 フル線形だからこんなものかな?? フル変換だと、外挿がほとんどできないので、 8kでトレーニングしてます 目標は<0.14くらいかなー
0
0
5
@_m0se_
OpenMOSE
5 days
うまくいってくれー ひさしぶりにFull RNN
0
0
9
@_m0se_
OpenMOSE
5 days
hxa07Dも構想中 Multi Head Latent Linear Attention 😀
0
0
4
@_m0se_
OpenMOSE
5 days
よいニュースとしては、 hxa07Cは、 現時点ですべての項目(収束特性、過学習耐性、コンテキスト長)で、hxa079を超えられています。 いったん、ローカルPC or ライトCloudを前提としたデプロイソリューションも同時に開発中です 基本的にはOSSで公開します。
0
1
5
@_m0se_
OpenMOSE
5 days
日本のAI規制案はいったん見なかったことにして、 RWKV hxa07Cハイブリッドを確実にリリースできるようにがんばります。 メモリが高騰する中、 ビジネスを考えていくうえで 16GB PCでの快適動作は必須な気がしています。
0
1
7
@_m0se_
OpenMOSE
6 days
gpt 5.2になって、地味に値上がりしてるのね。
0
0
10
@_m0se_
OpenMOSE
6 days
海外に法人設立して、そこから 国内法人に開発依頼という体裁、 デプロイ、管理などは海外で完結させ、 日本側ではAPIで使わせてもらう という形で逃げるしかないのでは?
0
1
10