qb0C80aE Profile Banner
localhost Profile
localhost

@qb0C80aE

Followers
396
Following
22K
Media
66
Statuses
13K

127.0.0.1
Joined December 2013
Don't wanna be here? Send us removal request.
@qb0C80aE
localhost
25 days
最近MinIOを使っていなかったから知らなかったけど、今こんなことになっていたのか。
1
0
1
@qb0C80aE
localhost
25 days
プログレスバーが10%くらいのところで残り2時間で、50%くらいのところで残り3分というのは、一体どういう計算になっているんだろう。
0
0
0
@qb0C80aE
localhost
26 days
各参加者の名前が全部サービス名とかソフトウェア名とかドメイン名になっていて笑った。一体何の集まりなんだ…。
0
0
0
@qb0C80aE
localhost
26 days
2025年10月にもなってhttpd.confと戦ってしまった。
0
0
2
@MLBear2
ML_Bear
28 days
これが話題になってる論文らしい👀 Alibabaが、LLMのサービング時のNVIDIA GPUの使用量を82%削減できるというGPUプーリング「Aegaeon」を発表。論文はSOSP 2025採択。 複数のモデル間でコンピュートリソースを効率的に共有することで、大幅なコスト削減と効率化を実現すると主張とのこと。
@Compute_King
Compute King
29 days
阿里云称通过新型“资源池化系统”将Nvidia GPU使用量削减82% 笔者按:被小伙伴留言和私信批评了,这篇重新回到科技主题。 阿里近日在韩国举行的顶会,“SOSP 2025 - 第31届操作系统原理研讨会”上再发重磅论文:Aegaeon: Effective GPU Pooling for Concurrent LLM Serving on the
1
61
249
@Yuya71405416
Yuya KUNO
1 month
NFVが実用化され始めてから10年が経ちましたので、ジャーナルを3本書きました ・NFVのメリット https://t.co/0KLavnbebH ・5GC/vRANへの拡張 https://t.co/TVhsRRPlV0 ・オープンソース等とのエコシステム https://t.co/6isth6V5lD
0
13
32
@rryssf_
Robert Youssef
1 month
RIP fine-tuning ☠️ This new Stanford paper just killed it. It’s called 'Agentic Context Engineering (ACE)' and it proves you can make models smarter without touching a single weight. Instead of retraining, ACE evolves the context itself. The model writes, reflects, and edits
237
1K
8K
@qb0C80aE
localhost
1 month
なんかGPUを物理的に食べている映像を観た…。
0
0
0
@qb0C80aE
localhost
2 months
このミーティング、captionをつけないと本当に何を喋っているのかわからない。シューポート?がsupport、メルチ?がmulti、アンジャインがengine、get awayだと思ったものがgatewayだったときの気分を味わっている。とはいえこっちが喋っているものも同じように難しく聞こえているのではないかと思う。
0
0
1
@qb0C80aE
localhost
2 months
スライドは適当にコピペして書いたけど、話す内容は1文字も考えていなかった。明日までか…。
0
0
0
@qb0C80aE
localhost
2 months
あんまり関係ないけど例えばTelecomだとTelecom向けLMみたいなのがたくさん作られてきているようなので、みんなそういう方向性になるんだろうか。
0
0
1
@qb0C80aE
localhost
2 months
意外だ。
0
0
0
@JPSV_calif
JP
2 months
ServiceNowの15BのDense model。ServiceNowがモデル作るんだという意外性ある。
@ArtificialAnlys
Artificial Analysis
2 months
ServiceNow has released Apriel-v1.5-15B-Thinker, a 15B open weights reasoning model that leads our Small Models category (<40B parameters) 💼 Overview: Apriel-v1.5-15B-Thinker is a dense, 15B parameter open weights reasoning model. This is not the first model ServiceNow has
0
1
3
@qb0C80aE
localhost
2 months
雑務が1つ片付いたので重い方に集中できる。
0
0
1