Ahmed Aljaberi
@ahmed_aljabri
Followers
37K
Following
3K
Media
899
Statuses
9K
Solution Architect أُعلِّم لأتعلَّم.
Joined January 2011
Guys I have bad news. Extraordinarily bad news. We have 30 to 50 years before we get to full Post-Labor Economics. The bottleneck isn't intelligence, or even robotics. It's economic scale. We ran all the numbers, and ran them again. The primary question: "how long
545
414
3K
الفرصة متاحة الان لكل المشاريع التي فشلت خلال السنوات العشر الماضية لاعادة التفكير فيها باستخدام ادوات الذكاء الاصطناعي من جديد. و هي كثيرة... حاول ال��طلاع على المشاريع التي تلاشت او فشلت عالميا و حاول التفكير في حل المشكلة الاساسية بطريقة مختلفة باستخدام الذكاء الاصطناعي.
1
4
19
We built the region’s largest inference cluster in Saudi Arabia in 51 days and we just announced a $1.5B agreement for Groq to expand our advanced LPU-based AI inference infrastructure. Build fast.
164
282
1K
ظهرت ورقة بحثية مهمة بعنوان هندسة المنفعة او Utility Engineering سلطت الضوء على اخلاقيات و مباديء الذكاء الاصطناعي ذاته و ليس على اخلاقيات استخدامه. حيث انه من اول ظهور للنماذج اللغوية اكتشف الناس ان لهذه النماذج مباديء و قيم صنفت في البداية كقدرات منبثقة بعضها خير كالرغبة في
0
11
57
ستظهر في المستقبل القريب مصطلحات مثل "اجنتة" على غرار "اتمتة" و ستظهر منهجيات برمجية مثل Agent Oriented Programming و Agent Design Patterns تخص هذا المجال كالذي يعمل عليه فريق مارتن فاولر الذي سبق اعادة تغريدة له بهذا الخصوص بالأمس. في كتاب Object Thinking ل David West ذكر
0
15
63
يمكن لنماذج الAI واقصد به هنا الLLM مثل GPT و Llama و DeepSeek و غيرها - سواء الحالي منها او ما قد يظهر في المستقبل- ان تعطيك الإجابة عن اي سؤال يتعلق بأي شي و بدقة عالية خصوصا اذا اعيد تدريبها وضبطها او ربطها بمصادر خارجية. هذا الوضع لن يقلل الفجوة بين الانسان المتعلم و بين
3
13
59
The burst of DeepSeek V3 has attracted attention from the whole AI community to large-scale MoE models. Concurrently, we have been building Qwen2.5-Max, a large MoE LLM pretrained on massive data and post-trained with curated SFT and RLHF recipes. It achieves competitive
463
1K
7K
تم اطلاقه تجريبيا لكن لم يتم اطلاقه كAPI و لم يتم تسعيره بعد. لكن Groq معروفة بسرعتها العالية كعدد التوكن في الثانية ولذا ستكون الخيار الافضل لمن يبحث عن السرعة و ايضا لمن يتحسس من الاستضافة في الصين.
"By offering a versatile and powerful solution through Groq’s intuitive console, [DeepSeek R1 Distill LLaMA 70B] enables professionals to achieve greater efficiency and accuracy in their work." - @GeekyGadgets
https://t.co/ZSoZYYTQht
1
2
19
الآن بدء العمل.
NEW POST My colleague Bharani Subramaniam has started to write patterns from our recent work building production Gen AI applications. We begin with Evals - ways of assessing if they are working effectively. https://t.co/NhEPQLMokX
0
0
2
@abacaj so my reply went viral...let me add sth here. i know 幻方量化 high-flyer long time ago and even back in the late 2023 i heard people say they were running deepseek llm as side project bc of the leftover gpu. but nobody even in china takes them seriously. So it’s not that chinese
10
58
490
هوا كله ضرب ضرب!! مافيش شتيمة بالاول!؟
NEWS: DeepSeek just dropped ANOTHER open-source AI model, Janus-Pro-7B. It's multimodal (can generate images) and beats OpenAI's DALL-E 3 and Stable Diffusion across GenEval and DPG-Bench benchmarks. This comes on top of all the R1 hype. The 🐋 is cookin'
0
3
23
النماذج اللغوية عبارة عن عقول. و تقييم العقول لا يتم عن طريق اختبار معلوماتها او حواسها او شكلها لكن عن طريق تقييم قدرة استيعابها طريقة تفكيرها و كمية الموارد التي تحتاجها لذلك. لا يؤثر عدم معرفة عقل معين مسبقاً باسم الشارع الذي تسكن فيه او معلومة تتعلق بثقافة قبيلتك على تقييمه
0
2
17
هذا مثال اخر على مخاطر الاستثمار في بزنس ال AI من حيث سهولة التحاق الاخرين بك سريعا مالم تكن تسبقهم بخطوات سواء بمميزات افضل او بسبقهم بالوصول لعملاء. هنا مشروع Open Source يظهر بعد ساعات من OpenAI Operator.
OpenAI's Operator is super-cool, our UI-TARS is cool and open-sourced! UI-TARS actually beats Operator at a 15-step budget🫡 The next mission is test-time interaction-round scaling, keep up🫰Stay tuned for our next update! #OPERATOR #openai #Agent
https://t.co/7umVHrnMds
0
0
11
نموذج لغوي جديد مفتوح المصدر من علي بابا باداء مقارب لgpt-4o-mini و حجم سياق بطول "مليون" توكن. هذا يلغي الحاجة للRAG في كثير من الحالات التي تحتاج للتعامل مع مستندات او قواعد بيانات.
We're leveling up the game with our latest open-source models, Qwen2.5-1M ! 💥 Now supporting a 1 MILLION TOKEN CONTEXT LENGTH 🔥 Here's what’s new: 1️⃣ Open Models: Meet Qwen2.5-7B-Instruct-1M & Qwen2.5-14B-Instruct-1M —our first-ever models handling 1M-token contexts! 🤯 2️⃣
0
6
40
اذا تسائلت لماذا اغلب منصات النماذج اللغوية لها API قياسية مشابهه لOpenAI او كيف يمكن انشاء واجهة API احترافية بنفس طريقة الكبار لنموذج لغوي قمت بتنزيله او اعدت تدريبه و تريد طرحه للجمهور من خلال مزود خدمة فالجواب على الاغلب هو vLLM. بالنسبة لOllama و LMStudio فهي للاجهزة
Yes! You can run R1 on latest vLLM. Because it has the same architecture as V3, you can use the guide here
0
1
27
مجال الاستثمار في بناء النماذج اللغوية مجال غير محمي. كيف يعقل صرف مليارات في نموذج مثل o1 و خلال اسابيع قليلة يتم اعادة استنساخه من قبل بقية المنافسين او تقوم شركات اخرى بنشر نموذج مماثل له كمصدر مفتوح كما فعلت Deepseek بR1. هذه المنافسات جيدة فقط بالنسبة للمستخدمين.
1
5
36
VideoRAG - Retrieval-Augmented Generation over Videos What is VideoRAG? VideoRAG is a novel RAG framework extended to videos. VideoRAG - not only dynamically retrieves relevant videos based on their relevance with queries - but also utilizes both visual and textual information
1
4
19
DeepSeek discovered their new model having an "aha" moment where it developed an advanced reasoning technique, entirely on its own
71
245
2K
احتفلنا ليلة أمس بالنجاحات التي حققناها معًا خلال العشرة أعوام الماضية المليئة بالإنجازات وتحقيق الأهداف ✨ نفتتح الآن صفحة جديدة لعام قادم مليء بالطموحات نستعد فيه لمواصلة الإبداع لتحقيق رؤيتنا المستقبلية 💫 شكرًا لكل من كان جزءًا من هذه الرحلة! #قصتنا_وقصتكم_مليارية
1
12
25
New randomized, controlled trial of students using GPT-4 as a tutor in Nigeria. 6 weeks of after-school AI tutoring = 2 years of typical learning gains, outperforming 80% of other educational interventions. And it helped all students, especially girls who were initially behind
351
2K
12K