أعلنت شركة AMD خلال حدث Advancing AI 2025 الذي أُقيم في مدينة سان خوسيه الأمريكية، عن أحدث إصدار من منصتها البرمجية ROCm 7، والذي يأتي بتحسينات كبيرة في الأداء، بالإضافة إلى إطلاق مجموعة شاملة من الأدوات والحلول الموجهة لتطبيقات الذكاء الاصطناعي. يتضمن الإعلان أيضًا دعمًا رسميًا لنظام التشغيل Windows، خدمات سحابية مجانية عبر منصة DevCloud، وتحقيق كفاءة أعلى في تشغيل النماذج الضخمة محليًا على الحواسيب الشخصية.
⚙️ تحسينات في الأداء والتوسع :
🔸أداء أفضل حتى 9 مرات في مهام التدريب والاستنتاج
تعمل منصة ROCm 7 على بطاقات GPU MI300X، حيث أظهرت تحسينات في الأداء تتراوح بين 3.5 أضعاف في مهام الاستنتاج (Inference) وصولًا إلى 9 أضعاف في مهام التدريب (Training) وفقًا للبيانات التي قدمتها الشركة.
تم اختبار نماذج شهيرة مثل LLaMA وQwen وDeepSeek R1، والتي حققت جميعها تحسنًا ملحوظًا في السرعة وكفاءة استهلاك الطاقة.
كما زادت AMD من دعمها لتقنيات المعالجة الرقمية الحديثة مثل FP8 وFP4 وDatatypes مختلطة، بالإضافة إلى تقنيات التكميم (Quantization) بهدف تقليل التكلفة الحاسوبية وزيادة الكفاءة.
☁️ الخدمات السحابية وتشغيل محلي على الحواسيب :
🔸منصة DevCloud المجانية ودعم نظام Windows
أطلقت AMD منصتها الجديدة DevCloud، وهي خدمة سحابية مخصصة للمطورين توفر 25 ساعة مجانية لتجربة النماذج الذكية الاصطناعية مباشرة من خلال المتصفح باستخدام أدوات مثل Jupyter Notebook، دون الحاجة لتثبيت أي شيء على الجهاز الشخصي.
كما أكدت الشركة على توسيع دعم المنصة ليشمل نظام التشغيل Windows رسميًا، مع إمكانية التثبيت المباشر عبر تحديثات النظام. كما يمكن الآن تشغيل نماذج تحتوي على ما يصل إلى 24 مليار معلم محليًا على الحواسيب المحمولة أو محطات العمل (Workstations) المزودة بمعالجات AMD.
💼 الحلول المؤسسية للذكاء الاصطناعي التوليدي :
🔸ROCm AI Enterprise
قدمت AMD منصة ROCm AI Enterprise، وهي حل مخصص للشركات الراغبة في تدريب وتخصيص النماذج اللغوية الكبيرة (Large Language Models) على خوادمها الخاصة أو أنظمتها الداخلية. تتضمن هذه المنصة:
- تثبيت سريع للخوادم ضمن شبكات محلية (Clusters)؛
- أدوات لإدارة الأنظمة بكفاءة مثل Kubernetes وSlurm؛
- إمكانية تعديل النماذج باستخدام بيانات الشركة (Fine-Tuning)؛
- تكامل مع منصات مؤسسية شهيرة مثل Red Hat OpenShift AI؛
وقال Ramine Roane نائب رئيس الذكاء الاصطناعي في AMD : ❞الشركات لا تريد الانتظار أشهر لتشغيل نموذج مخصص بأمان وكفاءة، بل تريد أن تبدأ الآن❝.
🔄 البنية الموزعة للـ inferência :
🔸LLMD: منصة جديدة لتسريع إنشاء التوكنات
أبرزت AMD تطويرها لبنية جديدة لاستنتاج النماذج الكبيرة باسم LLMD (Large Language Model Distributed) ، مستوحاة من تقنيات مثل Dynamo من NVIDIA.
تعمل هذه البنية على تقسيم المهام بين بطاقات GPU المختلفة، مثل مهام Prefill وDecode، مما يؤدي إلى تسريع كبير في عملية إنشاء النصوص (Token Generation) وتقليل تكاليف التواصل بين البطاقات.
وقال Roane : ❞هذه البنية تسمح بإنشاء عدد أكبر من التوكنات (tokens) في الثانية الواحدة، وبتكلفة أقل، وكل ذلك باستخدام برامج مفتوحة المصدر ❝.
🛠️ أدوات للمطورين وبناء المجتمع :
🔸ROCm AI Developer Hub + مسابقات وورش عمل
أطلقت AMD منصة ROCm AI Developer Hub، وهي بوابة مجانية تضم:
- دروسًا تفاعلية؛
- أمثلة تطبيقية مع Docker؛
- فيديوهات شرح؛
- تكامل مع أطر عمل شهيرة مثل PyTorch وTriton وJAX وHugging Face وSGLang.
كما تستثمر الشركة بشكل كبير في بناء مجتمع عالمي من المطورين، من خلال تنظيم هاكاثونات وورش عمل شهرية واجتماعات أسبوعية. وقد ذكر Roane قصة أحد طلاب المدارس الثانوية الذي حصل على المركز العشرين في مسابقة لتحسين الكيرنيل (kernel) باستخدام OpenAI Triton .
وقال: ❞لدينا مئات الأشخاص يعملون على تحسين الكيرنيلات من خلال المجتمع، وهو أمر لا يمكن تحقيقه عبر نهج مغلق❝.
📌 AMD تتجه نحو مركز قيادة في مجال الذكاء الاصطناعي :
بهذه الإعلانات، تؤكد AMD على طموحها بأن تكون لاعبًا رئيسيًا في سوق الذكاء الاصطناعي، من خلال تقديم منصة مفتوحة المصدر ومتكاملة تلبي احتياجات المطورين والشركات على حد سواء. تمثل المرحلة الجديدة من ROCm 7 خطوة هامة في سباق الأداء والكفاءة والمرونة في استخدام النماذج اللغوية الكبيرة.
وقال Ramine Roane في ختام كلمته: ❞يجب أن يكون تطوير الذكاء الاصطناعي مفتوحًا أمام الجميع، هكذا فقط يحدث التقدم الحقيقي❝.