

وتواجه المؤسسات، مع انتقالها إلى ما بعد المرحلة التجريبية في الذكاء الاصطناعي، تحديات كبيرة تشمل حماية خصوصية البيانات، والتحكم في التكاليف، وإدارة النماذج المتنوعة. وأظهرت دراسة "فجوة الذكاء الاصطناعي التوليدي: حالة الذكاء الاصطناعي في الأعمال" الصادرة عن مشروع (NANDA) من معهد ماساشوستس للتكنولوجيا أن نحو 95% من المؤسسات لم تحقق عوائد مالية ملموسة بعد إنفاق ما يقارب 40 مليار دولار على الذكاء الاصطناعي المؤسسي.
وتركز منصة "ريد هات للذكاء الاصطناعي 3" على معالجة هذه التحديات بشكل مباشر، من خلال تقديم تجربة موحدة وأكثر اتساقاً للرؤساء التنفيذيين لتقنية المعلومات وقادة القطاع، بما يتيح الاستفادة القصوى من استثماراتهم في تقنيات تسريع الحوسبة. وتمكّن المنصة المؤسسات من توسيع وتوزيع عمليات الذكاء الاصطناعي التشغيلية بسرعة عبر بيئات هجينة ومتعددة الموردين، مع تعزيز التعاون بين الفرق على تطبيقات الذكاء الاصطناعي من الجيل القادم، مثل الوكلاء، وكل ذلك على منصة واحدة مشتركة. وبفضل بنيتها القائمة على المعايير المفتوحة، المنصة تدعم المؤسسات في جميع مراحل رحلتها مع الذكاء الاصطناعي، مع القدرة على تشغيل أي نموذج على أي مُسرّع أجهزة، بدءاً من مراكز البيانات وصولاً إلى السحابة العامة وبيئات الذكاء الاصطناعي السيادية.
من التدريب إلى التنفيذ: التحوّل نحو استدلال الذكاء الاصطناعي المؤسسي
بينما تمضي المؤسسات قدماً نحو التنفيذ الفعلي لمبادرات الذكاء الاصطناعي، يتحول التركيز من تدريب النماذج وضبطها إلى مرحلة الاستدلال، أي مرحلة "التنفيذ" في الذكاء الاصطناعي المؤسسي. وتركز منصة "ريد هات للذكاء الاصطناعي 3" على تقديم استدلال قابل للتوسع وفعّال من حيث التكلفة، مستفيدة من مشاريع مجتمع الـ vLLM وllm-d الناجحة على نطاق واسع، وقدرات تحسين النماذج التي تتمتع بها "ريد هات"، لتقديم خدمة موثوقة لنماذج اللغة الكبيرة (LLMs).
ولمساعدة قادة تقنية المعلومات على الاستفادة القصوى من أجهزة التسريع عالية التكلفة، تقدم "ريد هات أوبن شيفت للذكاء الاصطناعي 3.0 بشكل متاح للجميع، llm-d، وهو مشروع يهدف لإعادة تصور كيفية تشغيل نماذج اللغة الكبيرة على حاويات كوبرنيتس. ويتيح llm-d إمكانية الاستدلال الموزّع الذكي، مستفيداً من تنظيم كوبرنيتس وأداء vLLM، وبالاقتران مع التقنيات مفتوحة المصدر الرئيسية، مثل امتداد استدلال واجهة برمجة تطبيقات بوابة كوبرنيتس (Kubernetes Gateway API Inference Extension)، ومكتبة نقل البيانات منخفضة الكُمُون NVIDIA Dynamo (NIXL)، ومكتبة الاتصال DeepEP Mixture of Experts (MoE)، بما يتيح للمؤسسات:
خفض التكاليف وتقليص زمن الاستجابة من خلال من خلال جدولة النماذج الذكية المدركة للاستدلال والخدمة المصنفة حسب النوع.
تحسين أوقات الاستجابة وتقليل التأخير باستخدام موزع أحمال ذكي وواعٍ بالاستدلال، مصمم للتعامل مع الطبيعة المتغيرة لأحمال عمل الذكاء الاصطناعي.
تبسيط التشغيل وتحقيق أعلى درجات الموثوقية عبر مسارات إرشادية "Well-lit Paths" تبسط نشر وتحسين النماذج الضخمة على نطاق واسع.
يعتمد نظام النماذج اللغوية الكبيرة (llm-d) على مختبر اللغة الافتراضي ( vLL)، محولاً إياه من محرك استدلالي عالي الأداء يعمل على عقدة واحدة إلى نظام خدمة موزع ومتناسق وقابل للتطوير ومتكامل بشكل وثيق مع "كوبرنيتس". وتم تصميم هذا النظام لضمان أداء يمكن التنبؤ به، وعائد استثمار قابل للقياس، ووضع بنية تحتية فعالة. وتهدف جميع التحسينات إلى معالجة تحديات التعامل مع أعباء النماذج اللغوية الكبيرة وتشغيل النماذج الضخمة مثل نماذج "خليط الخبراء" (MoE).
منصة موحدة للذكاء الاصطناعي التعاوني
يقدم الإصدار (Red Hat AI 3) تجربة موحدة ومرنة مصممة خصيصاً لتلبية احتياجات العمل التعاوني في بناء حلول ذكاء اصطناعي توليدي جاهزة للإنتاج. وتم تصميمه لتبسيط مفاهيم الذكاء الاصطناعي وتحقيق قيمة ملموسة من خلال تعزيز التعاون وتوحيد سير العمل بين الفرق من خلال منصة واحدة لكل من مهندسي المنصات ومهندسي الذكاء الاصطناعي لتنفيذ استراتيجياتهم. وتركز القدرات الجديدة على توفير الإنتاجية والكفاءة اللازمة للانتقال من مرحلة إثبات المفهوم إلى مرحلة الإنتاج، وتشمل:
قدرات النموذج كخدمة (Maas) والتي تتيح الاستفادة من الاستدلال الموزع وتمكن فرق تقنية المعلومات من العمل كمزودين لخدمة MaaS بأنفسهم، حيث يقدمون النماذج الشائعة بشكل مركزي ويوفرون الوصول عند الطلب لكل من مطوري الذكاء الاصطناعي وتطبيقات الذكاء الاصطناعي. ويتيح هذا النهج إدارةً أفضل للتكاليف ، كما يدعم حالات الاستخدام التي لا يمكن تشغيلها على خدمات الذكاء الاصطناعي العامة بسبب مخاوف تتعلق بالخصوصية والبيانات.
يتيح "مركز الذكاء الاصطناعي" (AI Hub) لمهندسي المنصات استكشاف ونشر وإدارة أصول الذكاء الاصطناعي الأساسية، حيث يوفر نقطة تحكم موحدة تحتوي على قائمة منسقة من النماذج، بما في ذلك نماذج الذكاء الاصطناعي التوليدي التي تم التحقق من صحتها وتحسينها، بالإضافة إلى سجل لإدارة النماذج وبيئة نشر لتكوين ومراقبة جميع أصول الذكاء الاصطناعي التي تعمل على منصة "أوبن شيفت أيه آي".
يوفر "استوديو الذكاء الاصطناعي التوليدي" (gen AI studio) بيئة تفاعلية لمهندسي الذكاء الاصطناعي لاختبار النماذج وضبط معاييرها ونمذجة تطبيقات الذكاء الاصطناعي الجديدة بسرعة. وبفضل ميزة نقطة نهاية أصول الذكاء الاصطناعي، يمكن للمهندسين بسهولة اكتشاف واستخدام النماذج المتاحة وخوادم MCP، التي تم تصميمها لتبسيط كيفية تفاعل النماذج مع الأدوات الخارجية. وتوفر الأدوات المدمجة بيئة تفاعلية غير قائمة على الحالة لتجربة النماذج واختبار التعليمات وضبط المعلمات لحالات الاستخدام، مثل الدردشة والتوليد المعزز بالاسترجاع (RAG).
تم تضمين مجموعة مختارة من النماذج المعتمدة والمحسنة من "ريد هات" والتي تم اختبارها للتشغيل على أساس متسق. وتتضمن هذه المجموعة نماذج رائدة مفتوحة المصدر، مثل نموذج (gpt-oss) من (OpenAI)، ونموذج (DeepSeek-R1)، ونماذج متخصصة مثل ( (Whisper لتحويل الكلام إلى نص و(Voxtral Mini) للوكلاء الممكنين بالصوت.
بناء الأساس للجيل التالي من وكلاء الذكاء الاصطناعي
يستعد وكلاء الذكاء الاصطناعي لإحداث تحوّل جذري في طريقة بناء التطبيقات، حيث سيفرض سير عملها المعقد والمستقل متطلبات كبيرة على قدرات الاستدلال. ويواصل الإصدار (Red Hat OpenShift AI 3.0) وضع الأسس لأنظمة وكلاء الذكاء الاصطناعي القابلة للتطوير، ليس فقط من خلال إمكانات الاستدلال المتقدمة، وإنما أيضاً عبر الميزات والتحسينات الجديدة المُصممة خصيصاً لإدارة الوكلاء.
ولتسريع وتيرة تطوير وكلاء الذكاء الاصطناعي ونشرها، قدمت "ريد هات" طبقة واجهة برمجة تطبيقات موحّدة مبنية على "لاما ستاك (Llama Stack)"، مما يسهم في مواءمة عملية التطوير مع معايير المجال مثل بروتوكولات استدلال النماذج اللغوية الكبيرة المتوافقة مع (OpenAI).وإضافة إلى ذلك، وفي إطار سعيها لتعزيز منظومة أكثر انفتاحاً وقدرة على التشغيل البيني، تُعد "ريد هات" من أوائل المُعتمدين لـ "بروتوكول سياق النموذج" (MCP)، وهو معيار ناشئ وفعّال يُسهّل تفاعل نماذج الذكاء الاصطناعي مع الأدوات الخارجية وهي سمة أساسية لوكلاء الذكاء الاصطناعي المعاصرين.
ويقدم الإصدار (Red Hat AI 3) مجموعة أدوات جديدة قابلة للتعديل والتوسعة لتخصيص النماذج، مبنية على أساس الوظائف الحالية لـInstructLab . وتوفر هذه المجموعة مكتبات متخصصة بلغة بايثون تمنح المطورين مرونة وتحكماً غير مسبوقين. كما تعتمد المجموعة على مشاريع مفتوحة المصدر مثل (Docling) لمعالجة البيانات، مما يُسهّل تحويل المستندات غير المهيكلة إلى تنسيق يمكن للذكاء الاصطناعي قراءته. وتشمل أيضاً إطار عمل مرناً لتوليد بيانات اصطناعية ومركزاً للتدريب لتحسين النماذج اللغوية الكبيرة. ويتيح مركز التقييم المدمج لمهندسي الذكاء الاصطناعي مراقبة النتائج والتحقق منها بفعالية، مما يمكنهم من الاستفادة من بياناتهم الخاصة بثقة لتحقيق نتائج أكثر دقة وملاءمة.
تعليقات داعمة
جو فرنانديز، نائب الرئيس والمدير العام لوحدة أعمال الذكاء الاصطناعي في "ريد هات":
"مع توسع الشركات في نشر الذكاء الاصطناعي من مرحلة التجريب إلى مرحلة الإنتاج، فإنها تواجه موجة جديدة من التحديات المتعلقة بالتعقيد والتكاليف والسيطرة. ومن خلال (Red Hat AI 3)، نقدم منصة مفتوحة المصدر ذات مستوى مؤسسي للحد من هذه التحديات. ومن خلال تقديم إمكانيات جديدة مثل الاستدلال الموزع مع نموذج (llm-d) وأساس للذكاء الاصطناعي القائم على الوكلاء، فإننا نمكن فرق تكنولوجيا المعلومات من تشغيل ذكاء الاصطناعي من الجيل التالي بثقة أكبر، وفقًا لشروطهم الخاصة، وعلى أي بنية تحتية".
دان ماكنمارا، نائب الرئيس الأول والمدير العام لقسم الخوادم والذكاء الاصطناعي المؤسسي في شركة "أيه. أم. دي" (AMD)
"بينما تقوم"ريد هات" بإدخال استدلالات الذكاء الاصطناعي الموزعة إلى مرحلة الإنتاج، نفخر في "أيه. أم. دي" بتوفير الأساس عالي الأداء على هذا الصعيد. وقد دمجنا معاً معالجات AMD EPYC عالية الكفاءة، وقابلية التوسع لمعالجات الرسوميات AMD Instinct، وانفتاح حزمة البرامج AMD ROCmلمساعدة المؤسسات على تجاوز مرحلة الاختبار والانتقال إلى التطبيقات العملية للذكاء الاصطناعي من الجيل التالي، مما يحول الأداء وقابلية التوسع إلى قيمة أعمال ملموسة عبر البيئات المحلية والسحابية والطرفية".
مارينو غريكو، الرئيس التنفيذي لشركة "أرسات (ARSAT):
"بصفتنا أحد مزودي البنية التحتية للاتصالات في الأرجنتين، نتعامل مع كميات هائلة من تفاعلات وبيانات العملاء الحساسة. ويتطلب ذلك حلاً يتجاوز الأتمتة التقليدية إلى "الذكاء المعزز"، مع ضمان السيادة المطلقة للبيانات لعملائنا. ومن خلال بناء منصتنا للذكاء الاصطناعي باستخدامك "ريد هات أوبن شيفت للذكاء الاصطناعي"، انتقلنا من مرحلة تحديد المتطلبات إلى التشغيل الفعلي خلال 45 يوماً فقط. ولم تقتصر مساعدة "ريد هات أوبن شيفت للذكاء الاصطناعي" على تحسين خدماتنا وتقليل الوقت الذي يقضيه المهندسون في معالجة مشكلات الدعم فحسب، بل مكنتهم أيضاً من التركيز على الابتكار وتطوير الحلول الجديدة".
ريك فيلارز، نائب الرئيس التنفيذي للمجموعة، "ورلد وايد ريسيرتش"، "أي. دي. سي." (IDC)
"أتوقع أن يشكل العام 2026 نقطة تحول رئيسية مع انتقال المؤسسات من مجرد تبني الذكاء الاصطناعي إلى التركيز على النتائج وإنجاز أعمال أكثر قابلية للقياس والتكرار من استثماراتها. وبينما ركزت المشاريع الأولية على تدريب النماذج واختبارها، فإن القيمة الحقيقية والتحدي الأصعب يكمنان في تحويل الرؤى المستخلصة من النماذج بشكل فعال وآمن وبتكلفة مناسبة. ويتطلب هذا التحول بنية تحتية متقدمة وبيئات نشر بيانات وتطبيقات حديثة مزودة بإمكانات استدلال إنتاجية جاهزة للاستخدام، يمكنها التعامل مع نطاق وتعقيد العالم الواقعي، خاصة مع تسارع أعباء الاستدلال بفعل الذكاء الاصطناعي الوكيل. وفي ضوء ذلك فإن الشركات التي ستنجح في أن تصبح أعمالها قائمة على الذكاء الاصطناعي ستؤسس منصة موحدة لإدارة هذه الأحمال المتزايدة التعقيد في بيئات السحابة الهجينة، وليس فقط في نطاقات منعزلة".
أوجفال كاباسي، نائب رئيس قسم هندسة أطر الذكاء الاصطناعي في شركة "إنفيديا":
"أرى أن الاستدلال القابل للتوسع وعالي الأداء هو أساس الموجة القادمة من تقنيات الذكاء الاصطناعي التوليدي والوكيل. ومع الدعم المدمج للاستدلال المسرّع باستخدام تقنيتي NVIDIA Dynamo وNIXL مفتوحتَي المصدر، توفر منصة ريد هات للذكاء الاصطناعي 3 منظومةً موحدة تمكّن الفرق من الانتقال بسرعة من مرحلة التجريب إلى تشغيل أعباء عمل ووكلاء الذكاء الاصطناعي المتقدمة على نطاق واسع".
مصادر إضافية
تعرّف على المزيد حول ريد هات للذكاء الاصطناعي 3
اقرأ المدونة حول الذكاء الاصطناعي 3
شاهد الندوة حول مستقبل ريد هات للذكاء الاصطناعي
تعرّف على المزيد حول كيفية دعم شركاء منظومة Red Hat للابتكار في الذكاء الاصطناعي
تواصل مع "ريد هات"
اعرف المزيد عن "ريد هات"
احصل على المزيد من الأخبار من غرفة أخبار "ريد هات"
اقرأ مدونة "ريد هات"
تابع ريد هات" على منصة إكس
تابع "ريد هات" على انستغرام
شاهد فيديوهات "ريد هات" على يوتيوب
تابع "ريد هات" على لينكد إن