لأعوام طويلة، اعتُبرت وحدات معالجة الرسوميات (GPUs) حجر الزاوية في تطور الذكاء الاصطناعي، خاصةً في عمليات التدريب المعقدة. لكن صفقة استحواذ إنفيديا الأخيرة على شركة Groq مقابل 20 مليار دولار تشير إلى تحول محتمل في هذا الاعتماد، مع التركيز المتزايد على الاستدلال – أو تشغيل نماذج الذكاء الاصطناعي – والذي قد يشكل السوق الأكبر في مجال الحوسبة الخاصة بالذكاء الاصطناعي في المستقبل القريب.
التحول نحو الاستدلال: مستقبل الحوسبة بالذكاء الاصطناعي
يشهد قطاع الذكاء الاصطناعي حاليًا انتقالًا جوهريًا من مرحلة تطوير النماذج، التي تتطلب قدرات حوسبية هائلة، إلى مرحلة تطبيق هذه النماذج في الحياة اليومية. تُعرف هذه المرحلة بالاستدلال، حيث تُستخدم النماذج المدربة للإجابة على الاستفسارات، وإنشاء المحتوى، وتقديم تجارب تفاعلية فورية للمستخدمين. تشير تقديرات RBC Capital إلى أن حجم سوق الاستدلال قد يتجاوز سوق التدريب من حيث القيمة خلال السنوات القادمة.
يكمن الفرق الجوهري بين الاستدلال والتدريب في المتطلبات التقنية لكل منهما. التدريب يركز على القوة والمرونة، بينما يولي الاستدلال الأولوية للسرعة، والاستجابة الفورية، وكفاءة استهلاك الطاقة، بالإضافة إلى خفض التكاليف التشغيلية.
Groq، التي تأسست على يد مهندسين سابقين في جوجل، تقدم حلاً مختلفًا يعتمد على “وحدات معالجة اللغة” (LPUs). تم تصميم هذه الشرائح خصيصًا لتسريع عمليات الاستدلال، على عكس وحدات معالجة الرسوميات (GPUs) التي تعتبر أكثر عمومية.
بنية LPUs المتخصصة مقابل مرونة GPUs
تعتمد LPUs على بنية رقمية صارمة ومُحكمة، تُشبه خطوط التجميع الدقيقة، حيث يتم تنفيذ العمليات بترتيب مُحدد مسبقًا. هذه الطريقة تقلل من الهدر في الطاقة والموارد، مما يؤدي إلى أداء أسرع واستهلاك أقل للكهرباء. ومع ذلك، فإن هذه الصرامة تجعلها غير فعالة في مهام التدريب التي تتطلب مرونة عالية.
في المقابل، تتميز وحدات معالجة الرسوميات (GPUs) بقدرتها على التكيف مع مجموعة واسعة من المهام، وهو ما جعلها الخيار الأمثل لتدريب النماذج. لكن هذه المرونة تأتي بثمن، حيث تستهلك المزيد من الطاقة وتكون أبطأ في مهام الاستدلال مقارنة بالشرائح المتخصصة.
صفقة إنفيديا و Groq: تحول استراتيجي
يعتبر توني فاديل، المخترع المشارك لجهاز iPod والمستثمر في Groq، أن هذه الصفقة تمثل نقطة تحول هيكلية عميقة في صناعة أشباه الموصلات. ويرى أن وحدات معالجة الرسوميات (GPUs) سيطرت على الموجة الأولى من الذكاء الاصطناعي، وهي مرحلة التدريب، بينما يمثل الاستدلال الجيل التالي من هذه التقنية.
وهناك بالفعل إشارات مبكرة تدل على ذلك. أفاد محللون في TD Cowen أن تبني إنفيديا لهندسة جديدة كليًا يعكس نضوجًا في سوق الاستدلال، وأن فكرة “شرائح التدريب اليوم هي شرائح الاستدلال غدًا” أصبحت عتيقة الطراز.
من المتوقع أن يشهد مستقبل مراكز البيانات المستخدمة في الذكاء الاصطناعي تنوعًا كبيرًا في أنواع الشرائح المستخدمة. حسب ما ذكره كريس لاتر، وهو مهندس سابق في شركة جوجل مكلف بتطوير شرائح TPU، ستعمل وحدات معالجة الرسوميات (GPUs) جنبًا إلى جنب مع شرائح متخصصة أخرى، حيث يتم تخصيص كل منها للمهام التي تتفوق فيها.
تُعد صفقة إنفيديا و Groq بمثابة استجابة استباقية لمنافسة متزايدة من شركات أخرى تعمل على تطوير شرائح متخصصة في الاستدلال، بما في ذلك جوجل وأمازون والعديد من الشركات الناشئة. بدلاً من تجاهل هذا التطور، اتخذت إنفيديا خطوة جريئة نحو احتضان بنية مختلفة وتعزيز مكانتها في هذا النظام البيئي المتطور.
الرهان المستقبلي على الاستدلال والتكامل
إن أهمية الاستدلال تكمن في قدرته على تحقيق عائدات ملموسة من الاستثمارات في الذكاء الاصطناعي. فهو يمثل نقطة الاتصال المباشرة بين التكنولوجيا والمستخدمين والخدمات التجارية. لذلك، لا تراهن إنفيديا على حل بديل واحد، بل على بناء نظام متكامل يشمل:
- وحدات معالجة الرسوميات (GPUs) لمهام التدريب والعمليات المرنة.
- شرائح متخصصة مثل LPUs لتسريع الاستدلال وتوفير الطاقة.
- برمجيات وشبكات متطورة لربط كل هذه المكونات معًا.
وبالتالي، لا تمثل صفقة Groq نهاية حقبة وحدات معالجة الرسوميات (GPUs)، بل إيذانًا ببداية عصر جديد يتشارك فيه عدد من البنيات المختلفة مهام الذكاء الاصطناعي، حيث يتخصص كل منها في المهام المصممة لأدائها على أكمل وجه.
من المتوقع أن تشهد الأشهر القادمة مزيدًا من الاستثمارات في تطوير شرائح متخصصة للاستدلال، بالإضافة إلى جهود لدمج هذه الشرائح بسلاسة في مراكز البيانات الحالية. سيكون من المهم متابعة مدى نجاح إنفيديا في تحقيق التكامل بين وحدات معالجة الرسوميات (GPUs) و LPUs وكيف سيؤثر ذلك على أداء وكفاءة تطبيقات الذكاء الاصطناعي.
