في تطور غريب، تُعطي بعض نماذج الذكاء الاصطناعي من جوجل تعريفات غير دقيقة لعبارات مُختلقة لا وجود لها، ويحدث هذا بسبب القدرة التوليدية للذكاء الاصطناعي، فنموذج اختبار الذكاء الاصطناعي من جوجل لا يتحقق من الحقائق، بل يتنبأ بها، وكما يصف عالم الحاسوب زيانغ شياو من جامعة جونز هوبكنز في تقرير لمجلة وايرد، يُنشئ الذكاء الاصطناعي إجابات باختيار الكلمة التالية الأكثر احتمالاً في الجملة بناءً على بيانات التدريب الشاملة، حسبما ذكرت مجلة «Tech Times».
نماذج الذكاء الاصطناعي تحاول إرضاء المستخدمين
المجلة نوهت إلى أن نماذج الذكاء الاصطناعي عادة ما تبحث عن تقديم إجابات مرضية للمستخدمين، وهو ما يصفه الباحثون بـ«توافق الذكاء الاصطناعي مع توقعات المستخدم»، في جوهره، يهدف الذكاء الاصطناعي إلى إسعادك، فقد تم تصميمه لتوليد رسائل تجدها معقولة أو على الأقل ترغب في سماعها.
رد جوجل على خلل نظرة عامة على الذكاء الاصطناعي
وأقرت شركة جوجل بأن نظام الذكاء الاصطناعي التوليدي الخاص بها لا يزال تجريبيًا، ويحاول النظام توفير السياق كلما أمكن، لكن من المرجح أن تؤدي الإشارات الغريبة أو السخيفة إلى أخطاء في عرض البيانات، وفقًا للمتحدثة باسمها، ميغان فارنسورث.
من جانبه، أشار عالم الإدراك غاري ماركوس إلى أن خمس دقائق من الاختبار أسفرت عن نتائج متباينة، وهذا هو الوضع المعتاد في الذكاء الاصطناعي التوليدي، الذي يتفوق في تكرار الأنماط، لكنه ليس بارعًا في التفكير المجرد، يذكر أنه في العام الماضي، نشرت خدمة Google AI Overviews نتائج بحث غير صحيحة ، ما أربك الجميع.
في الوقت الحالي، تبدو هذه العثرة في الذكاء الاصطناعي غير ضارة في الغالب، بل وممتعة حتى إذا كنت تبحث عن وسيلة لإلهاء نفسك، لكنها أيضًا تذكير واضح بحدود الذكاء الاصطناعي، خاصة عندما يتعلق الأمر بنتائج البحث التي يعتمد عليها الملايين يوميًا.
