زادت التحذيرات بشأن المخاطر المحتملة للذكاء الاصطناعي بشكل كبير جدًا خلال الأشهر الأخيرة، وذلك بسبب تطوره السريع، وقد وصلت التحذيرات إلى أن الذكاء الاصطناعي خطير وقد يدمر البشرية مثل: الحرب النووية والأوبئة العالمية، وهذا وفقًا لأحدث بيان صادر عن مركز أمان الذكاء الاصطناعي (CAIS).
وقد وقع على هذا البيان بعض علماء الذكاء الاصطناعي، ومنهم: (جيفري هينتون) Geoffrey Hinton، و(يوشوا بنجيو) Yoshua Bengio الحائزان على جائزة تورينج، وقادة مختبرات الذكاء الاصطناعي الكبرى، ومنهم: (سام ألتمان) مؤسس شركة OpenAI – المطورة لروبوت ChatGPT- و(ديميس هاسابيس) Demis Hassabis من شركة DeepMind التابعة لجوجل، بالإضافة إلى عدد من المديرين التنفيذيين لكبرى الشركات.
ويُعد هذا التحذير هو واحد من العديد من التحذيرات التي صدرت في الأشهر الأخيرة حول مخاطر الذكاء الاصطناعي المحتملة، إذ يزعم بعض المطورين الأوائل لهذه التكنولوجيا أننا نتجه أولًا نحو تدمير البشرية، بينما يحذر آخرون من أن التنظيم مطلوب بشدة.
قال (ديفيد كروجر) David Krueger خبير الذكاء الاصطناعي والأستاذ المساعد في جامعة كامبريدج: “هناك الكثير من السيناريوهات التي تتعلق بالمخاطر الوجودية للذكاء الاصطناعي، ولكن من الصعب جدًا الآن تحديد أي منها هو الأشد خطرًا، لكن أعتقد أنه ليس لدينا الكثير من الوقت للاستعداد للتهديدات المحتملة القادمة”.
مع وضع ذلك في الاعتبار، إليك بعض المشكلات المحتملة للذكاء الاصطناعي التي يقلق الخبراء بشأنها:
1- خروج الذكاء الاصطناعي عن السيطرة:
يعتبر خروج الذكاء الاصطناعي عن سيطرة المطورين؛ هي واحدة من أكثر المخاطر الشائعة التي ذُكرت حتى الآن، والتي يحظر منها الخبراء بشدة.
يشير الذكاء الاصطناعي العام (AGI) إلى شكل قوي من أشكال الذكاء الاصطناعي وهو بارع في حل المشكلات المتعددة ويمتلك مهارات مثل مهارات الإنسان، وهناك من يقول إنه سيكون أكثر ذكاءً من الإنسان خلال فترة قصيرة.
ولكن أنظمة الذكاء الاصطناعي الحالية ليست واعية ولكنها صُنعت لتكون شبيهة بالبشر، فقد صُمم روبوت (ChatGPT) على سبيل المثال، لجعل المستخدمين يشعرون وكأنهم يتحدثون مع شخص آخر، كما قالت الدكتورة (جانيس وونج) Janis Wong من معهد آلان تورينج.
وحتى الآن؛ الخبراء منقسمون حول كيفية تحديد الذكاء الاصطناعي العام بالضبط، لكنهم يتفقون عمومًا على أنه يُشكل أخطارًا على البشرية تحتاج إلى البحث والتنظيم.
وقال (كروجر): “إن أوضح مثال على هذه الأخطار هو المنافسة العسكرية بين الدول، فالتنافس العسكري لتطوير الأسلحة الذكية – وهي الأسلحة التي تستند في عملها على أجهزة الاستشعار والرؤية الحاسوبية والبرمجيات – سريع وقد أصبح الأمر أكثر وضوحًا الآن بمدى تأثير هذه الأنظمة إذا خرجت عن السيطرة”.
2- سلب الذكاء الاصطناعي الوظائف من البشر:
هناك إجماع متزايد على أن الذكاء الاصطناعي يشكل تهديدًا لبعض الوظائف. وقد قال (أبهيشيك جوبتا) Abhishek Gupta مؤسس معهد مونتريال لأخلاقيات الذكاء الاصطناعي: “إن احتمال فقدان الوظائف بسبب الذكاء الاصطناعي هو التهديد الوجودي الأكثر واقعية وإلحاحًا، لذلك نحن بحاجة إلى النظر في الافتقار إلى الهدف الذي قد يشعر به الناس لفقدان الوظائف بشكل جماعي”.
وقد بدأ الرؤساء التنفيذيون في كبرى الشركات بأن يكونوا صريحين بشأن خططهم للاستفادة من الذكاء الاصطناعي، فعلى سبيل المثال: أعلن (آرفيند كريشنا) الرئيس التنفيذي لشركة IBM خلال الشهر الماضي أن الشركة تخطط لإيقاف التعيينات الجديدة في الوظائف التي يُعتقد أنه يمكن للذكاء الاصطناعي القيام بها.
وقد علق (جوبتا) على هذا التصريح قائلًا: “قبل أربع أو خمس سنوات، لم يكن أحد سيقول مثل هذا البيان ويؤخذ على محمل الجد”.
3- تحيز الذكاء الاصطناعي:
تُعد مشكلة تحيز أنظمة الذكاء الاصطناعي هي المشكلة الأقدم التي يواجهها هذا المجال منذ نشأته حتى الآن، إذ توجد العديد من الدراسات والأبحاث التي تُحذر من مخاطره المحتملة؛ فعلى سبيل المثال تشير دراسة حديثة من مركز دراسة المخاطر الوجودية في جامعة كامبريدج إلى أن الذكاء الاصطناعي يصنع مخاطر تتعلق بالخصوصية والتحيز وعدم المساواة والسلامة والأمن، على الرغم من أن لديه إمكانات كبيرة.
كانت هناك بالفعل العديد من الأمثلة على التحيز في أنظمة الذكاء الاصطناعي التوليدي، ومنها: الإصدارات الأولى من روبوت ChatGPT، وهو ما دفع شركة (OpenAI) إلى إضافة المزيد من حواجز الحماية لمساعدة الروبوت في تجنب تقديم إجابات للمستخدمين الذين يطلبون منه محتوى مسيء.
وفي هذا الصدد؛ قال (جوبتا): “إنه إذا كانت هناك حالات من التحيز غير المكتشف في أنظمة الذكاء الاصطناعي التي تُستخدم لاتخاذ قرارات واقعية، مثل: الموافقة على مزايا الرعاية الاجتماعية، فقد يكون لذلك عواقب وخيمة”.
كما ترى الدكتورة (جانيس وونج) أن غالبًا ما تستند بيانات التدريب المستخدمة في النماذج إلى البيانات باللغة الإنجليزية، كما أن التمويل لتدريب نماذج الذكاء الاصطناعي بلغات مختلفة محدود للغاية، لذلك هناك الكثير من الأشخاص المستبعدين أو أن هذه النماذج ستُدرب بلغات معينة بشكل أقل جودة من اللغات الأخرى، وهو ما سيؤثر في المخرجات بالتأكيد.