قال كبار باحثي الذكاء الاصطناعي في رسالة نُشرت اليوم الثلاثاء إنه يتعين على الشركات والحكومات تخصيص ما لا يقل عن ثلث تمويلها لأبحاث الذكاء الاصطناعي وتطويره لضمان السلامة والاستخدام الأخلاقي للتقنية.
وتسرد الرسالة، التي تأتي قبل أسبوع من القمة الدولية لسلامة الذكاء الاصطناعي في العاصمة البريطانية لندن، التدابير التي يجب على الحكومات والشركات اتخاذها لمعالجة مخاطر التقنية.
وجاء في الرسالة التي وقعها ثلاثة فائزين بجائزة تورينج، وحائز على جائزة نوبل، وأكثر من اثني عشر أكاديميًا من كبار الأكاديميين في مجال الذكاء الاصطناعي: «يجب على الحكومات أيضًا أن تُلزم الشركات بالمسؤولية القانونية عن الأضرار الناجمة عن أنظمة الذكاء الاصطناعي الرائدة الخاصة بها التي يمكن توقعها ومنعها بعقلانية».
يُشار إلى أنه لا توجد حاليًا أي لوائح واسعة النطاق تركز في سلامة الذكاء الاصطناعي، ثم إن المجموعة الأولى من التشريعات الصادرة عن الاتحاد الأوروبي في هذا الصدد لم تصبح قانونًا بعد، إذ لم يتفق المشرعون بعد على العديد من القضايا.
وقال (يوشوا بنجيو)، أحد الأشخاص الثلاثة المعروفين بأنهم الآباء الروحيون للذكاء الاصطناعي: «إن نماذج الذكاء الاصطناعي الحديثة قوية جدًا ومهمة جدًا، بحيث لا يمكن السماح لها بالتطور دون إشراف ديمقراطي».
موضوعات ذات صلة بما تقرأ الآن:
وقال: «يجب أن تتم الاستثمارات في سلامة الذكاء الاصطناعي بسرعة؛ لأن الذكاء الاصطناعي يتقدم على نحو أسرع بكثير من الاحتياطات المتخذة».
ومن بين الموقعين على الرسالة: جيفري هينتون، وأندرو ياو، ودانييل كانيمان، ودون سونغ، ويوفال نوح هراري.
ومنذ إطلاق نماذج الذكاء الاصطناعي التوليدي من شركة (أوبن أي آي) OpenAI، حذّر كبار الأكاديميين والمديرين التنفيذيين البارزين، مثل: إيلون ماسك من المخاطر التي قد تنجم عن التقنية، وقد دعوا إلى التوقف لمدة ستة أشهر عن تطوير أنظمة متطورة للذكاء الاصطناعي.
وعارضت بعض الشركات ذلك قائلةً إنها ستواجه تكاليف عالية للامتثال ومسائلات غير متناسبة.
وقال عالم الحواسيب البريطاني ستيوارت راسل: «سوف تشكو الشركات من صعوبة الالتزام باللوائح التنظيمية، ومن أن ’اللوائح التنظيمية تخنق الابتكار’، وهذا أمر مثير للسخرية».
وأضاف: «هناك لوائح مفروضة على محلات الشطائر أكثر من تلك المفروضة على شركات الذكاء الاصطناعي».