أصدرت وكالة الشرطة الأوروبية (يوروبول)، تحذيرًا يوم الاثنين بشأن الاستغلال الإجرامي المحتمل لروبوت الدردشة القائم على الذكاء الاصطناعي، ChatGPT، الذي طورته شركة OpenAI المدعومة من مايكروسوفت. وسلطت الوكالة الضوء على المخاوف بشأن عمليات التصيد الاحتيالي والمعلومات المضللة والجرائم الإلكترونية في تقريرٍ نقلته وكالة رويترز.
منذ إطلاقه العام الماضي، حقق ChatGPT شهرةً واسعة، مما دفع بالمنافسي إلى إنشاء منتجات شبيهة، ولجأت العديد من الشركات إلى إدماج تقنية الذكاء الاصطناعي في تطبيقاتها وخدماتها.
وركز تقرير يوروبول على الجانب المُظلم لأنظمة الذكاء الاصطناعي على غرار ChatGPT، واحتمال استخدام هذه التقنيات في عمليات إجرامية محتملة. خاصة أن هذه التقنية تستمر في التقدم.
وحددت الوكالة ثلاثة مجالات رئيسية يمكن فيها استغلال ChatGPT لأغراض إجرامية. أولًا، أشار يوروبول إلى أن قدرة ChatGPT على إنشاء نص واقعي للغاية تجعله أداة قيمة لهجمات التصيد الاحتيالي، وتحديدًا قدرة هذه التقنية على تقليد أنماط اللغة بهدف انتحال أسلوب كلام الأفراد أو المجموعات، وهو ما قد يمكّن المجرمين من استهداف الضحايا بشكل أكثر فعالية.
ثانيًا، أشارت وكالة اليوروبول إلى أن قدرة ChatGPT على توليد كميات كبيرة من النصوص ذات الصبغة الواقعية تجعله أداة مثالية لنشر الدعاية والمعلومات المضللة، وهو ما يتيح للمستخدمين إنشاء ونشر الرسائل والأخبار الكاذبة بمجهود قليل.
موضوعات ذات صلة بما تقرأ الآن:
أخيرًا، حذرت اليوروبول من سهولة استخدام ChatGPT لإنشاء البرمجيات الخبيثة، حتى بالنسبة للمجرمين ذوي الخبرة التقنية المحدودة، مما يزيد من الخطورة المحتملة لهذه التكنولوجيا.
وكان الاتحاد الأوروبي قد دق ناقوس الخطر فيما يتعلق بإساءة استخدام الذكاء الاصطناعي منذ عام 2021، عندما وضع مشروع قانون يهدف إلى تنظيم هذه التقنية.
ووفقًا للقانون المُقترَح، تُقسَم تطبيقات الذكاء الاصطناعي إلى ثلاثة أنواع:
- غير مقبولة: وهي التطبيقات المُستخدمة لمراقبة وتتبُّع الأفراد، وهي ما يسعى القانون المُقترح إلى منعه تمامًا.
- عالية الخطورة: كالتطبيقات التي تُستخدم لمراجعة السّير الذاتية وتصنيفها بشكل آلي، وهي تطبيقات يجب أن تخضع لمُتطلبات قانونية معينة.
- كل ما عدا ذلك: وهي أية تطبيقات لا تنتمي إلى التصنيفين السابقين، إذ سيُسمح لها العمل من دون تنظيم.
وبشكلٍ مُشابه، دعت غرفة التجارة الأمريكية إلى تنظيم صناعة الذكاء الاصطناعي، إذ نشرت بداية الشهر الحالي تقريرًا يدعو إلى تنظيم تقنية الذكاء الاصطناعي في البلاد. ويحث التقرير صانعي القرار وقادة الأعمال على إنشاء إطار تنظيمي لضمان استخدام التقنية بمسؤولية لتقليص خطره على الأمن القومي وبشكلٍ لا يؤثر في نمو هذه الصناعة.
وتخشى العديد من الشركات المطوّرة لتطبيقات الذكاء الاصطناعي أن تؤثر القوانين التنظيمية المحتملة في عملها، فالتنظيم قد يعني وجود متطلبات قانونية قاسية؛ على الشركات الالتزام بها وهو ما يزيد من التكاليف ويُبطئ من سرعة التطوير.
وفي حال لجأت الولايات المتحدة أو الاتحاد الأوروبي إلى طرح مثل هذه القوانين، فهذا يعني إجبار الشركات على تعديل إمكانيات برامجها وربما تقليصها كي تتوافق مع ما تفرضه القوانين الجديدة.