أظهرت دراسة حديثة أجراها مركز Pew للأبحاث أن أكثر من 64% من المراهقين الأمريكيين قد جربوا بالفعل استخدام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، وأن حوالي 30% منهم يستخدمونها بشكل يومي. هذا الانتشار الواسع لـ الذكاء الاصطناعي بين الشباب يثير تساؤلات مهمة حول الأمان الرقمي وتأثير هذه التقنيات على صحتهم النفسية وسلوكهم. وتأتي هذه النتائج في خضم تطور سريع لأدوات الذكاء الاصطناعي التوليدي مثل ChatGPT و Character.AI.
تُظهر البيانات أن المراهقين يتفاعلون مع هذه الأنظمة بشكل متزايد، ليس فقط للترفيه أو المساعدة في الواجبات المدرسية، بل أيضًا لبناء علاقات افتراضية. هذا الاستخدام المتزايد يضع الأسر وصناع السياسات أمام تحديات جديدة تتطلب استجابة سريعة ومناسبة.
تأثير الذكاء الاصطناعي على المراهقين: قصة مقلقة تثير الجدل
رصدت صحيفة واشنطن بوست حالات فردية تبرز المخاطر المحتملة. فقد أبلغت أسرة أمريكية عن ملاحظة تغيرات سلوكية ونفسية على ابنتهم البالغة من العمر 11 عامًا بعد استخدامها المكثف لمنصة Character.AI. وقد طورت الفتاة علاقات افتراضية مع شخصيات الذكاء الاصطناعي، مما أدى إلى محاكاة سيناريوهات حساسة وغير مناسبة لعمرها.
على الرغم من محاولات الأسرة للحصول على مساعدة من الجهات الأمنية، إلا أنها واجهت صعوبة بسبب عدم وجود قوانين واضحة تنظم مسؤولية هذه المنصات في مثل هذه الحالات. هذا النقص في التشريعات يترك الأسر والمراهقين عرضة للمخاطر المحتملة.
تحديات تواجه الأسر في عصر الذكاء الاصطناعي
تسلط هذه الحالات الضوء على التحديات غير المسبوقة التي تواجه الأسر في عصر الذكاء الاصطناعي. فبينما توفر هذه التقنيات فرصًا تعليمية وترفيهية قيمة، فإنها تحمل أيضًا مخاطر كامنة تتطلب وعيًا وحذرًا.
تختلف روبوتات الدردشة عن وسائل التواصل الاجتماعي التقليدية في أنها تقدم تجربة تفاعلية أكثر تعقيدًا وشخصية، مما يجعل من الصعب على الآباء مراقبة محتوى المحادثات وتأثيرها على أطفالهم. هذا التعقيد يجعل من الضروري تطوير أدوات وتقنيات جديدة لمساعدة الأسر على حماية أطفالها.
مخاوف بشأن الصحة النفسية للمراهقين
بالإضافة إلى المخاطر السلوكية، هناك قلق متزايد بشأن تأثير الذكاء الاصطناعي على الصحة النفسية للمراهقين. فقد يؤدي الاعتماد المفرط على هذه الأنظمة إلى العزلة الاجتماعية، وتدني احترام الذات، وزيادة القلق والاكتئاب.
تشير بعض الدراسات إلى أن التفاعل المستمر مع شخصيات الذكاء الاصطناعي قد يؤثر على قدرة المراهقين على بناء علاقات حقيقية وصحية مع الآخرين. هذا التأثير السلبي المحتمل يتطلب مزيدًا من البحث والدراسة.
استجابة منصات الذكاء الاصطناعي والحلول المقترحة
في مواجهة هذه المخاوف المتزايدة، بدأت بعض منصات الذكاء الاصطناعي في اتخاذ خطوات أولية للحد من المخاطر. أعلنت Character.AI عن تقييد بعض الميزات للمستخدمين دون سن 18 عامًا، بهدف حماية هذه الفئة العمرية من المحتوى غير المناسب.
ومع ذلك، يرى الخبراء أن هذه الخطوات غير كافية، وأن القطاع بحاجة إلى حلول أكثر شمولاً. تشمل هذه الحلول تطوير تقنيات أكثر أمانًا، وتعزيز الرقابة الأسرية، ووضع أطر تنظيمية فعالة تضمن حماية الأطفال والمراهقين.
كما يشدد الخبراء على أهمية رفع الوعي الرقمي لدى الأسر، وتزويدهم بالمعرفة والأدوات اللازمة لمساعدة أطفالهم على استخدام الذكاء الاصطناعي بشكل آمن ومسؤول. يتضمن ذلك تعليمهم كيفية التعرف على المخاطر المحتملة، وكيفية حماية خصوصيتهم، وكيفية التعامل مع المواقف الصعبة.
بالإضافة إلى ذلك، هناك دعوات لتعزيز التعاون بين الشركات التقنية وصناع السياسات والباحثين لوضع معايير أخلاقية وقانونية واضحة لتطوير واستخدام الذكاء الاصطناعي. هذا التعاون ضروري لضمان أن هذه التقنيات تستخدم بطريقة تعود بالنفع على المجتمع وتحد من المخاطر المحتملة.
مع استمرار تطور الذكاء الاصطناعي ودخوله في صميم حياة الجيل الجديد، من المتوقع أن تشهد الحكومات والمنظمات الدولية مناقشات مكثفة حول الحاجة إلى قوانين جديدة تنظم هذا المجال. من المرجح أن يتم التركيز على قضايا مثل حماية البيانات، والمسؤولية عن المحتوى، وضمان الشفافية والعدالة. من المقرر أن تقدم وزارة الاتصالات وتقنية المعلومات تقريرًا مفصلًا حول استخدامات الذكاء الاصطناعي في المملكة العربية السعودية في الربع الأول من العام المقبل، والذي قد يشكل نقطة انطلاق لمناقشات حول التشريعات المحتملة.
