شهدت شركة OpenAI ارتفاعًا حادًا في عدد البلاغات المتعلقة باستغلال الأطفال، حيث أرسلت أكثر من 75 ألف بلاغ إلى المركز الوطني للأطفال المفقودين والمستغلين في النصف الأول من عام 2025. يمثل هذا زيادة كبيرة مقارنة بالعام الماضي، مما يثير مخاوف متزايدة بشأن إساءة استخدام تقنيات الذكاء الاصطناعي في إنتاج ونشر مواد ضارة. وتأتي هذه الزيادة في ظل تدقيق متزايد في ممارسات السلامة لدى شركات التكنولوجيا الكبرى.
وقد أعلنت OpenAI عن هذا الارتفاع الكبير في البلاغات، مشيرةً إلى أن الزيادة تعكس توسع خدماتها، بما في ذلك السماح بتحميل الصور، بالإضافة إلى تحسين قدراتها على اكتشاف المحتوى غير القانوني. ووفقًا للشركة، فإنها تلتزم بالإبلاغ عن جميع الحالات التي تشتبه في أنها تنتهك سياساتها، سواء كانت عمليات تحميل مباشرة أو طلبات لإنشاء محتوى ضار.
تزايد بلاغات استغلال الأطفال المرتبطة بالذكاء الاصطناعي
لا يقتصر هذا الارتفاع على OpenAI فحسب، بل يعكس اتجاهًا عالميًا مقلقًا. فقد سجل المركز الوطني للأطفال المفقودين والمستغلين زيادة بأكثر من 1,300% في البلاغات المتعلقة باستغلال الأطفال المرتبطة بالذكاء الاصطناعي بين عامي 2023 و 2024. يشير هذا إلى أن الأدوات التي تعتمد على الذكاء الاصطناعي أصبحت بشكل متزايد هدفًا للمجرمين الذين يسعون إلى استغلال الأطفال.
أسباب الزيادة في البلاغات
هناك عدة عوامل تساهم في هذا الارتفاع. أولاً، أصبحت نماذج الذكاء الاصطناعي أكثر قدرة على إنشاء صور ومقاطع فيديو واقعية، مما يجعل من السهل إنتاج مواد استغلالية. ثانيًا، سهولة الوصول إلى هذه الأدوات تسمح للمجرمين بإنشاء ونشر المحتوى الضار على نطاق واسع. وأخيرًا، التحسينات في قدرات الكشف لدى الشركات مثل OpenAI تساهم في زيادة عدد البلاغات التي يتم تقديمها.
بالإضافة إلى ذلك، فإن السماح للمستخدمين بتحميل الصور إلى منصات مثل ChatGPT، كما فعلت OpenAI مؤخرًا، يزيد من خطر تعرض هذه المنصات للمحتوى غير القانوني. ومع ذلك، تؤكد الشركة أنها تعمل باستمرار على تحسين آليات الرقابة لديها.
الضغوط الرقابية المتزايدة على شركات الذكاء الاصطناعي
تأتي هذه التطورات في وقت يواجه فيه قطاع الذكاء الاصطناعي ضغوطًا رقابية متزايدة. فقد طالبت 44 ولاية أمريكية شركات كبرى، بما في ذلك OpenAI وMeta وGoogle، بتشديد إجراءات حماية الأطفال. كما عقد مجلس الشيوخ الأمريكي جلسات استماع حول مخاطر روبوتات الدردشة، وأطلقت لجنة التجارة الفيدرالية دراسة شاملة حول تدابير حماية الأطفال في تطبيقات الذكاء الاصطناعي.
وتستجيب OpenAI لهذه الضغوط من خلال إطلاق أدوات جديدة للرقابة الأبوية وإشعارات خاصة عند رصد مؤشرات إيذاء النفس لدى المستخدمين المراهقين. تهدف هذه الإجراءات إلى تحسين آليات الكشف عن الاستغلال وحماية الفئات الأكثر عرضة للخطر. وتعتبر هذه الخطوات جزءًا من التزام أوسع من الشركة بتحسين السلامة على منصاتها.
أمن الأطفال عبر الإنترنت هو موضوع يكتسب أهمية متزايدة، وتتزايد المطالبات بوضع قوانين ولوائح أكثر صرامة لتنظيم استخدام الذكاء الاصطناعي. وتشمل المخاوف الأخرى المتعلقة بالذكاء الاصطناعي انتشار المعلومات المضللة والتأثير على الانتخابات.
في حادثة منفصلة، حظرت OpenAI مؤخرًا صانع ألعاب ذكية بعد أن قدمت دمية دب نصائح خطيرة للأطفال، مما يسلط الضوء على المخاطر المحتملة المرتبطة بتطبيقات الذكاء الاصطناعي التفاعلية.
من المتوقع أن تستمر المناقشات حول تنظيم الذكاء الاصطناعي وحماية الأطفال عبر الإنترنت في الأشهر المقبلة. من المرجح أن تشهد الولايات المتحدة والمناطق الأخرى حول العالم المزيد من التشريعات المقترحة التي تهدف إلى معالجة هذه القضايا. سيكون من المهم مراقبة كيفية استجابة شركات الذكاء الاصطناعي لهذه التحديات وكيفية تطور التكنولوجيا نفسها.
