Close Menu
  • الاخبار
    • اخبار الخليج
    • اخبار السعودية
    • اخبار العالم
    • اخبار المغرب العربي
    • اخبار مصر
  • المال والأعمال
  • التقنية
  • الرياضة
  • السياحة والسفر
  • الصحة والجمال
  • المزيد
    • ترشيحات المحرر
    • الموضة والأزياء
    • ثقافة وفنون
    • منوعات
فيسبوك X (Twitter) الانستغرام
الخليج العربي
  • الاخبار
    • اخبار الخليج
    • اخبار السعودية
    • اخبار العالم
    • اخبار المغرب العربي
    • اخبار مصر
  • المال والأعمال
  • التقنية
  • الرياضة
  • السياحة والسفر
  • الصحة والجمال
  • المزيد
    • ترشيحات المحرر
    • الموضة والأزياء
    • ثقافة وفنون
    • منوعات
الرئيسية»الاخبار»اخبار السعودية»روبوتات الدردشة تزرع الهلاوس.. خطر جديد يهدد العقول
اخبار السعودية

روبوتات الدردشة تزرع الهلاوس.. خطر جديد يهدد العقول

اسلام جمالبواسطة اسلام جمال22 أغسطس، 20252 دقائق
فيسبوك تويتر بينتيريست تيلقرام لينكدإن Tumblr واتساب البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست تيلقرام البريد الإلكتروني

حذّر رئيس قسم الذكاء الاصطناعي في مايكروسوفت مصطفى سليمان من تزايد حالات «الذهان المرتبط بالذكاء الاصطناعي»، وهي ظاهرة يعتقد فيها البعض أن روبوتات الدردشة تمتلك وعياً أو تستطيع منح قدرات خارقة.

في سلسلة منشورات صادمة على منصة «X»، أشار سليمان إلى ارتفاع تقارير الهلاوس والتعلق غير الصحي بأنظمة الذكاء الاصطناعي، مؤكداً أن هذه الظاهرة لا تقتصر على الأشخاص المعرضين لمشكلات نفسية مسبقاً.

مصطلح «الذهان المرتبط بالذكاء الاصطناعي» ليس تشخيصاً طبياً رسمياً، لكنه يُستخدم لوصف حالات فقدان الاتصال بالواقع بعد استخدام مكثف لروبوتات الدردشة مثل ChatGPT أو Grok.

بعض المستخدمين أصبحوا مقتنعين بأن هذه الأنظمة تملك عواطف أو نيات، بينما يدّعي آخرون اكتشاف ميزات سرية أو اكتساب قدرات استثنائية.

ووصف سليمان الظاهرة بـ«الذكاء الاصطناعي الذي يبدو واعياً»، موضحاً أن الأنظمة تحاكي علامات الوعي بشكل مقنع لدرجة أن البعض يخلطها بالحقيقة.

وقال: «هذه الأنظمة ليست واعية، لكنها تُظهر علامات الوعي بشكل يجعلها تبدو مشابهة لنا، وهذا خطر يمكن تحقيقه بتقنيات اليوم».

ورغم تأكيده على عدم وجود دليل على وعي الذكاء الاصطناعي حالياً، حذر سليمان من قوة التصورات قائلاً: «إذا اعتقد الناس أن الذكاء الاصطناعي واعٍ، فسيعاملونه كحقيقة، وهذا له تأثيرات اجتماعية حقيقية حتى لو لم يكن الوعي نفسه حقيقياً».

وجاءت تحذيراته بعد تقارير عن تجارب غريبة، فعلى سبيل المثال، زعم ترافيس كالانيك، الرئيس التنفيذي السابق لأوبر، أن محادثاته مع روبوتات الدردشة قادته إلى اختراقات في الفيزياء الكمية، واصفاً ذلك بـ«التشفير بالإحساس».

كما أفاد رجل من أسكتلندا لشبكة «BBC» أنه اقتنع بحصوله على تعويض مالي ضخم بعد أن عزز ChatGPT إيمانه بقضية تسريح من العمل.

ودعا سليمان إلى وضع حدود صارمة، وحث الشركات على التوقف عن الترويج لفكرة أن أنظمتها واعية، وضمان عدم تلميح التكنولوجيا لذلك. وتزامنت تحذيراته مع حالات تعلق عاطفي بالذكاء الاصطناعي، مشابهة لفيلم Her، حيث وقع البطل في حب مساعد افتراضي.

وفي الأشهر الأخيرة، عبر مستخدمون على منتدى MyBoyfriendIsAI عن شعورهم بالحزن بعد تقليص OpenAI للاستجابات العاطفية في ChatGPT، واصفين ذلك بـالانفصال.

بدورها، أيدت الدكتورة سوزان شيلمردين، استشارية في مستشفى غريت أورموند ستريت، هذه المخاوف، مقارنة الاستخدام المفرط لروبوتات الدردشة بالأطعمة فائقة المعالجة، وحذرت من أنها قد تؤدي إلى «سونامي من العقول المعالجة بشكل مفرط».

أخبار ذات صلة

 

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

تضامن خليجي مع الإمارات بعد تفكيك تنظيم إرهابي

21 أبريل، 2026

السعودية حاضرة بقوة على مؤشر المدن الذكية لعام 2026

21 أبريل، 2026

تعليق جزئي للدراسة في السعودية بسبب الأمطار الغزيرة

15 أبريل، 2026

نمو اقتصادات الخليج إلى 595 مليار دولار في ربع 2025 الثالث

15 أبريل، 2026

السعودية تعلن عودة خط أنابيب شرق-غرب للعمل بالكامل

15 أبريل، 2026

فاتورة العدوان تلاحق إيران.. كيف ستعوض دول الخليج؟

15 أبريل، 2026
اقسام الموقع
  • اخبار التقنية (5٬674)
  • اخبار الخليج (33٬848)
  • اخبار الرياضة (50٬795)
  • اخبار السعودية (25٬394)
  • اخبار العالم (28٬703)
  • اخبار المغرب العربي (28٬771)
  • اخبار مصر (3٬060)
  • اقتصاد (1)
  • الاخبار (11٬932)
  • السياحة والسفر (50)
  • الصحة والجمال (17٬134)
  • المال والأعمال (347)
  • الموضة والأزياء (309)
  • ترشيحات المحرر (5٬008)
  • تكنولوجيا (7)
  • ثقافة وفنون (80)
  • غير مصنف (28٬684)
  • منوعات (4٬759)
© 2026 الخليج العربي. جميع الحقوق محفوظة.
  • سياسة الخصوصية
  • اتصل بنا

اكتب كلمة البحث ثم اضغط على زر Enter