Close Menu
  • الاخبار
  • اخبار التقنية
  • الرياضة
  • الصحة والجمال
  • لايف ستايل
  • مقالات
  • منوعات
  • فيديو
فيسبوك X (Twitter) الانستغرام
الخليج العربي
  • الاخبار
  • اخبار التقنية
  • الرياضة
  • الصحة والجمال
  • لايف ستايل
  • مقالات
  • منوعات
  • فيديو
الرئيسية»اخبار التقنية»أنثروبيك تطور تقنية ثورية لمنع إساءة استخدام نماذج الذكاء الاصطناعي
اخبار التقنية

أنثروبيك تطور تقنية ثورية لمنع إساءة استخدام نماذج الذكاء الاصطناعي

اسلام جمالبواسطة اسلام جمال4 فبراير، 20253 دقائق
فيسبوك تويتر بينتيريست تيلقرام لينكدإن Tumblr واتساب البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست تيلقرام البريد الإلكتروني

كشفت شركة أنثروبيك الناشئة في مجال الذكاء الاصطناعي عن تقنية جديدة تهدف إلى منع المستخدمين من إساءة استخدام نماذجها، واستخراج محتوى ضار منها، في خطوة تعكس تسابق كبرى الشركات التقنية لتعزيز معايير الأمان في هذا المجال المتطور.

وأوضحت الشركة في ورقة بحثية أنها طوّرت نظامًا جديدًا يُعرف باسم “المُصنّفات الدستورية”، وهو طبقة حماية تعمل فوق نماذج اللغة الكبيرة، مثل نموذج Claude التابع لها، ويتيح هذا النظام مراقبة المدخلات والمخرجات، لمنع إنتاج أي محتوى غير آمن.

ويأتي هذا التطوير في ظل تصاعد المخاوف بشأن ما يُعرف بـ “اختراق الذكاء الاصطناعي Jailbreaking”، وهي محاولات لاستغلال النماذج لتوليد معلومات غير قانونية أو خطِرة، مثل تعليمات تصنيع الأسلحة الكيميائية. ومع تزايد هذه التهديدات، تتسابق الشركات لإيجاد حلول تحمي نماذجها، مما يساعدها في تجنب التدقيق التنظيمي، وكسب ثقة المؤسسات.

وقد طرحت مايكروسوفت بالفعل تقنية “الدروع التوجيهية Prompt Shields” في مارس الماضي، في حين أطلقت ميتا نموذج “حارس التوجيه Prompt Guard” في يوليو من عام 2023، الذي تعرض للاختراق في البداية، لكنه خضع لاحقًا لتحسينات أمنية.

وقال مرينانك شارما، أحد أعضاء الفريق التقني في أنثروبيك: “إن الدافع الرئيسي وراء تطوير النظام كان التعامل مع الأخطار الشديدة، مثل تصنيع الأسلحة الكيميائية، ولكن الميزة الأهم هي القدرة على التكيف والاستجابة السريعة”.

ومع أن أنثروبيك لم تدمج هذه التقنية في نماذج Claude الحالية، فإنها أشارت إلى احتمال استخدامها مستقبلًا عند إطلاق نماذج أكثر تطورًا وأعلى خطورة.

ويعتمد النظام الجديد على “دستور” من القواعد التي تحدد المحتوى المسموح والمحظور، ويمكن تعديله للتعامل مع أنواع مختلفة من المواد الخطِرة. وتُستخدم طرق متنوعة لاختراق النماذج، مثل إعادة صياغة الطلبات بأسلوب غير مألوف، أو مطالبة النموذج بالتصرف كشخصية خيالية لتجاوز قيود الأمان.

ولضمان فاعلية النظام، قدمت أنثروبيك مكافآت تصل إلى 15,000 دولار للباحثين الأمنيين الذين تمكنوا من اختراق النموذج في إطار برنامج “مكافآت اكتشاف الثغرات Bug Bounty”.

ووفقًا لنتائج الاختبارات، فقد نجح نموذج Claude 3.5 Sonnet في رفض أكثر من 95% من محاولات الاختراق عند تشغيل التقنية الأمنية الجديدة، مقارنةً بنسبة قدرها 14% فقط عند عدم تفعيلها.

وتحاول شركات الذكاء الاصطناعي تحقيق توازن بين الأمان وكفاءة النماذج، إذ تؤدي إجراءات المراقبة الصارمة أحيانًا إلى رفض الطلبات المشروعة. وقد شهدت نماذج مثل Gemini و Llama 2 مشكلات في هذا الجانب عند إطلاقها الأولي، لكن أنثروبيك أكدت أن نظامها أدى إلى زيادة طفيفة فقط في معدلات الرفض غير الضرورية.

وتأتي إضافة هذه الطبقة الأمنية بتكلفة تشغيلية إضافية، إذ أشارت الشركة إلى أن تشغيلها يزيد استهلاك الموارد الحاسوبية بنسبة قدرها 24%، وهو ما يشكّل تحديًا في ظل ارتفاع تكاليف تشغيل نماذج الذكاء الاصطناعي.

تم نسخ الرابط

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

كيف تقود السعودية مستقبل السيارات الكهربائية في الشرق الأوسط؟

13 ديسمبر، 2025

هل أطلقت سوريَة عملة رقمية رسمية فعلًا؟

13 ديسمبر، 2025

آبل تطلق رسميًا تحديث iOS 26.2 بتحسينات متعددة لهواتف آيفون

13 ديسمبر، 2025

مايكروسوفت تطلق قسمًا جديدًا للسِمات في متجر ويندوز 11

12 ديسمبر، 2025

OpenAI تدخل عقدها الثاني بطموح الوصول إلى “الذكاء الفائق” عام 2035

12 ديسمبر، 2025

“صور جوجل” تطلق ميزة تحويل الصور إلى رسومات كرتونية في مصر وتركيا

12 ديسمبر، 2025
اقسام الموقع
  • Science (1)
  • اخبار الإمارات (2)
  • اخبار الامارات (1)
  • اخبار التقنية (7٬040)
  • اخبار الخليج (43٬785)
  • اخبار الرياضة (60٬922)
  • اخبار السعودية (31٬135)
  • اخبار العالم (34٬570)
  • اخبار المغرب العربي (34٬761)
  • اخبار طبية (1)
  • اخبار مصر (2٬774)
  • اخر الاخبار (6)
  • اسواق (1)
  • افلام ومسلسلات (1)
  • اقتصاد (6)
  • الاخبار (18٬581)
  • التعليم (1)
  • الخليج (1)
  • الدين (1)
  • السياحة والسفر (1)
  • السينما والتلفزيون (1)
  • الصحة والجمال (20٬350)
  • العاب (2)
  • العملات الرقمية (4)
  • الفن والفنانين (1)
  • القران الكريم (2)
  • المال والأعمال (13)
  • المال والاعمال (1)
  • الموضة والأزياء (1)
  • ترشيحات المحرر (5٬892)
  • تريند اليوم (4)
  • تعليم (4)
  • تكنولوجيا (6)
  • ثقافة وفن (2)
  • ثقافة وفنون (2)
  • غير مصنف (8)
  • فنون (1)
  • لايف ستايل (35٬115)
  • مال واعمال (6)
  • مطبخ جحا (2)
  • مقالات (7)
  • منوعات (4٬536)
  • ميديا (1)
  • نتائج مبارة (3)
© 2025 الخليج العربي. جميع الحقوق محفوظة.
  • سياسة الخصوصية
  • اتصل بنا

اكتب كلمة البحث ثم اضغط على زر Enter