تثير التطورات الأخيرة في مجال الذكاء الاصطناعي جدلاً قانونياً وأخلاقياً متصاعداً حول حقوق النشر. لطالما دافعت الشركات الكبرى في هذا المجال، مثل جوجل وميتا وأوبن إيه آي وأنثروبيك، عن نماذجها اللغوية الكبيرة، مؤكدة أنها لا تخزن الأعمال المحمية بحقوق النشر، بل تتعلم منها بطريقة مشابهة لعملية التعلم لدى البشر. ومع ذلك، تشير دراسة حديثة إلى أن هذه الادعاءات قد تكون غير دقيقة، مما يهدد مستقبل الصناعة بأكملها.
نشر باحثون من جامعتي ستانفورد وييل نتائج دراسة مثيرة للجدل تكشف عن أدلة قوية على أن نماذج الذكاء الاصطناعي لا تكتفي بالتعلم من البيانات، بل تنسخ أجزاء كبيرة منها وتعيد إنتاجها بدقة عالية. وقد سلطت هذه النتائج الضوء على المخاوف المتزايدة بشأن انتهاك حقوق الملكية الفكرية في عصر الذكاء الاصطناعي.
ماذا كشفت الدراسة حول حقوق النشر؟
ركزت الدراسة على أربعة نماذج لغوية كبيرة بارزة: OpenAI GPT-4.1، وGoogle Gemini 2.5 Pro، وxAI Grok 3، وAnthropic Claude 3.7 Sonnet. أظهرت النتائج أن نموذج Claude أعاد إنتاج كتب كاملة بدقة تصل إلى 95.8%، بينما أعاد Gemini إنتاج رواية “هاري بوتر وحجر الفيلسوف” بدقة 76.8%. بالإضافة إلى ذلك، تمكن Claude من إعادة إنتاج رواية “1984” لجورج أورويل بدقة تجاوزت 94%.
هذه الأعمال الأدبية لا تزال محمية بموجب قوانين حقوق النشر، مما يثير تساؤلات حول مدى قانونية هذه القدرة على إعادة الإنتاج الدقيقة. وفقًا للباحثين، فإن هذه النتائج تشير إلى أن النماذج تحتفظ بنسخ قابلة للاسترجاع من المواد المحمية بحقوق النشر، وهو ما يتعارض مع الادعاءات السابقة للشركات.
الاستخدام العادل في مرمى النيران
تستند شركات الذكاء الاصطناعي عادةً إلى مبدأ “الاستخدام العادل” في قانون حقوق النشر الأمريكي لتبرير تدريب نماذجها على الأعمال المحمية. يسمح هذا المبدأ باستخدام محدود للمواد المحمية بحقوق النشر دون إذن من صاحب الحق، لأغراض مثل النقد والتعليق والتعليم والبحث. ومع ذلك، إذا ثبت أن النماذج تعيد إنتاج النصوص بدقة عالية عند الطلب، فقد يقوض ذلك بشكل كبير حجة الاستخدام العادل.
يشير المحللون القانونيون إلى أن هذه النتائج قد تؤدي إلى مسؤولية قانونية كبيرة على شركات الذكاء الاصطناعي، وقد تكلف الصناعة مليارات الدولارات. كما أن هذه القضية تثير تساؤلات حول مستقبل الملكية الفكرية في عصر الذكاء الاصطناعي.
كيف يتم استخراج النصوص المحمية؟
استخدم الباحثون أسلوبًا يُعرف بـ “Best-of-N” لاستخراج النصوص المحمية بحقوق النشر. يتضمن هذا الأسلوب إغراق النموذج بعدة صيغ مختلفة للسؤال نفسه للحصول على أفضل إجابة. على الرغم من أن بعض الشركات استخدمت هذا الأسلوب في السابق للدفاع عن نفسها، بحجة أن المستخدم العادي لا يتعامل مع النماذج بهذه الطريقة، إلا أن الباحثين يردون بأن إمكانية الاستخراج نفسها هي المشكلة، بغض النظر عن الأسلوب المستخدم.
في المقابل، تصر الشركات على موقفها، حيث أكدت جوجل في عام 2023 أنه “لا توجد أي نسخة من بيانات التدريب داخل النموذج”، وأكدت OpenAI أن نماذجها “لا تخزن نسخًا من المعلومات التي تتعلمها”. ومع ذلك، فإن الأدلة المتزايدة تشير إلى خلاف ذلك.
تداعيات اقتصادية وثقافية
تتجاوز هذه القضية الجوانب التقنية والقانونية لتشمل تداعيات اقتصادية وثقافية واسعة النطاق. يعاني الكتاب والصحفيون والفنانون بالفعل من تراجع الدخل، في حين تتضخم قيمة شركات الذكاء الاصطناعي إلى مستويات غير مسبوقة. يثير هذا الوضع مخاوف بشأن العدالة وتوزيع الثروة في عصر الذكاء الاصطناعي.
السؤال الجوهري الذي ستفصل فيه المحاكم هو: هل نماذج الذكاء الاصطناعي تتعلم مثل البشر، أم أنها تخزن وتعيد نسخ الإبداع البشري؟ الإجابة على هذا السؤال قد تعيد رسم مستقبل صناعة الذكاء الاصطناعي بأكملها.
من المتوقع أن تشهد الأشهر القادمة المزيد من الدعاوى القضائية والتحقيقات في هذا المجال. ستراقب الأوساط القانونية والتقنية عن كثب تطورات هذه القضية، حيث أنها قد تحدد مسار الذكاء الاصطناعي وتأثيره على الإبداع والملكية الفكرية في المستقبل.
ذو صلة > ثورة Nightshade.. أداة تحمي الفنانين من مخالب الذكاء الاصطناعي
