Close Menu
  • الاخبار
  • اخبار التقنية
  • الرياضة
  • الصحة والجمال
  • لايف ستايل
  • مقالات
  • منوعات
  • فيديو
فيسبوك X (Twitter) الانستغرام
الخليج العربي
  • الاخبار
  • اخبار التقنية
  • الرياضة
  • الصحة والجمال
  • لايف ستايل
  • مقالات
  • منوعات
  • فيديو
الرئيسية»ترشيحات المحرر»مخاطر مكالمات الفيديو باستخدام الذكاء الاصطناعي.. كيف تحمي أموالك من السرقة؟
ترشيحات المحرر

مخاطر مكالمات الفيديو باستخدام الذكاء الاصطناعي.. كيف تحمي أموالك من السرقة؟

اسلام جمالبواسطة اسلام جمال25 نوفمبر، 20242 دقائق
فيسبوك تويتر بينتيريست تيلقرام لينكدإن Tumblr واتساب البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست تيلقرام البريد الإلكتروني

​

استحوذ الذكاء الاصطناعي وتقنياته، على حيز كبير من استخدامات المتعاملين مع منصات الإنترنت ووسائل التواصل الاجتماعي، ورغم مزاياه الهائلة وما يمكن أن يقدمه للبشرية من تسهيلات، إلا أنه يمكن أن يكون المحتالين من أكبر الفائزين بما يقدمه، إذ أن مخاطر مكالمات الفيديو باستخدام الذكاء الاصطناعي، قد تكون من أبرز تداعيات الـAI السلبية، خاصة أن عملية انتحال شخصية شخص آخر باتت أمرًا ممكنًا، وفقًا لما ذكره موقع «makeuseof» التقني.

مخاطر مكالمات الفيديو باستخدام الذكاء الاصطناعي

الموقع التقني أشار في تقرير، إلى أنه يمكن استخدام تقنية التزييف العميق لانتحال شخصية شخص ما، ثم استخدام ذلك للحصول على شيء منه، وعادةً ما تكون معلومات مالية، كما يمكن استخدامها في عمليات الاحتيال الرومانسية المصممة لاستهداف الأشخاص الذين يبحثون عن الحب على مواقع المواعدة والاستفادة منهم، لكن يمكن استخدامها أحيانًا بطرق أخرى، مثل انتحال شخصية مشهورة أو شخصية سياسية أو حتى شخص قد تعرفه بالفعل مثل رئيسك أو زميلك في العمل.

تقنية التزييف العميق «Deepfake»

تقنية «Deepfake» أو ما تعرف باسم التزييف العميق، يمكن الاستفادة منها في مقاطع الفيديو المنشأة بواسطة الذكاء الاصطناعي، لتقليد شخصية موجودة، وعادةً ما يكون ذلك لأغراض الخداع، حيث تُستخدم التقنية لأغراض غير خبيثة، مثل الميمات والترفيه، ويمكن استخدامها في عمليات الاحتيال عبر مكالمات الفيديو، وفقًا لما ذكره الموقع.

كيفية اكتشاف الاحتيال في مكالمات الفيديو بالذكاء الاصطناعي

أوضح التقرير، أن عمليات التزييف العميق المستخدمة في أغلب عمليات الاحتيال عبر مكالمات الفيديو التي تتم باستخدام الذكاء الاصطناعي لا تتسم بالاتساق، وغالبًا ما تحتوي على خلل بصري وغرائب ​​تجعل الفيديو أو الصوت يبدو مزيفًا، حيث يمكن اللجوء لبعض الأشياء للتحقق من صحة الفيديو، مثل تعبيرات الوجه، أو خلفية الفيديو التي تتغير بشكل غريب، أو الصوت الذي يبدو غير متطابق إلى حد ما مع صوت الشخص.

كيفية الحماية من احتيال تقنية Deepfake

الموقع أشار إلى أنه يمكن تحديد هوية شخص ما من خلال استخدم ميزات يصعب تزويرها، بدلًا من تحديدها بناءً على وجهه أو صوته، حيث يمكن التحقق من أن المكالمة تأتي من رقم الهاتف الصحيح أو اسم الحساب، وبالنسبة للتطبيقات مثل Teams أو Zoom، يمكن التحقق من البريد الإلكتروني.

لا تعطيهم معلوماتك المالية

تتطلب الحماية من تقنية التزييف العميق، الاحتفاظ بكل المعلومات المهمة، حيث لا ينبغي لأحد أن يطلب منك معلوماتك المصرفية، كما أنه لا ينبغي لك مشاركة هذه المعلومات عبر الإنترنت، وإذا استعجلوا أو ضغطوا عليك للقيام بذلك، فهذا دليل إضافي لتعرضك لمحاولة احتيال.

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

كيف تستخدم ChatGPT مستشارا ماليا لإدارة راتبك بكفاءة؟

15 يونيو، 2025

هتوفر وقت ومجهود.. 3 إعدادات ذكية تجعل هاتفك يعمل بشكل أفضل

15 يونيو، 2025

طريقة استخدام ميزة المساحة الخاصة على هاتف يعمل بنظام Android 15

15 يونيو، 2025

تنبيه زلازل.. «جوجل» تطلق ميزة جديدة بأجهزة نظام Wear OS القابلة للارتداء

15 يونيو، 2025

  على غرار TikTok.. «إنستجرام» يضيف ميزة مشاركة الأغاني على Spotify

15 يونيو، 2025

بشرى للسيدات.. «هيليكس» أول روبوت لفرز الخضراوات والطرود

15 يونيو، 2025
اقسام الموقع
  • Science (1)
  • اخبار الإمارات (2)
  • اخبار الامارات (1)
  • اخبار التقنية (7٬053)
  • اخبار الخليج (43٬613)
  • اخبار الرياضة (60٬998)
  • اخبار السعودية (31٬036)
  • اخبار العالم (34٬584)
  • اخبار المغرب العربي (34٬776)
  • اخبار طبية (1)
  • اخبار مصر (2٬796)
  • اخر الاخبار (6)
  • اسواق (1)
  • افلام ومسلسلات (1)
  • اقتصاد (6)
  • الاخبار (18٬472)
  • التعليم (1)
  • الخليج (1)
  • الدين (1)
  • السياحة والسفر (1)
  • السينما والتلفزيون (1)
  • الصحة والجمال (20٬383)
  • العاب (2)
  • العملات الرقمية (4)
  • الفن والفنانين (1)
  • القران الكريم (2)
  • المال والأعمال (13)
  • المال والاعمال (1)
  • الموضة والأزياء (1)
  • ترشيحات المحرر (5٬847)
  • تريند اليوم (4)
  • تعليم (4)
  • تكنولوجيا (6)
  • ثقافة وفن (2)
  • ثقافة وفنون (2)
  • غير مصنف (9)
  • فنون (1)
  • لايف ستايل (35٬080)
  • مال واعمال (6)
  • مطبخ جحا (2)
  • مقالات (7)
  • منوعات (4٬536)
  • ميديا (1)
  • نتائج مبارة (3)
© 2025 الخليج العربي. جميع الحقوق محفوظة.
  • سياسة الخصوصية
  • اتصل بنا

اكتب كلمة البحث ثم اضغط على زر Enter