Close Menu
  • الاخبار
    • اخبار الخليج
    • اخبار السعودية
    • اخبار العالم
    • اخبار المغرب العربي
    • اخبار مصر
  • المال والأعمال
  • التقنية
  • الرياضة
  • السياحة والسفر
  • الصحة والجمال
  • المزيد
    • ترشيحات المحرر
    • الموضة والأزياء
    • ثقافة وفنون
    • منوعات
فيسبوك X (Twitter) الانستغرام
الخليج العربي
  • الاخبار
    • اخبار الخليج
    • اخبار السعودية
    • اخبار العالم
    • اخبار المغرب العربي
    • اخبار مصر
  • المال والأعمال
  • التقنية
  • الرياضة
  • السياحة والسفر
  • الصحة والجمال
  • المزيد
    • ترشيحات المحرر
    • الموضة والأزياء
    • ثقافة وفنون
    • منوعات
الرئيسية»ترشيحات المحرر»كيف تحمي نفسك من عمليات الاحتيال الصوتية؟.. «3 طرق هتخليك في أمان»
ترشيحات المحرر

كيف تحمي نفسك من عمليات الاحتيال الصوتية؟.. «3 طرق هتخليك في أمان»

اسلام جمالبواسطة اسلام جمال24 مارس، 20252 دقائق
فيسبوك تويتر بينتيريست تيلقرام لينكدإن Tumblr واتساب البريد الإلكتروني
شاركها
فيسبوك تويتر لينكدإن بينتيريست تيلقرام البريد الإلكتروني

​

حذرت وكالة «يوروبول» الأوروبية «وكالة إنفاذ القانون التابعة للاتحاد الأوروبي»، من أن تقنية الصوت المزيف باستخدام الذكاء الاصطناعي، تُسهم في تسريع وتيرة الجرائم الإلكترونية وازديادها فيما يعرف باسم «هجمات التزييف العميق»، وفقًا لما ذكره موقع «phonearena» التكنولوجي.

تقنية الصوت المزيف باستخدام الذكاء الاصطناعي

الموقع نوه إلى أن استخدام تقنية الصوت المزيف باستخدام الذكاء الاصطناعي في الاحتيال على الناس، يؤدي إلى التلاعب بهم لدفعهم إلى اتخاذ إجراءات مُعينة من خلال الإقناع والخداع والترهيب، وهو ما يُسمى بالهندسة الاجتماعية، إذ من الممكن أن يتلقى الشخص رسالة نصية أو بريدًا إلكترونيًا مُزيفًا من شركة الاتصالات، ويُوهمه المحتالون بأن الخدمة ستُقطَع عنه إذا لم يدفع لهم فورًا. 

ويمكن الاحتيال على  الأشخاص من خلال تلقي مكالمة هاتفية من أحد أفراد العائلة، بتقنية الصوت المزيف باستخدام الذكاء الاصطناعي يخبرهم فيها أنه مختطف رغمًا عنه، ولن يُطلق سراحه إلا بدفع فدية.

كيف تحمي نفسك من عمليات الاحتيال؟ 

وهناك مجموعة من الطرق التي يمكن اللجوء إليها من أجل الحماية من عمليات الاحتيال بالذكاء الاصطناعي، كالتالي:

الحد من تسجيلات وسائل التواصل الاجتماعي

 ينبغي على الناس توخي الحذر دائمًا فيما ينشرونه على منصات التواصل الاجتماعي، خاصة بعد تزايد عمليات الاحتيال بواسطة استنساخ الأصوات بالذكاء الاصطناعي.

تجنب التحقق البيومتري الصوتي

أصبحت الحسابات التي تستخدم التحقق البيومتري الصوتي هدفًا للمحتالين، إذ يحتاج المستخدم إلى إنشاء عينات صوتية جديدة لتسجيل الدخول إلى حساباته، وغالبًا ما تُحفظ هذه العينات على هواتف المستخدمين، ما يجعلها أهدافًا سهلة للمحتالين لالتقاطها والتلاعب بها وتحويلها إلى أصوات مستنسخة بالذكاء الاصطناعي .   

لا تتحدث إلى أرقام غير معروفة

إذا رددت على مكالمة من رقم مجهول، فانتظر حتى يتحدث الشخص أو الصوت على الطرف الآخر أولاً، لأن المحتالين لا يحتاجون سوى بضع ثوانٍ لتسجيل صوتك، لذلك كلما قل كلامك، كان ذلك أفضل.  

شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني

المقالات ذات الصلة

خالد المشري لـRT: التقارب مع السعودية يقتصر على الشق الاقتصادي ولا يشمل أبعادا سياسية

5 فبراير، 2026

نجيب ساويرس يعلق على تهديدات ترامب ضد إيران ويكشف عن “اللي عاوزه”

5 فبراير، 2026

خالد المشري لـRT: البعثة الأممية في ليبيا لا تعمل بمنهج تراكمي

4 فبراير، 2026

خالد المشري لـRT: أي محاولة أمريكية لتوحيد حكومتي ليبيا لن تحل الأزمة وأولويات الخارج النفط والأمن

4 فبراير، 2026

خالد المشري لـRT: الحل الليبي الليبي ممكن شرط استشعار الأطراف خطورة الانقسام

4 فبراير، 2026

الدفاع الجزائرية تعلن القضاء على 4 إرهابيين في ولاية عين الدفلى شمال البلاد

3 فبراير، 2026
اقسام الموقع
  • اخبار التقنية (7٬201)
  • اخبار الخليج (39٬145)
  • اخبار الرياضة (57٬428)
  • اخبار السعودية (29٬002)
  • اخبار العالم (32٬595)
  • اخبار المغرب العربي (32٬732)
  • اخبار مصر (2٬997)
  • الاخبار (15٬943)
  • السياحة والسفر (34)
  • الصحة والجمال (19٬055)
  • المال والأعمال (277)
  • الموضة والأزياء (240)
  • ترشيحات المحرر (5٬191)
  • تكنولوجيا (3)
  • ثقافة وفنون (45)
  • علوم وتكنولوجيا (1)
  • غير مصنف (32٬019)
  • منوعات (4٬703)
© 2026 الخليج العربي. جميع الحقوق محفوظة.
  • سياسة الخصوصية
  • اتصل بنا

اكتب كلمة البحث ثم اضغط على زر Enter