2025: كيف يسرق الذكاء الاصطناعي هويتك ويخدعك؟

تنامي عمليات الاحتيال بانتحال الشخصية المدعومة بالذكاء الاصطناعي: مخاطر متزايدة وحلول وقائية

شهد عام 2025 انتشارًا واسعًا لعمليات الاحتيال التي تعتمد على انتحال الشخصية باستخدام الذكاء الاصطناعي، حيث يستغل المحتالون تقنيات متطورة مثل استنساخ الصوت ومقاطع الفيديو المزيفة (Deepfake) لتقليد الأفراد الموثوق بهم بشكل مقنع للغاية. تستهدف هذه الهجمات الخبيثة الأفراد والشركات على حد سواء، وتتم عادةً عبر المكالمات الهاتفية، والاجتماعات الافتراضية، والرسائل النصية، ورسائل البريد الإلكتروني.

كيف تعمل عمليات الاحتيال بانتحال الشخصية بالذكاء الاصطناعي؟

تعتمد هذه العمليات الاحتيالية بشكل كبير على تقنية استنساخ الصوت بالذكاء الاصطناعي، والتي تمكن المحتالين من إعادة إنشاء أنماط كلام أي شخص باستخدام تسجيل صوتي قصير للغاية، قد لا يتجاوز بضع ثوانٍ. يمكن الحصول على هذه العينات الصوتية بسهولة من مصادر مختلفة مثل رسائل البريد الصوتي، أو المقابلات المنشورة، أو مقاطع الفيديو المتوفرة على منصات التواصل الاجتماعي. حتى مقتطفات قصيرة من بودكاست أو محاضرة تعليمية عبر الإنترنت قد تكون كافية لتوليد انتحال صوتي مقنع بواسطة الذكاء الاصطناعي.

تتطور بعض أشكال الاحتيال لتشمل استخدام مقاطع الفيديو المزيفة (Deepfake) لمحاكاة المكالمات المرئية الحية. على سبيل المثال، نجح محتالون في انتحال شخصية مديرين تنفيذيين لشركات كبرى خلال اجتماعات فيديو افتراضية، مما دفع الموظفين إلى الموافقة على تحويلات مالية ضخمة، معتقدين أنهم يتحدثون إلى مديريهم الفعليين.

أسباب انتشار عمليات الاحتيال بالذكاء الاصطناعي

يعزو الخبراء النمو السريع لعمليات الاحتيال التي تعتمد على انتحال الشخصية المدعومة بالذكاء الاصطناعي في عام 2025 إلى ثلاثة عوامل رئيسية: التقدم التكنولوجي المستمر، وانخفاض التكاليف التشغيلية لهذه التقنيات، وزيادة إمكانية الوصول إليها. من خلال هذه التزويرات الرقمية المتقدمة، يتمكن المهاجمون من تقمص هوية شخص موثوق به – كفرد من العائلة، أو المدير المباشر في العمل، أو حتى مسؤول حكومي – ومن ثم يطلبون معلومات حساسة أو يحثون على إجراء مدفوعات عاجلة تحت ضغط.

تكمن خطورة هذه الأصوات ومقاطع الفيديو المنتحلة في كونها مقنعة للغاية. وكما حذرت لجنة القضاء بمجلس الشيوخ الأمريكي مؤخرًا، فإن حتى المهنيين المدربين قد يقعون ضحية لهذه الحيل المتطورة.

أشكال شائعة للاحتيال بانتحال الشخصية المدعوم بالذكاء الاصطناعي

تتجلى عمليات الاحتيال التي تستخدم انتحال الشخصية بالذكاء الاصطناعي عبر قنوات متعددة، تشمل المكالمات الهاتفية، ومكالمات الفيديو، وتطبيقات المراسلة الفورية، ورسائل البريد الإلكتروني. غالبًا ما تفاجئ هذه الهجمات الضحايا في خضم أنشطتهم اليومية. يستغل المجرمون تقنية استنساخ الصوت لتنفيذ ما يُعرف بـ مكالمات "التصيد الصوتي" (Vishing)، وهي مكالمات احتيالية مصممة لتبدو وكأنها صادرة عن شخص موثوق به.

  • حذر مكتب التحقيقات الفيدرالي (FBI) مؤخرًا من مكالمات مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي، انتحلت فيها شخصية سياسيين أمريكيين بارزين مثل السيناتور ماركو روبيو، بهدف نشر معلومات مضللة وطلب ردود فعل عامة.
  • على الصعيد المؤسسي: نظم مجرمو الإنترنت اجتماعات فيديو مزيفة (Deepfake) انتحلوا فيها شخصية مديرين تنفيذيين. في حادثة بارزة وقعت في عام 2024، انتحل مهاجمون شخصية المدير المالي لشركة Arup الهندسية، ومقرها المملكة المتحدة، وتمكنوا من خداع موظفيها للموافقة على تحويلات مالية بلغت قيمتها الإجمالية 25 مليون دولار أمريكي.

تعتمد هذه الهجمات عادةً على جمع الصور ومقاطع الفيديو من مصادر عامة مثل LinkedIn، ومواقع الشركات، ومنصات التواصل الاجتماعي لإنشاء انتحال مقنع للغاية. تتزايد عمليات انتحال الشخصية بالذكاء الاصطناعي تعقيدًا وسرعة. وقد كشفت دراسة أجرتها شركة Paubox المتخصصة في خدمات البريد الإلكتروني أن ما يقرب من 48% من محاولات التصيد الاحتيالي التي تعتمد على الذكاء الاصطناعي، بما في ذلك استنساخ الصوت والفيديو، تنجح في تجاوز أنظمة الأمان الحالية للبريد الإلكتروني والمكالمات.

لماذا تنجح عمليات الاحتيال بالذكاء الاصطناعي؟

يشير الخبراء إلى أن نجاح عمليات الاحتيال بانتحال الشخصية المدعومة بالذكاء الاصطناعي يرجع إلى قدرتها على خلق إحساس زائف بالإلحاح لدى الضحايا. يستغل المجرمون الميل الطبيعي للأشخاص للثقة بالأصوات أو الوجوه المألوفة، مما يجعلهم يتخذون قرارات سريعة ودون تفكير كافٍ.

نصائح عملية للحماية من عمليات الاحتيال بانتحال الشخصية بالذكاء الاصطناعي

يُعدّ التباطؤ هو خط الدفاع الأول والأكثر أهمية؛ خصص وقتًا كافيًا للتحقق من هوية المتصل أو المرسل قبل اتخاذ أي إجراء. وتؤكد مبادرة Take9 أن التوقف لمدة تسع ثوانٍ فقط يمكن أن يحدث فرقًا كبيرًا في الحفاظ على أمانك.

إذا تلقيت مكالمة أو مكالمة فيديو مشبوهة من شخص تعرفه، فمن الأفضل قطع الاتصال ومحاولة الاتصال بهم مرة أخرى باستخدام الرقم الذي لديك بالفعل والمحفوظ مسبقًا. وكما أوضح محلل الأمن السيبراني أشوين راجو لمجلة Business Insider، يعتمد المحتالون على رد فعل الأشخاص الفوري في مثل هذه اللحظات، والاتصال مرة أخرى يزيل هذا الإلحاح ويمنحك فرصة للتحقق.

علامات التحذير التي يجب الانتباه إليها

من الضروري أيضًا الانتباه إلى العلامات الحمراء الخفية التي قد تشير إلى محاولة احتيال:

  • في مقاطع الفيديو المزيفة (Deepfake): قد تلاحظ حركات فم غير طبيعية، أو خلفيات الفيديو الوامضة، أو تواصل بصري يبدو "غريبًا" أو غير متناسق.
  • في الأصوات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي: يمكن أن تظهر فترات توقف غير عادية في الكلام، أو ضوضاء خلفية غير متناسقة، حتى لو بدا الصوت مقنعًا في الوهلة الأولى.

تعزيز الأمان باستخدام المصادقة متعددة العوامل (MFA)

يمكن أن يساعد إضافة طبقات أمان إضافية في حمايتك بشكل كبير. فـ المصادقة متعددة العوامل (MFA) تجعل من الصعب للغاية على المحتالين الوصول إلى حساباتك حتى لو نجحوا في سرقة بيانات الاعتماد الأولية الخاصة بك.

أكدت خبيرة الأمن السيبراني جاكلين جاين لصحيفة The Australian أن أفضل استراتيجية هي الجمع بين التحقق المباشر من الهوية وشكل من أشكال المصادقة متعددة العوامل، خاصة خلال الفترات التي يزداد فيها نشاط الاحتيال، مثل مواسم الضرائب.

الخلاصة: اليقظة هي درعك الأقوى

في حين يقدم الذكاء الاصطناعي العديد من القدرات المذهلة، إلا أنه يفتح أيضًا أبوابًا جديدة وقوية للمحتالين لارتكاب الخداع. من خلال البقاء يقظًا، والتحقق من أي طلبات مشبوهة، والتحدث بصراحة عن هذه التهديدات مع محيطك، يمكنك تقليل مخاطر الوقوع ضحية لهذه العمليات الاحتيالية المتطورة، بغض النظر عن مدى واقعية التزييف العميق (Deepfake).

Next Post Previous Post
No Comment
Add Comment
comment url