كشف خبير مصري عن طرق احتيال جديدة يمكن استخدامها بواسطة الذكاء الاصطناعي، مثل تقليد الصوت لأغراض النصب والابتزاز، وقدم أربعة طرق لتجنب الوقوع في هذا الفخ.
يمكن للمحتالين تقليد صوت المدير أو مسؤول كبير باستخدام تقنية “استنساخ الصوت” المدعومة بالذكاء الاصطناعي، مما يجعل الضحية تواجه صعوبة في تمييز الصوت وتنفيذ الأوامر المزعومة.
وكان الدكتور محمد محسن رمضان، خبير الأمن السيبراني ومكافحة الجرائم الإلكترونية، قد أوضح أن مكالمات الاحتيال تطورت بشكل سريع مع ظهور الذكاء الاصطناعي، حيث أصبحت أكثر ذكاءً وخداعاً. المحتالون يمكنهم تقليد الأصوات والاحتيال عبر الإنترنت والمكالمات الهاتفية ومنشورات التواصل الاجتماعي، مما يزيد من تعقيد التعرف على هذه الأنماط.
وأشار الدكتور رمضان إلى أن الذكاء الاصطناعي لا يقتصر على تحليل البيانات، بل يُستخدم أيضاً في انتحال هوية المتصل من خلال عرض أرقام هواتف تبدو مألوفة للضحية، مثل أرقام شركات اتصالات أو جهات حكومية، وأحياناً أرقام أفراد العائلة. هذا التلاعب يجعل من الصعب تجاهل المكالمات، مما يعزز فرص النجاح في الاحتيال وسرقة الأموال.
لكي نحمي أنفسنا من هذه المخاطر، قدم الخبير أربع طرق للحماية:
- استخدام الذكاء الاصطناعي لمواجهة الذكاء الاصطناعي، حيث بدأت شركات الاتصالات الكبرى بتطبيق تقنيات متقدمة لتحليل أنماط المكالمات وكشف الأصوات المُولدة آلياً.
-
اعتماد أنظمة تصفية وحظر المكالمات الاحتيالية، حيث تتضمن تقنيات مثل Call Protect وScam Shield وCall Filter، والتي تعمل على منع المكالمات الاحتيالية الخطرة قبل وصولها إلى المستخدم.
-
استخدام بنية تحتية للتحقق من مصدر المكالمات، مثل STIR/SHAKEN، المتبعة في الولايات المتحدة لتشفير هوية المكالمات ومنع انتحال هوية المتصلين.
-
توظيف القياسات الحيوية الصوتية التي تعتمد على تحليل أكثر من 1000 خاصية صوتية فريدة لتأكيد هوية المتصل، والتي تُستخدم من قبل بعض البنوك وشركات الاتصالات للكشف عن الأصوات المزيفة، مما يمثل خط الدفاع الأخير ضد عمليات الاحتيال.
عدد المصادر التي تم تحليلها: 3
المصدر الرئيسي : القاهرة: محمد مخلوف
post-id: 47fdbb74-8a3d-4748-9f56-e345a106ccd6

