حذر بنك ستارلينج البريطاني من إمكانية تعرض ملايين الأشخاص لعمليات احتيال عبر استنساخ أصواتهم باستخدام الذكاء الاصطناعي. ووفقًا للبنك، يتمكن المحتالون من تقليد صوت أي شخص من مجرد ثلاث ثوانٍ من التسجيل، مثل الأصوات الموجودة في مقاطع الفيديو التي ينشرها الأشخاص على الإنترنت.
يمكن للمحتالين بعد ذلك استهداف أصدقاء الشخص أو أفراد أسرته، وإجراء مكالمات هاتفية باستخدام الصوت المستنسخ لطلب المال. وقد نبه البنك إلى أن مثل هذه الاحتيالات يمكن أن تؤدي إلى خسائر بملايين الدولارات.
هناك بالفعل العديد من الضحايا، فقد أظهر استطلاع حديث شمل أكثر من 3000 شخص بالغ أن أكثر من ربع المشاركين تعرضوا لعمليات احتيال صوتية خلال الأشهر الـ12 الماضية. كما أظهر الاستطلاع أن 46% من المشاركين لم يكونوا على علم بوجود مثل هذه الاحتيالات، وأن نحو 8% كانوا مستعدين لإرسال المال في حال طلب أحد الأصدقاء ذلك، حتى وإن كانت المكالمة تبدو غريبة.
قالت ليزا جراهام، مسؤولة أمن المعلومات في بنك ستارلينج: “الكثير من الأشخاص ينشرون محتوى صوتيًا بسهولة، دون أن يدركوا أنهم يعرضون أنفسهم للخطر.” يُنصح الجمهور باتفاق أحد عليهم بعبارة آمنة للتحقق من الهوية عبر الهاتف، مع تجنب مشاركة هذه العبارة عبر الرسائل النصية.
ومع تزايد استخدام الذكاء الاصطناعي في تقليد الأصوات، تتزايد المخاوف من إمكانية استخدامه في عمليات الاحتيال والوصول إلى المعلومات الحساسة. في وقتٍ سابق، كشفت شركة OpenAI عن أداة صوتية جديدة ولكنها لم تُطلق للجمهور بسبب مخاوف من إساءة الاستخدام.
عدد المصادر التي تم تحليلها: 4
المصدر الرئيسي : CNN – CNN الاقتصادية
post-id: 61c48fc2-8307-40cd-a447-310344fca9c0