استخدم المجرمون الذكاء الاصطناعي لاستنساخ صوت مدير الشركة وسرقة 35 مليون دولار

click fraud protection

تحقق الشرطة في الإمارات العربية المتحدة في قضية يُزعم فيها استخدام الذكاء الاصطناعي لاستنساخ صوت مدير شركة و يسرق 35 مليون دولار في عملية سرقة ضخمة. على الرغم من أنها جريمة مذهلة وغير عادية ، إلا أنها ليست المرة الأولى التي يلجأ فيها المحتالون إلى الانتحال الصوتي المستند إلى الذكاء الاصطناعي لتنفيذ عمليات سرقة جريئة. يعود مثال سابق لمثل هذه التكنولوجيا المستخدمة في عملية احتيال مماثلة إلى عام 2019 ، عندما قيل إن المجرمين في المملكة المتحدة لاستخدام برنامج deepfake لانتحال صوت الرئيس التنفيذي لشركة طاقة للتحويل بشكل احتيالي $243,000.

في حين يتوقع أن الذكاء الاصطناعي افتح موجة من الفرص في السنوات القادمة ، فإن التهديدات التي تشكلها التكنولوجيا حقيقية للغاية. غالبًا ما يُعتقد أن فقدان الوظائف الناتج عن الأتمتة هو المشكلة الأكثر إلحاحًا مع الذكاء الاصطناعي ، ولكن التكنولوجيا تفرض أيضًا تحديات خطيرة في مجالات أخرى ، بما في ذلك تهديدات الخصوصية من قبل تفشي استخدام التعرف على الوجه، بالإضافة إلى التزييف العميق للصوت والفيديو الذي تم إنشاؤه عن طريق التلاعب بالأصوات والمثال. في حين أن الأول يميل إلى جذب الانتباه في وسائل الإعلام الرئيسية ، فإن الأخير يمثل أيضًا تهديدًا خطيرًا ، كما هو موضح في حالات الاحتيال هذه.

كما ذكرت فوربس, أحدث مثال على التلاعب بالصوت المستخدم في الاحتيال حدث في الإمارات العربية المتحدة في أوائل عام 2020 ، عندما كان المجرمين يُزعم أنه استخدم الذكاء الاصطناعي لاستنساخ صوت مدير الشركة ليطلب من مدير البنك تحويل أموال بقيمة 35 مليون دولار مقابل استحواذ. أجرى مدير البنك التحويلات على النحو الواجب معتقدًا أن كل شيء شرعي ، ليدرك لاحقًا أنها كانت عملية احتيال معقدة صممها مجرمو التكنولوجيا الفائقة. كما اتضح فيما بعد ، استخدم المحتالون تقنية "الصوت العميق" لخداع المدير وإخراج البنك من المبلغ الهائل.

الإمارات تطلب المساعدة من السلطات الأمريكية

وفقا ل وثيقة المحكمة، يسعى المحققون في الإمارات الآن للحصول على مساعدة من السلطات الأمريكية لتعقب 400 ألف دولار من الأموال المسروقة التي يعتقدون أنها مودعة في حسابات بنكية أمريكية. يُعتقد أن بقية الأموال مخزنة في العديد من البنوك المختلفة تحت أسماء مختلفة في بلدان مختلفة حول العالم. وبحسب السلطات الإماراتية ، فإن ما لا يقل عن سبعة عشر شخصًا متورطون في المخطط ، على الرغم من عدم الكشف عن أسمائهم وجنسياتهم على الفور.

يتحدث الي فوربس، جيك مور ، خبير في شركة الأمن السيبراني ESET قال ذلك تقنية "التزييف العميق" للصوت والفيديو يمكن أن تكون مشكلة حقيقية في أيدي الأشخاص الخطأ ، مع التزييف العميق "تهديد كبير للبيانات والمال والشركات." وأضاف مور أيضًا أنه من المرجح أن يقع عدد متزايد من الشركات ضحايا لمثل هذا deepfake واقعية الحيل الصوتية في المستقبل.

مصدر: فوربس

أفضل الطرق للعب Fortnite دون إنفاق المال