زوج دیگری تماسی از یک وکیل دریافت کردند که به آنها اعلام کرد پسرشان یک دیپلمات آمریکایی را در تصادف رانندگی کشته است و اکنون در زندان بهسر میبرد و برای تأمین هزینههای قانونی به پول احتیاج دارد. این وکیل حتی پسر زوج مذکور را پشت تلفن آورد تا به آنها بگوید دوستشان دارد و از آنها بابت پولی که پرداخت میکنند قدردانی میکند.
این زوج میگویند صدای پخششده شباهت بسیار زیادی به صدای پسر آنها داشت و بههمیندلیل باور کردند که واقعاً با او صحبت کردهاند. آنها مبلغ ۱۵۴۴۹ دلار را از طریق شبکهی بیت کوین برای شخص کلاهبردار ارسال کردند و موفق به پس گرفتن آن نشدند.
کلاهبرداری از طریق جعل صدای دیگران، موضوع جدیدی نیست. دادههای کمیسیون تجارت فدرال آمریکا نشان میدهد از هر ۳۶ هزار گزارش مربوط به کلاهبرداری در سال گذشته که وانمود کردهاند دوست یا خانوادهی افراد هستند، بیش از ۵۱۰۰ مورد آنها جعلی بودهاند.
تِکاسپات مینویسد، فرایند جعل صدا قبلاً بسیار پیچیدهای بود و برای انجام این کار به جمعآوری چندین ساعت صدای شخص موردنیاز نیاز داشتید و البته همیشه کیفیت بالایی هم ارائه نمیداد. اکنون با روی کار آمدن ابزارهای هوش مصنوعی، فرایند شبیهسازی صدای دیگران بسیار آسان است و کلاهبرداران فقط به کلیپ بسیار کوچکی از صحبت کردن آنها نیاز دارند و این مورد نیز در اغلب موارد در حسابهای کاربری رسانههای اجتماعی افراد موجود است.
ابزار Vall-E مایکروسافت که ماه ژانویه معرفی شد بر پایهی فناوری دیگری موسوم به EnCodec کار میکند. این ابزار با تجزیهوتحلیل سه ثانیه از صدای افراد و استفاده از آن برای آموزش مدلهای هوش مصنوعی، میتواند صدای آنها را با کیفیت بالا شبیهسازی کند. این فناوری حتی لحن، تن صدا و احساس گوینده را نیز تقلید میکند. با مراجعه به صفحهی گیتها این پروژه میتوانید قدرت آن را در تقلید صدای دیگران مشاهده کنید.
ElevenLabs نیز ابزار صوتی مبتنیبر هوش مصنوعی دیگری بهنام VoiceLab ارائه داده است که امکان شبیهسازی صدای افراد را با روشی آسان فراهم میکند. البته سوءاستفادههای فراوان از این برنامه باعث شد قابلیت شبیهسازی صدا از نسخهی رایگان آن حذف شود.