اخبار

استفاده از ابزار هوش مصنوعی شبیه‌ساز صدا برای ساخت ویدیوهای دیپ‌فیک افراد مشهور

چند روز پیش استارتاپ هوش مصنوعی گفتاری ElevenLabs یک نسخه بتا از پلتفرم خود را راه‌اندازی کرد که به کاربران اجازه می‌دهد صداهای مصنوعی کاملاً جدیدی برای تبدیل متن به گفتار ایجاد یا صدای دیگران را شبیه‌سازی کنند. حالا اشاره شده است که تنها چند روز پس از راه‌اندازی این پلتفرم، کاربران شروع به استفاده از آن برای اهداف ناخوشایندی کرده‌اند.

شرکت ElevenLabs از طریق حساب توییتر خود فاش کرد که شاهد «تعداد بسیار زیادی سوءاستفاده از شبیه‌سازی صدا» بوده و به‌دنبال راهی برای حل این مشکل است.

شبیه‌سازی صدای افراد مشهور با هوش مصنوعی ElevenLabs

هرچند ElevenLabs در توییت خود توضیح بیشتری درباره این موارد سوءاستفاده ارائه نکرده، نشریه Motherboard کلیپ‌هایی را پیدا کرده است که در آن‌ها از صداهایی استفاده شده که شبیه به صدای افراد مشهور درحال خواندن یا بیان‌کردن چیز مشکوکی هستند. به عنوان مثال در یکی از این کلیپ‌ها، صدایی شبیه به «اما واتسون»، بازیگر فیلم‌های هری پاتر، درحال خواندن کتاب «نبرد من» از «آدولف هیتلر» است.

ElevenLabs اکنون بازخوردهای لازم را در مورد نحوه جلوگیری از سوءاستفاده کاربران از فناوری خود جمع‌آوری می‌کند. درحال‌حاضر، ایده فعلی آن شامل افزودن لایه‌های بیشتری به تأیید حساب کاربران برای فعال‌کردن قابلیت شبیه‌سازی صوتی می‌شود؛ مانند الزام کاربران به واردکردن اطلاعات پرداخت یا شناسه. همچنین این موضوع برای آینده در نظر گرفته شده است که کاربران حق کپی‌رایت صدایی را که می‌خواهند آن را شبیه‌سازی کنند، باید تأیید کنند. مثلاً از آن‌ها خواسته می‌شود تا نمونه ویدیویی را با متن درخواستی خود ارسال کنند.

درنهایت، این شرکت به این مسئله نیز فکر می‌کند که ابزار Voice Lab خود را به‌طور کلی کنار بگذارد و از کاربران بخواهد درخواست‌های شبیه‌سازی صوتی خود را به‌صورت دستی ارسال کنند.

در طول چند سال گذشته فناوری‌های هوش مصنوعی و یادگیری ماشین پیشرفت بسیار زیادی کرده‌اند و آشنایی کاربران اینترنت با آن‌ها باعث شده است تا ویدیوهای دیپ‌فیک زیادی نیز ساخته شوند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *