دیلیمیل هشدار میدهد احتمالاً در آیندهی نزدیک شاهد حملههای تروریستی مبتنیبر هوش مصنوعی خواهیم بود. کارشناسان تروریسم جهانی از مدتی قبل بحثهایی دربارهی هوش مصنوعی مطرح کردهاند؛ البته هدف این بحثها استفاده از ابزارهای مبتنیبر هوش مصنوعی مثل تشخیص چهره و ابزارهای جمعآوری اطلاعات برای جلوگیری از تروریسم بوده است.
بااینحال، در ماههای گذشته تغییراتی در بحثهای مرتبط با هوش مصنوعی و تروریسم اِعمال شده است؛ زیرا افزایش دسترسی عموم به فناوریهای قدرتمند مثل دیپفیک و سیستمهای هوش مصنوعی تولید تصویر و متن، نگرانیهای جدیدی بابت ارائهی اطلاعات نادرست و تروریسم ایجاد کرده است.
جاناتان هال بهنوبهی خود دلیلی قانعکننده برای نگرانیهای روبهرشد ارائه میدهد و استدلال میکند ابزارهای مجهز به مدلهای زبان بزرگ (LLM) مثل ChatGPT با هدف ارائهی پاسخهای مطمئن و قانعکننده در موضوعات مختلف طراحی شدهاند و تروریستها نمیتوانند از آنها بهطورمؤثر برای ایجاد هرجومرج و ارائهی اطلاعات نادرست بهره ببرند. اگرچه چنین محدودیتهایی باعث میشود چتباتهای هوش مصنوعی مطمئن بهنظر برسند، گاهی اوقات شاهد خارجشدن این ابزارها از حالت عادی بودهایم.
هال در بخشی از توضیحاتش به دیلیمیل گفت:
از دیدگاه جاناتان هال، تروریستها تمایل دارند ازجمله اولین کسانی باشند که از فناوریهای جدید استفاده میکنند. بهعنوان مثال، گروههای تروریستی از فناوری چاپ سهبعدی برای ساخت اسلحه استفاده کردهاند و در حوزهی رمزارزها نیز شاهد اقدامات مختلفی از جانب این افراد بودهایم. وی میگوید درحالحاضر بهدلیل ابهامها و هنجارها و قوانین مربوط به هوش مصنوعی، ردیابی و پیگرد تروریستهایی که از این فناوری بهره میبرند، بسیار دشوار است.