- پروژه هوشمند سازی بیمارستان رازی
- پروژه توسعه تجهیزات شبکه انتقال
- پروژه ایجاد زیرساخت فیبر نوری
- پروژه سدید (دیسپچینگ ملی گاز ایران)
- پروژه هوشمند سازی تونل آزاد راه اراک خرم آباد (ITS)
- پروژه ایجاد شبکه ملی سیگنال رسانی به فرستنده های صدا و سیما جمهوری اسلامی ایران
- پروژه اسکادا گاز تهران
- پروژه مخابرات (USO)
- پروژه NGL 3200
- پروژه تلکام پتروشیمی دماوند
- پروژه راه آهن چابهار – زاهدان
- پروژه راه آهن یزد – اقلید
- پروژه سیگنالینگ مترو هشتگرد
- پروژه مترو قم
مجرمان سایبری با کمک ChatGPT انجام حملات خود را آسانتر کردهاند

کارشناسان امنیت سایبری میگویند شواهد استفاده از ChatGPT توسط مجرمان حالا بهوضوح قابل مشاهده است. این افراد از این ابزار هوش مصنوعی برای طراحی حملات فیشینگ و بدافزارها استفاده میکنند. ولی همین مسئله میتواند شرکتهای تولیدکننده هوش مصنوعی را در معرض خطر قرار دهد، چون آنها احتمالاً مصونیت قضایی نخواهند داشت.
به گزارش اینسایدر، چتبات ChatGPT کارهای گوناگونی از نوشتن مقاله گرفته تا تحلیل محتوا را انجام میدهد و میتواند سرعت عمل افراد را بالا ببرد. اما این مسئله درخصوص مجرمان سایبری هم صدق میکند. «سرگی شایکِویچ»، محقق شرکت امنیت سایبری Checkpoint، میگوید شواهد استفاده از هوش مصنوعی برای تولید کد در حملات باجافزاری مشهود است.
شایکویچ و تیمش در انتهای سال 2021 شروع به مطالعه درباره پتانسیلهای هوش مصنوعی در کمک به جرایم سایبری کردند و دریافتند که مجرمان با کمک این ابزارها میتوانند ایمیل فیشینگ و کدهای مخرب تولید کنند. شایکویچ میگوید تیم او میخواست ببیند مجرمان واقعاً از هوش مصنوعی در حملات دنیای واقعی استفاده میکنند یا صرفاً بهشکل تئوری آنها را امتحان کردهاند.

ChatGPT واقعاً به مجرمان سایبری کمک میکند
از آنجایی که بهراحتی نمیتوان فهمید یک ایمیل فیشینگ با ChatGPT نوشته شده است یا خیر، محققان برای بررسیهای بیشتر به دارک وب مراجعه کردند. آنها در تاریخ 21 دسامبر 2022 متوجه شدند که مجرمان از این چتبات برای ساخت یک اسکریپت پایتون استفاده کردهاند که در حملات سایبری استفاده میشود. شایکویچ میگوید کد این اسکریپت اشتباهاتی هم داشت، اما بخش عمده آن درست بود.
حالا سوءاستفاده از ChatGPT کارشناسان امنیت را نگران کرده است، چون این ابزارها میتوانند به مجرمانی که دانش فنی کمی دارند، کمک کنند تا حملات خود را پیادهسازی نمایند. پیشتر شرکت Blackberry مدعی شده بود که طبق نظرسنجی آنها، 74 درصد از متخصصان امنیت نگران استفاده از این مدل هوش مصنوعی در جرایم سایبری هستند.
اما از سوی دیگر، کمک ابزارهای هوش مصنوعی به مجرمان سایبری میتواند برای شرکتهای تولیدکننده آنها مشکلساز باشد. اکثر شرکتهای فناوری تحت حمایت ماده 230 قانون شایستگی ارتباطات از مسئولیتپذیری در قبال نشر محتوا در پلتفرمهای خود مصون هستند. اما درباره چتباتها، چون این پیشنهادها از جانب خود هوش مصنوعی ارائه میشود، شرکتهایی مثل OpenAI احتمالاً مسئول کمک به مجرمان خواهند بود.