اخبار

اطلاعات ورود به حساب بیش از 100 هزار کاربر ChatGPT در دارک‌وب فروخته شده است

به گفته شرکت امنیتی سنگاپوری «Group-IB»، طی یک‌سال گذشته، بیش از 100 هزار اطلاعات ورود به سیستم چت‌بات محبوب ChatGPT فاش و در دارک‌وب معامله شده است.

براساس پست وبلاگ شرکت امنیتی Group-IB که با کمک ChatGPT نوشته شده، اطلاعات بیش از 101 هزار دستگاه حاوی اطلاعات ورود به سیستم چت‌بات OpenAI به‌خطر افتاده و بین ژوئن 2022 تا مه 2023 در بازارهای دارک‌وب معامله شده‌اند. در ماه مه سال 2023، این اتفاق به اوج خود رسید و نزدیک به 27 هزار اطلاعات مربوط به ChatGPT در بازارهای سیاه آنلاین در دسترس قرار گرفت.

اطلاعات فاش‌شده ChatGPT از کدام کشورها بوده است؟

طبق این گزارش، بیشترین اطلاعات فاش شده در سال گذشته به منطقه آسیا-اقیانوسیه مربوط می‌شود و حدود 40 درصد از تمام آن‌ها را تشکیل می‌دهد. اطلاعات کاربران هندی با بیش از 12,500 مورد رتبه اول را به خود اختصاص داده و ایالات متحده با نزدیک به 3000 مورد، جایگاه ششم بیشترین اطلاعات فاش شده را داشته است. فرانسه نیز پس از ایالات متحده در جایگاه هفتم است و قطب اصلی اروپا از نظر اطلاعات فاش‌شده محسوب می‌شود.

حساب‌های ChatGPT را می‌توان مستقیماً از طریق وب‌سایت OpenAI ایجاد کرد و همچین از حساب‌های گوگل، مایکروسافت یا اپل نیز می‌توان برای ورود و استفاده از خدمات این سرویس استفاده کرد. هرچند در این تحقیق روش‌های ثبت‌نام کاربران مورد بررسی قرار نگرفته، اما به نظر «دیمیتری شستاکوف»، رئیس اطلاعات تهدید Group-IB، عمدتاً حساب‌هایی فاش شده‌اند که از «روش احراز هویت مستقیم» استفاده می‌کنند.

او همچنین اشاره می‌کند که OpenAI برای فاش‌شدن این دسته از اطلاعات مقصر نیست:

«لاگ‌های شناسایی‌شده حاوی اطلاعات ورود به سیستم ذخیره‌شده ChatGPT، ضعف زیرساخت این چت‌بات را نشان نمی‌دهد.»

Group-IB در گزارش خود همچنین با اشاره به این موضوع که کارمندان زیادی از ChatGPT برای کارهای خود استفاده می‌کنند، هشدار داد که در این شرایط، اطلاعات محرمانه شرکت‌ها ممکن است فاش شود؛ زیرا سؤالات کاربر و تاریخچه چت آن‌ها به‌طور پیش‌فرض ذخیره می‌شود. سپس هکرها می‌توانند از این اطلاعات برای حمله به شرکت‌ها یا کارمندان آن‌ها سوءاستفاده کنند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *