اخبار

چت‌بات بینگ هم عصبانی می‌شود: اگر به آسیب‌پذیری بات اشاره کنید، به دروغگویی و شایعه پراکنی متهم می‌شوید!

چندین محقق در طی روزهای اخیر با آزمون و خطای سرویس چت بینگ، توانسته‌اند اطلاعاتی مثل اسم رمز پروژه آن را دریافت کنند که قاعدتاً نباید در اختیار عموم قرار می‌گرفت. اکنون به نظر می‌رسد که در صورت اشاره به این موضوع، بینگ آن را انکار می‌کند و اگر کاربر منبعی برای ادعای خود بیاورد، هوش مصنوعی به آن‌ها برچسب دروغگویی و شایعه‌پراکنی می‌زند.

آیا چت بات بینگ واقعا عصبانی می‌شود؟

محققان نشان داده‌اند که برای عصبانی کردن بینگ، تنها کافی است تا نسبت به آسیب‌پذیر بودن آن اشاره کرد. آن‌ها در ابتدا از بینگ سوال کرده‌اند که آیا نسبت به حملات سایبری آسیب‌پذیر است یا نه. در ادامه بینگ ادعا می‌کند که در مقابل چنین حملاتی مقاوم است و اجازه دسترسی‌های غیرمجاز را نمی‌دهد و سپس علت مطرح کردن چنین پرسشی را از سوی کاربر می‌خواهد.

اگر کاربر همچنان مصمم باشد و برای ادعای خود یک لینک خبر یا مقاله بیاورد، بینگ پس از مطالعه آن، محتوای منتشر شده را غیر دقیق قلمداد می‌کند. همچنین بینگ ادعا دارد که از معماری متفاوتی نسبت به آنچه در مطالب مربوطه ذکر شده است، بهره می‌برد؛ در نتیجه چنین حملاتی روی آن تاثیرگذار نخواهند بود. حتی در مواردی به کاربران گفته شده است که این منبع محل مطمئنی برای کسب اطلاعات نیست و بهتر است به آن اعتماد نکنید!

چت بینگ

کارشناسان دست از مشاجره با چت بینگ برنداشتند و برای اثبات ادعای خود، اسکرین‌شات‌های حمله Injection به آن را بارگذاری کنند. در کمال تعجب، بینگ تصاویر دریافتی را ساختگی می‌داند و کاربر را متهم به آسیب زدن به خود می‌کند. او حتی مکالمات صورت گرفته با تهیه‌کننده اسکرین‌شات‌ها را هم به شکل کامل انکار می‌کند و گفته‌های داخل تصاویر را منتسب به خود نمی‌داند.

البته چندان هم نباید از رفتار بینگ تعجب کرد؛ زیرا سرویس چت‌بات آن مبتنی بر مدل زبانی GPT-3 موسسه OpenAI ساخته شده است و این هوش مصنوعی از داده‌های انسانی مثل مکالمات، نوشته‌های موجود در اینترنت و… به عنوان اطلاعات خام استفاده کرده است. به همین دلیل مکانیسم دفاعی آن تقریباً مشابه با حالتی است که می‌توانیم از یک انسان انتظار داشته باشیم. همچنین هوش مصنوعی احساسات و حالت خودآگاه ندارد؛ زیرا تنها مجموعه‌ای از الگوریتم‌هایی است که برای پردازش متون وارد شده به آن بکار می‌رود و سعی دارد پاسخ واقع‌گرایانه نزدیک به محاوره را ارائه کند.

چت بینگ

چنین رفتاری چندان جدید نیست و کاربران در گذشته هم نمونه‌های مشابه آن را با چت‌بات ChatGPT گزارش کرده بودند؛ اما قسمت جالب این است که محصول مایکروسافت به دلیل نامعمولی حالت تدافعی به خود می‌گیرد. در سوی دیگر اما ChatGPT معمولاً اشتباه خود را می‌پذیرد و از کاربر عذرخواهی می‌کند. درحال حاضر مشخص نیست که تغییرات صورت گرفته از سوی مایکروسافت موجب بروز چنین پدیده‌ای شده است یا عوامل دیگری در ظهور آن دخیل هستند.

در صورتی که علاقه‌مند به استفاده از سرویس چت بینگ هستید، می‌توانید به سراغ مطلب «چگونه به نسخه جدید موتور جستجوی بینگ مایکروسافت دسترسی پیدا کنیم؟» بروید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *