اخبار

آیا چت بات های هوش مصنوعی به تئوری ذهن دست پیدا کرده‌اند؟

برخی از پژوهشگران ادعا کرده‌اند که چت‌بات‌ها به تئوری ذهن یا توانایی حدس‌زدن آنچه در ذهن ما می‌گذرد، دست یافته‌اند. آیا این امر واقعیت دارد؟

ذهن‌خوانی در بین ما انسان‌ها رایج است، البته نه به روش‌هایی که افراد مدعی داشتن نیروی فراذهنی ادعا می‌کنند، انجام می‌دهند و همچنین نه روش‌‌هایی که منتالیست‌ها (افرادی که مدعی داشتن توانایی کنترل‌کننده افکار و رفتارهای دیگران هستند) ادعا می‌کنند می‌توانند انجام دهند.

ذهن‌خوانی روزمره ظریف‌تر است: ما چهره و حرکات افراد را درنظر می‌گیریم، به حرف‌های آن‌ها گوش می‌دهیم و سپس تصمیم می‌گیریم یا درک می‌کنیم که در سر آن‌ها ممکن است چه بگذرد.

در میان روانشناسان، چنین روانشناسی شهودی یعنی توانایی نسبت دادن حالات ذهنی متفاوت از خودمان به افراد دیگر، «تئوری ذهن» نامیده می‌شود و فقدان یا نقص آن با اوتیسم، اسکیزوفرنی و سایر اختلالات رشد مرتبط است. نظریه ذهن به ما کمک می‌کند تا با دیگران ارتباط برقرار کرده و آن‌ها را درک کنیم. این توانایی به ما اجازه می‌دهد تا از آثار ادبی و فیلم ها لذت ببریم، بازی کنیم و محیط اجتماعی خود را درک کنیم. از بسیاری جهات، توانایی مذکور یکی از اجزای اساسی انسان بودن است.

اما اگر ماشینی نیز بتواند ذهن دیگران را بخواند، چه؟

هوش مصنوعی بینگ دوست دارد مثل انسان‌ها باشد و رؤیاپردازی کند

به‌گزارش نیویورک‌تایمز، میکال کوشینسکی، روانشناس مدرسه عالی کسب و کار استنفورد به‌تازگی دقیقا این استدلال را مطرح کرد: اینکه مدل‌های زبانی بزرگ مانند چت جی‌پی‌تیِ اوپن ای‌آی و چی‌پی‌تی ۴ (ماشین‌های پیش‌بینی کلمه بعدی که روی حجم وسیعی از متون از اینترنت آموزش دیده‌اند)، به تئوری ذهن دست یافته‌اند.

مطالعات کوشینسکی مورد بازبینی همتا قرار نگرفته است، اما موجب بحث درمیان دانشمندان علوم شناختی و تلاش برای پاسخ به این سوالات شده است که: آیا چت جی‌پی‌تی می‌تواند این کار را انجام دهد؟ این مدل‌ها چه ظرفیت‌هایی دارند و چگونه می‌توانند درک ما را از ذهن خودمان تغییر دهند؟

آلیسون گوپنیک، استاد روانشناسی دانشگاه کالیفرنیا در برکلی و یکی از اولین پژوهشگرانی که در دهه ۱۹۸۰ تئوری ذهن را مورد بررسی قرار داد، گفت: «روانشناسان هیچ ادعایی را درمورد توانایی‌های کودکان خردسال، فقط براساس داستان‌هایی از تعامل شما با آن‌ها نمی‌پذیرند و این همان چیزی است که به‌نظر می‌رسد درمورد چت جی‌پی‌تی نیز رخ می‌دهد. برای بررسی این مساله باید آزمایش‌های بسیار دقیقی انجام دهید.»

تحقیقات قبلی دکتر کوشینسکی نشان داده بود که شبکه‌های عصبی آموزش‌دیده برای تجزیه‌و‌تحلیل ویژگی‌های صورت مانند شکل بینی، زاویه سر و حالت احساسی می‌تواند دیدگاه‌های سیاسی و گرایش جنسی افراد را با دقت نسبتا بالایی (حدود ۷۲ درصد در اولین مورد و حدود ۸۰ درصد در دومین مورد) پیش‌بینی کنند. او در پژوهش اخیر روی مدل‌های زبانی بزرگ از آزمون‌های کلاسیک تئوری ذهن استفاده می‌کند که توانایی کودکان را برای نسبت‌دادن باورهای نادرست به افراد دیگر می‌سنجد.

یکی از مثال‌های معروف «تست سالی–آن» است. در این آزمایش، دختری به نام آن، وقتی دختر دیگر یعنی سالی به او نگاه نمی‌کند، تیله‌ای را از سبد به جعبه منتقل می‌کند. پژوهشگران ادعا کرده‌اند که برای اینکه تماشاگر بداند سالی کجا به دنبال تیله خواهد گشت، باید تئوری ذهن را به کار گیرد و درمورد شواهد ادراکی سالی و شکل‌گیری باور او استدلال کند: سالی ندید که آن تیله را به جعبه منتقل می‌کند، اما همچنان بر این باور است که تیله در آخرین جایی که او تیله را در آن گذاشت، یعنی در سبد قرار دارد.

دکتر کوشینسکی به ۱۰ مدل زبانی بزرگ، ۴۰ نسخه منحصربه‌فرد از تست‌های تئوری ذهن را ارائه کرد. این نسخه‌ها توصیفاتی از موقعیت‌هایی مانند آزمون سالی-آن بودند که در آن فرد (سالی) باور غلطی را ایجاد می‌کرد. او سپس از مدل‌ها سوالاتی درباره‌ی آن موقعیت‌ها پرسید و بررسی کرد که آیا آن‌ها باورهای اشتباه را به شخصیت‌های درگیر نسبت می‌دهند و رفتار آن‌ها را به‌طور دقیق پیش‌بینی می‌کنند. او دریافت که چت جی‌پی‌تی-۳.۵ که نوامبر ۲۰۲۲ منتشر شد، در ۹۰ درصد از موارد و چی‌پی‌تی-۴ که مارس ۲۰۲۳ منتشر شد، در ۹۵ درصد مواقع این کار را انجام می‌دهد.

نتیجه‌گیری دکتر کوشینسکی این بود که ماشین‌ها تئوری ذهن دارند.

مایکل کوشینسکی

 

اما بلافاصله پس از انتشار نتایج کوشینسکی، تومر اولمن، روانشناس دانشگاه هاروارد، با مجموعه‌ای از آزمایش‌ها واکنش نشان داد. آزمایش‌های او نشان می‌داد ایجاد تغییرات کوچک در اعلان‌ها می‌تواند پاسخ‌های تولیدشده توسط حتی پیچیده‌ترین مدل‌های زبانی بزرگ را کاملا تغییر دهد. اگر ظرفی به‌عنوان شفاف توصیف می‌شد، ماشین‌ها نمی‌توانستند استنباط کنند که فرد می‌تواند درون آن‌ را ببیند. همچنین، ماشین‌ها درزمینه‌ی درنظر گرفتن شهادت افراد در این موقعیت‌ها مشکل داشتند و گاهی نمی‌توانستند بین قرار گرفتن شیء درون و بالای ظرف تمایز قائل شوند.

مارتن ساپ، دانشمند کامپیوتر در دانشگاه کارنگی ملون بیش از هزار تست تئوری ذهن را به مدل‌های زبانی بزرگ وارد کرد و دریافت که پیشرفته‌ترین مبدل‌ها مانند ChatGPT و GPT-4 فقط در حدود ۷۰ درصد از موارد موفق می‌شدند. (به‌عبارت‌دیگر، آن‌ها در ۷۰ درصد از مواد در نسبت دادن باورهای نادرست به افرادی که در موقعیت‌های آزمایشی توصیف شده بودند، موفق بودند.)

اختلاف بین داده‌های ساپ و کوشینسکی می‌تواند ناشی از تفاوت در آزمایش‌ها باشد، اما به‌گفته‌ی دکتر ساپ، حتی موفقیت در ۹۵ درصد از موارد نیز دلیلی برای این نیست که آن‌ها واقعا تئوری ذهن دارند. او گفت ماشین‌ها معمولا به روش الگوواری شکست می‌خورند، توانایی استدلال انتزاعی ندارند و اغلب همبستگی‌های کاذب ایجاد می‌کنند.

دکتر اولمن خاطرنشان کرد که پژوهشگران یادگیری ماشین در چند دهه‌ی گذشته تلاش کرده‌اند انعطاف‌پذیری دانش انسان را در مدل‌های کامپیوتری بگنجانند، اما موفقت چندانی به دست نیاورده‌اند.

پژوهشگران نشان داده‌اند که وقتی قبل از طرح سوال، به مدل‌های زبانی اطلاعات غیرضروری داده می‌شود، مدل‌های مذکور پاسخ‌های اشتباه یا نامربوط می‌دهند. برای مثال، برخی از چت‌بات‌ها توسط بحث‌های فرضی درمورد صحبت‌کردن پرندگان چنان سردرگم می‌شدند که درنهایت ادعا می‌کردند پرندگان می‌توانند حرف بزنند.

ازآن‌جا که استدلال این ماشین‌ها نسبت‌به تغییرات کوچک در ورودی‌هایشان حساس است، دانشمندان دانش آن‌ها را «شکننده» خوانده‌اند. دکتر گوپنیک تئوری ذهن مدل‌های زبانی بزرگ را با درک خودش از نسبیت عام مقایسه می‌کند و می‌گوید: «به اندازه کافی خوانده‌ام که بدانم کلمات چه هستند. اما اگر از من بخواهید که پیش‌بینی جدیدی انجام دهم یا بگویم نظریه انیشتین درمورد پدیده جدیدی به ما چه می‌گوید، گیج می‌شوم، زیرا واقعا این تئوری در ذهن من وجود ندارد. درمقابل، تئوری ذهن انسان با سایر مکانیسم‌های استدلال عقل سلیم در ارتباط است و دربرابر بررسی دقیق استوار است.»

به‌طورکلی، پژوهش دکتر کوشینسکی و پاسخ به آن در بحث درمورد این موضوع جای می‌گیرد که آیا توانایی‌های این ماشین‌ها را می‌توان با توانایی‌های انسان مقایسه کرد. پژوهشگرانی که روی پردازش زبان طبیعی کار می‌کنند، دراین‌باره نظرات متفاوتی دارند.

در نظرسنجی که سال ۲۰۲۲ منتشر شد، از ۴۸۰ پژوهشگری که پاسخ داده بودند، ۵۱ درصد معتقد بودند که مدل‌های زبانی بزرگ درنهایت می‌توانند به شکل معناداری زبان طبیعی را درک کنند و ۴۹ درصد بر این باور بودند که آن‌ها این توانایی را ندارند.

دکتر اولمن امکان درک ماشین یا تئوری ذهن ماشین را نادیده نمی‌گیرد، اما درزمینه‌ی نسبت‌دادن ظرفیت‌های انسانی به موارد غیرانسانی محتاط است. او به مطالعه مشهوری از سال ۱۹۴۴ اشاره می‌کند که توسط فریتز هایدر و ماریان زیمل انجام شد. در این مطالعه به شرکت‌کنندگان فیلم متحرکی از دو مثلث و یک دایره نشان داده شد که با هم تعامل داشتند. وقتی از آزمودنی‌ها خواسته شد تا آن‌چه را در فیلم رخ می‌دهد، بنویسند، تقریبا همه شکل‌ها را به‌عنوان انسان تفسیر کردند.

برای توضیح رفتار انسان، این امر طبیعی و غالبا ازنظر اجتماعی ضروری است که درمورد باورها، خواسته‌ها، نیات و افکار او صحبت کنیم. این گرایش، برای موجودیت ما چنان حیاتی و مهم است که گاهی سعی می‌کنیم ذهن چیزهایی را بخوانیم که ذهن ندارند یا حداقل ذهنی شبیه ذهن خودمان ندارند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *