اخبار

چرا در حالی که هوش مصنوعی هنوز به ادراک نرسیده، مردم چنین تصوری دارند؟

به گزارش هلدینگ ICT – از زمانی که مهندس گوگل اعلام کرد هوش مصنوعی این شرکت به ادراک رسیده، بحث‌هایی زیادی درباره توانایی‌های واقعی این فناوری شکل گرفت. اما آیا واقعا به این سطح از پیشرفت رسیده‌ایم که کامپیوترها علیه ما قیام کنند و از زیر کنترلمان خارج شوند. پاسخ این سوال به عقیده بسیاری واضح است.

دکتر «بن گوئرتزل» پس از حدود 25 سال کار در زمینه هوش مصنوعی و تلاش برای ساختن دستگاهی که بتواند مانند انسان فکر کند، تصور می‌کرد که بالاخره به هدف غایی خود دست یافته؛ او فکر می‌کرد رباتش Desdemona به ادراک رسیده است. ولی چند دقیقه بعد متوجه شد که این تفکر درست نیست. Desdemona که به عنوان یکی از اعضای گروه موسیقی ایفای نقش می‌کند، به سطحی رسیده بود که می‌توانست برای خودش آواز بخواند.

دکتر گوئرتزل مدیرعامل و دانشمند ارشد سازمانی به نام SingularityNET است. او Desdemona را ساخت تا به نحوی بتواند آینده هوش مصنوعی را محقق کند. با این حال، همه کسانی که در حوزه هوش مصنوعی فعالیت می‌کنند به اندازه گوئرتزل نمی‌توانند فرق بین واقعیت و آن‌چه می‌خواهند واقعی باشد را تشخیص دهند.

 

یکی از شاخص‌ترین نمونه‌های این قضیه در مهندسی به نام «بلیک لموین» دیده می‌شود. او در بخش هوش مصنوعی گوگل کار می‌کرد و با نرم‌افزاری به نام LaMDA سروکار داشت که یک مدل زبانی بزرگ بود. لموین چند وقت پیش به این نتیجه رسید که این فناوری به ادراک رسیده، با این حال، مدیران گوگل چنین باوری نداشتند. او در مصاحبه‌ای که با خبرگزاری واشنگتن پست انجام داد، گفت: «وقتی با یک شخص حرف می‌زنم متوجه او می‌شوم. فرقی نمی‌کند که طرف مقابل مغزی از گوشت داشته باشد یا میلیاردها خط کد.»

این مصاحبه جنجال زیادی میان محققان هوش مصنوعی و البته کسانی که با مدل‌های زبانی آشنایی نداشتند، به پا کرد. اکثر مردم عادی از این ایده که فناوری بتواند مانند مغز انسان رفتار کند، خوششان نمی‌آید. البته هیچ مدرکی دال بر این موضوع که هوش مصنوعی به ادراک یا خودآگاهی رسیده باشد، وجود ندارد.

این دو کلمه که به هشیاری درباره جهان پیرامون ما اشاره می‌کنند، به گفته «کالین الن»، پروفسور دانشگاه پیتزبورگ حتی در ساده‌ترین حیوانات هم وجود دارند: «گفتگویی که توسط مدل‌های زبانی بزرگ ساخته شده دربرگیرنده شواهدی نیست که از ادراک حتی در ساده‌ترین شکل حیوانات دیده می‌شود.»

«الیسون گاپنیک»، پروفسور روانشناسی که بخشی از گروه تحقیقات هوش مصنوعی دانشگاه کالیفرنیا، برکلی است، با تایید این موضوع می‌گوید: «ظرفیت‌های محاسباتی هوش‌های مصنوعی فعلی از جمله در مدل‌های زبانی بزرگی باعث نمی‌شوند فکر کنیم که ادراک آن‌ها بیشتر از سنگ‌ها یا سایر دستگاه‌هاست.»

مشکل این‌جاست که افرادی که در حوزه هوش مصنوعی کار می‌کنند یا آن را برای مردم توضیح می‌دهند، آینده‌نگرند. آن‌ها اغلب به آن‌چه ممکن است در آینده اتفاق بیفتد، بیشتر از آن‌چه در حال حاضر موجود است، باور دارند.

یکی از محققان برجسته حوزه AI به نام «یورگن اشمیدهوبر» از مدت‌ها قبل مدعی بود که اولین دستگاه خودآگاه تاریخ دهه‌ها قبل ساخته شده است. «ایلیا سوتس‌کِور»، دانشمند ارشد OpenAI می‌گوید این فناوری ممکن است کمی خودآگاه شده باشد.

البته حرف‌هایی که این محققان می‌زنند به طور کامل نادرست نیست. بعضی از این فناوری‌ها گاهی اوقات رفتارهایی را از خود بروز می‌دهند که مانند نشانه‌های هوش واقعی به نظر می‌رسند. ولی نمی‌توان گفت که مهندسان دره سیلیکون ربات‌هایی ساخته‌اند که قادرند برای خودشان هر کاری انجام دهند. فناوری هنوز به آن‌جا نرسیده، ولی به خوبی می‌تواند انسان‌ها را گمراه کند.

اجداد Desdemona

در تاریخ 7 ژوئیه 1958، در داخل یک آزمایشگاه دولتی در غرب کاخ سفید، روانشناسی به نام «فرانک روزن‌بلات» از فناوری پیشرفته‌ای به نام Perceptron پرده برداشت. او به خبرنگاران نشان داد که اگر صدها کارت مستطیلی را که برخی در سمت چپ و برخی در سمت راست علامت داشتند، برای ربات خود به نمایش بگذارد، Perceptron می‌تواند یاد بگیرد که تفاوت میان کارت‌ها را تشخیص دهد.

او گفت این ربات یک روز یاد می‌گیرد کلمات دست‌نوشته را بخواند، فرمان‌های کلامی را بفهمد و حتی چهره‌ها را تشخیص دهد. او گفت Perceptron به لحاظ تئوری می‌تواند خودش را کلون کند، به سیارات دوردست برود و مرز میان رایانش و خودآگاهی را از بین ببرد. با این حال، وقتی روزن‌بلات 13 سال بعد از دنیا رفت، هنوز نمی‌توانست هیچ‌کدام از این کارها را انجام دهد.

البته که تحقیقات در زمینه حوزه مصنوعی باعث به وجود آمدن فناوری‌های جذابی شد، اما هنوز خبری از بازتولید هوش انسانی نیست. در واقع خود کلمه «هوش مصنوعی» صرفا توصیف می‌کند که این فناوری یک روز چه کار خواهد کرد. هوش مصنوعی به توانایی‌های فعلی این فناوری اشاره ندارد.

 

در داخل آزمایشگاه‌های هوش مصنوعی امروزی پوسترها و تصاویری از فیلم‌های علمی-تخیلی وجود دارد که هدف نهایی آن‌ها را نشان می‌دهد. دکتر روزن‌بلات و بقیه هم چنین رویکردی را در پیش گرفته بودند. حتی نام برخی از این آزمایشگاه‌ها هم نشان‌دهنده همین مسئله است: Google Brain, DeepMind و SingularityNET.

حقیقت این است که اکثر فناوری‌هایی که عنوان «هوش مصنوعی» را یدک می‌کشند، صرفا عملکرد بخش‌های بسیار کوچکی از مغز انسان را تقلید می‌کنند. AI هنوز به نقطه‌ای نرسیده که از کنترل سازندگانش خارج شود. برخی از محققان این واقعیت را می‌پذیرند، اما گاهی اوقات این حد و مرز تار می‌شود.

چرا برخی محققان به هوش مصنوعی باور دارند؟

شرکت OpenAI در سال 2020 از سیستمی به نام GPT-3 پرده برداشت. این سیستم می‌تواند توییت، شعر، ایمیل، پاسخ سوالات دانستنی، ترجمه زبان‌ها و حتی برنامه‌های کامپیوتری بنویسد. «سم آلتمن»، کارآفرین 37 ساله و رهبر OpenAI باور دارد که سیستم آن‌ها و بقیه سیستم‌های مشابه هوشمند هستند: «آن‌ها می‌توانند کارهای شناختی سودمند را کامل کنند. توانایی یادگیری – قابلیت ورود کردن به حوزه‌های جدید و حل مسائل به شیوه‌های جدید – همان هوشمندی است.»

GPT-3 همان چیزی است که محققان هوش مصنوعی از آن با الهام از عصب‌های درون مغز انسان به عنوان شبکه عصبی یاد می‌کنند. ولی به کار بردن همین اصطلاح هم نوعی آینده‌نگری است. یک شبکه عصبی سیستمی ریاضیاتی است که با شناسایی الگوها از میان حجم عظیمی از اطلاعات، مهارت‌ها را فرا می‌گیرد. مثلا با مشاهده تصویر هزاران گربه، می‌تواند تشخیص بدهد که گربه‌ها چه شکلی هستند.

 

دکتر گاپنیک می‌گوید: «ما به این فناوری ‘هوش مصنوعی’ می‌گوییم، اما یک نام بهتر می‌تواند ‘استخراج الگوهای آماری از حجم بزرگی از داده‌ها’ باشد.»

در حوالی سال 2010، دانشمندان سعی کردند تا توانایی‌های فوق‌العاده شبکه‌های عصبی را به نمایش بگذارند. این توانایی‌ها شامل تشخیص تصویر، تشخیص گفتار و ترجمه می‌شد. شبکه عصبی همان چیزی است که فرمان‌های دریافتی بر روی موبایل را تشخیص می‌دهد و متون را بین انگلیسی و فارسی ترجمه می‌کند.

سیستم‌های هوش مصنوعی اخیرا شروع به گردآوری اطلاعات از کتاب‌های دیجیتال و صفحات ویکی‌پدیا کرده‌اند. آن‌ها از تمام داده‌های ورودی خود یک جور نقشه ریاضیاتی شبیه زبان انسان ساخته‌اند؛ بیش از 175 میلیارد نقطه‌ی اطلاعات که نشان می‌دهد ما چگونه کلمات را کنار هم می‌گذاریم. با کمک همین نقشه می‌توان برخی کارها مثل نوشتن متن سخنرانی، برنامه‌های کامپیوتر و گفتگو با کاربران را انجام داد.

ولی این سیستم‌ها نقایص زیادی دارند. استفاده از GPT-3 مثل تاس انداختن است. اگر به دنبال 10 سخنرانی شبیه سخنرانی‌های دونالد ترامپ باشید، احتمالش بالاست که پنج سخنرانی خوب گیرتان بیاید، اما پنج تای بعدی احتمالا هیچ ربطی به سخنرانی‌های او نخواهند داشت.

دکتر گاپنیک که در حوزه رشد کودکان تخصص دارد، می‌گوید: «این فناوری‌ها حتی شبیه متوسط ذهن یک بچه دو ساله هم نیستند. آن‌ها از نظر نوعی از هوشمندی، احتمالا در جایی میان یک مشت جلبک و نوه دو ساله من قرار می‌گیرند.»

با وجود همه این تفاصیل، آقای آلتمن باور دارد که سیستم آن‌ها هوشمند است. البته او اذعان می‌کند که هوش مصنوعی آن‌ها مانند انسان‌ها هوشمند نیست: «این سیستم مانند شکل بیگانه‌ای از هوشمندی است. اما همچنان هوشمند حساب می‌شود.»

بر سر کلماتی که برای توصیف حال و آینده این فناوری استفاده می‌شود هم اختلاف‌نظر وجود دارد. تعریف همه از هوشمندی یکسان نیست. ادراک به معنای توانایی تجربه کردن احساسات و عواطف، به آسانی اندازه‌گیری نمی‌شود. خودآگاهی به معنای هشیار بودن نسبت محیط اطراف نیز همین شرایط را دارد.

هوش مصنوعی

آقای آلتمن و شماری از فعالان حوزه هوش مصنوعی اطمینان دارند که در مسیر ساخت دستگاهی قرار دارند که می‌تواند مانند ذهن انسان عمل کند. مدیرعامل OpenAI می‌گوید: «فکر می‌کنم بخشی از قضیه به این برمی‌گردد که مردم خیلی برای این سیستم‌ها هیجان دارند و هیجان خود را از طریق کلامی ناقص بروز می‌دهند.»

او اذعان می‌کند که بعضی از محققان AI نمی‌توانند مرز بین واقعیت و داستان‌های علمی-تخیلی را تشخیص دهند. ولی او همچنان معتقد است که این پژوهشگران نقش ارزشمندی را در این حوزه ایفا می‌کنند؛ آن‌ها اجازه می‌دهند همه احتمالات را در نظر داشته باشیم.

چرا بقیه به هوش مصنوعی باور دارند؟

در اواسط دهه 1960، محققی به نام «جوزف وایزنباوم» از MIT یک ربات روان‌درمان‌گر به نام «الیزا» ساخت. این چت بات کارکرد ساده‌ای داشت. وقتی چیزی را برای او تایپ می‌کردید، الیزا از شما می‌خواست بیشتر در این باره حرف بزنید یا صرفا همان حرف‌ها را به شکلی سوالی از شما می‌پرسید.

در کمال تعجب وایزنباوم، مردم مانند یک انسان با این ربات رفتار کردند. آن‌ها آزادانه مشکلات خصوصی خود را مطرح می‌کردند و از پاسخ‌های الیزا راضی بودند. ما انسان‌ها ظاهرا مستعد چنین احساساتی هستیم.

وقتی سگ‌ها، گربه‌ها یا دیگر حیوانات حتی به مقدار کوچکی از خود رفتارهای انسانی نشان می‌دهند، بیشتر از آن‌چه واقعا هستند، تصور می‌کنیم که شبیه ما شده‌اند. این مسئله در مورد دستگاه‌هایی که رفتار انسان‌ها را تقلید می‌کنند هم صادق است.

دانشمندان حالا به این پدیده «اثر الیزا» می‌گویند.

هوش مصنوعی

ربات‌ها ما را کجا می‌برند؟

«مارگارت میچل»، محقق سابق مایکروسافت و بعد گوگل که در زمینه اخلاقیات به تیم‌های هوش مصنوعی آن‌ها کمک کرده، و حالا در Hugging Face فعالیت دارد، ظهور و رشد این فناوری را به چشم دیده است. او می‌گوید هوش مصنوعی امروز نسبتا ساده و به وضوح ناقص است، ولی خیلی‌ها آن را به عنوان انسان در نظر می‌گیرند. ولی چه می‌شود اگر این فناوری یک روز بیش از حد قدرتمند شود؟

سیستم‌هایی که شرکت‌هایی مثل OpenAI می‌سازند، علاوه بر تولید توییت، پست‌های وبلاگی و تقلید گفتگو، می‌توانند دست به خلق تصویر بزنند. ابزارهای جدیدی مثل DALL-E قادرند از روی متن توصیفی کاربر، تصاویری واقع‌گرایانه بسازند.

عده‌ای در جامعه محققان هوش مصنوعی نگرانند که این سیستم‌ها در مسیر ادراک و خودآگاهی قرار داشته باشند. اما مسئله فراتر از این‌هاست. دکتر الن می‌گوید: «یک ارگانیزم خودآگاه – مانند انسان یا سگ یا سایر حیوانات – می‌تواند نکته‌ای را در یک حوزه و نکته دیگری را از یک حوزه دیگر بیاموزد و بعد آن‌ها را کنار هم در یک حوزه دیگر قرار دهد تا کاری را انجام دهد که هرگز تجربه‌اش نکرده است. [ولی] فناوری هنوز فاصله زیادی تا آن‌جا دارد.»

مسئله نگران‌کننده‌تر اما نشر اطلاعات غلط در اینترنت است. متون و تصاویر نادرست می‌توانند در کارزارهای آنلاین به کار گرفته شود و اتفاقاتی را رقم بزنند که احتمالا در انتخابات سال 2016 آمریکا رقم خورد. این سیستم‌ها می‌توانند چت بات‌هایی بسازند که گفتگوها را به نحوی قانع‌کننده شبیه‌سازی کنند.

اگر زمانی به این نقطه برسیم، دیگر به کمتر چیزی در دنیای اینترنت می‌توان اعتماد کرد. دکتر میچل شک دارد که ما برای چنین آینده‌ای آماده باشیم: «نگرانم که چت بات‌ها مردم را طعمه خود قرار دهند. آن‌ها قادرند ما را متقاعد کنند که به چه چیزی باور داشته باشیم و چه کار کنیم.»

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *