اخبار

اریک اشمیت: هوش مصنوعی به اندازه سلاح‌های هسته‌ای خطرناک است

به گزارش هلدینگ ICT به نقل ازایتنا – اریک اشمیت، مدیر اجرایی سابق گوگل، هوش مصنوعی را به اندازه سلاح‌های هسته‌ای خطرناک خوانده است.

اریک اشمیت: هوش مصنوعی به اندازه سلاح‌های هسته‌ای خطرناک است
اریک اشمیت در سخنرانی خود در مجمع امنیتی آسپن در اوایل هفته جاری گفت که او «در مورد تاثیر کاری که انجام می‌دادند ساده لوح بوده است.»، اما این اطلاعات «بسیار قدرتمندند» و «دولت و سایر نهادها باید فشار بیشتری را بر فناوری اعمال کنند تا با ارزش‌های اخلاقی‌مان هماهنگ شوند.»

«زور و قدرتی که فناوری در اختیار دارد بسیار بسیار واقعی است. به این موضوع فکر کنید که چگونه می‌توانیم در مورد توافقنامه هوش مصنوعی مذاکره کنیم؟ ابتدا باید دست‌اندرکارانی در فناوری داشته باشید که آگاه باشند چه اتفاق‌هایی خواهد افتاد و از سوی دیگر، خود شما باید درباره خطرات آن آگاهی داشته باشید. فرض کنید می‌خواهیم با چین درباره نوعی معاهده درباره شگفتی‌های هوش مصنوعی گفت‌وگو کنیم. این بسیار معقول و منطقی است. اما چگونه آن را انجام دهیم؟ چه کسی در دولت آمریکا با ما کار خواهد کرد؟ و حتی در طرف چینی اوضاع بدتر است؟ چه کسی را خطاب قرار دهیم؟»

ما به مذاکراتی  نیاز داریم که هنوز آمادگی‌اش را نداریم.

«ما بالاخره در دهه‌های ۵۰ و ۶۰ میلادی موفق شدیم دنیایی را به وجود آوریم که در آن قانون «غافلگیر نشدن» درباره آزمایش‌های هسته‌ای وجود داشت و در نهایت این سلاح‌ها ممنوع شدند. این مورد نمونه‌ای است از تعادل میان اعتماد، یا اعتماد نداشتن، این یک قانون «غافلگیر نشدن» است.»

«من بسیار نگرانم که نگاه ایالات متحده به چین به‌عنوان یک حکومت فاسد یا کمونیست یا هر چیز دیگری، و دیدگاه چینی‌ها به آمریکا به‌عنوان یک حکومت شکست‌خورده… به مردم اجازه دهد که بگویند «اوه خدای من، آن‌ها حتما نقشه‌ای دارند» و سپس شروع کنند به یک جور معما ساختن و مسئله را پیچیده بغرنج‌تر کنند…. چون در حال مسلح شدن یا آماده کردن خودتان‌اید، پس در این صورت، طرف مقابل را به اقدام متقابل تحریک می‌کنید.»

قابلیت‌های هوش مصنوعی طی سال‌ها به دفعات بیان شده است و حتی بیش از حد در این‌باره صحبت شده است. ایلان ماسک، مدیر اجرایی تسلا، اغلب گفته است که هوش مصنوعی به احتمال بالا تهدیدی برای انسان است. اخیرا گوگل هم یک مهندس نرم‌افزار را اخراج کرده است که ادعا کرده‌ بود هوش مصنوعی به خودآگاهی رسیده است و دارای ادراک است.

با این حال، کارشناسان اغلب به مردم یادآوری کرده‌اند که مسئله هوش مصنوعی این است که برای چه چیزی آموزش داده شده و انسان‌ها چگونه از آن استفاده می‌کنند. اگر الگوریتم‌هایی که این سیستم‌ها را آموزش می‌دهند مبتنی بر داده‌های ناقص، نژادپرستانه یا تبعیض جنسیتی باشند، نتایج هم در نهایت همین موارد را منعکس خواهد کرد.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *