بسیاری از مدیران ارشد شرکتها ظاهراً بهشدت نگران هوش مصنوعی هستند و تصور میکنند که این فناوری پیشرفته میتواند ظرف آیندهای نهچندان دور تهدیدی وجودی را علیه بشریت ایجاد کند. یک نظرسنجی جدید نشان میدهد که بهنظر خیلی از آنها این اتفاق در حدود 5 الی 10 سال آینده رخ خواهد داد.
بهگزارش سیانان، مؤسسه Chief Executive Leadership اخیراً یک نظرسنجی را در رویداد مجازی Yale CEO Summit انجام داده است تا درباره ریسکها و فرصتهای هوش مصنوعی اطلاعات کسب کند. در پایان این نظرسنجی، 42 درصد از مدیران عامل اعلام کردند که AI پتانسیل این را دارد که در 5 الی 10 سال آینده بشریت را نابود کند.
حدود 34 درصد از مدیران باور دارند که هوش مصنوعی میتواند بهصورت بالقوه تا 10 سال دیگر نسل انسان را از میان بردارد، و 8 درصد نیز معتقدند که این اتفاق تا 5 سال دیگر رقم میخورد. بااینحال، 58 درصد از مدیران عامل شرکتها گفتهاند که اصلاً به چنین آیندهای باور ندارند و نگران آن نیستند.
42 درصد از شرکتکنندگان در پاسخ به یک سؤال دیگر اعلام کردند که در زمینه احتمال وقوع فاجعه از سوی هوش مصنوعی اغراق شده است، اما 58 درصد چنین باوری نداشتند. در این نظرسنجی 119 مدیرعامل از صنایع مختلف وجود داشتند ازجمله این افراد میتوان به مدیرعامل والمارت، کوکاکولا، زیراکس و زوم اشاره کرد.
خیلی از مدیران به فرصتهای حاصل از هوش مصنوعی باور دارند
از طرف دیگر، بهنظر میرسد که بسیاری از مدیران شرکتها نسبت به پتانسیلهای مثبت هوش مصنوعی خوشبین هستند. اگرچه 13 درصد از آنها در پاسخ به یک سؤال اعلام کردند که درباره این پتانسیلها اغراق شده است، اما 87 درصد چنین اعتقادی نداشتند.
شرکتکنندگان این نظرسنجی همچنین گفتند که هوش مصنوعی بیش از همه میتواند در سه صنعت بهداشت (48 درصد)، خدمات حرفهای/آیتی (35 درصد) و رسانه/دیجیتال (11 درصد) به کار آید.
«جفری سوننفلد»، مدیر مؤسسه Chief Executive Leadership میگوید مدیران شرکتها به پنج دسته طبقهبندی میشوند. یک گروه «خالقان کنجکاو» هستند که معتقدند هر کاری که قابل انجام است، باید انجام شود. گروه بعدی «خوشبینهای باورمند» هستند که فقط نکات مثبت فناوریها را میبینند.
گروه سوم «سودجویان تجاری» هستند که میخواهند از فناوریهای جدید پول دربیاورند. دو گروه بعدی «کنشگران هشداردهنده» و «حامیان حاکمیت جهانی» هستند که معتقدند باید هوش مصنوعی را کنترل و برای آن قانونگذاری کرد.