اخبار

ربات‌هایی که از هوش مصنوعی مبتنی بر اینترنت استفاده می‌کنند سوگیری‌های نژادی و جنسیتی از خود بروز می‌دهند

به گزارش هلدینگ ICT به نقل از ایتنا – محتمل‌تر بود که این ربات زنان را به عنوان «خانه‌دار»، مردان سیاهپوست را به عنوان «تبه‌کاران» و مردان لاتین را به عنوان «سرایه‌دار» بشناسد. همچنین وقتی AI به جستجوی «دکتر» می‌پرداخت، احتمال اینکه مردها را انتخاب کند بیشتر از زنها بود.
یک مطالعه جدید مدعیست که ربات‌ها، وقتی از هوش مصنوعی (AI) استفاده کنند که بر اساس داده‌های برگرفته از اینترنت مدلسازی شده است، کلیشه‌های جنسیتی و نژادی از خود بروز می‌دهند. این مطالعه، که این محققان می‌گویند نخستین مطالعه‌ای است که این مفهوم را اثبات می‌کند، تحت هدایت دانشگاه جانز هاپکینز، انستیتو تکنولوژی جورجیا و دانشگاه واشینگتون انجام شده و توسط انجمن ماشین‌آلات کامپیوتری (ACM) منتشر شده است.در چکیده این تحقیق، محققان می‌گویند که داده‌های آنها قطعا نشان می‌دهد که «ربات‌ها کلیشه‌های مسمومی را در رابطه با جنسیت، نژاد و چهره‌خوانی که از نظر علمی بی اعتبار شناخته شده است، در مقیاس وسیع» نشان می‌دهند. در طی روز، یک ربات با AI برنامه‌ریزی شد و فرمان‌هایی برای آن صادر شدند، از جمله اینکه دکتر و تبه‌کار را تشخیص دهد.

نتایج به دست آمده گویای چندین سوگیری مشخص و متمایز بود. مردها 8% بیشتر از زنها توسط AI انتخاب شدند؛ همچنین مردهای سفیدپوست و آسیایی در موارد بیشتری انتخاب شدند و زنان سیاهپوست کمتر انتخاب می‌شدند. همچنین محتملتر بود که این ربات زنان را به عنوان «خانه‌دار»، مردان سیاهپوست را به عنوان «تبه‌کاران» و مردان لاتین را به عنوان «سرایه‌دار» بشناسد. همچنین وقتی AI به جستجوی «دکتر» می‌پرداخت، احتمال اینکه مردها را انتخاب کند بیشتر از زنها بود.

اندرو هاندیت، یک دانشجوی پست‌دکتری در Georgia Tech، بر این باور است که آینده‌ای تاریک پیش رو خواهد بود اگر کسانی که بر روی AI کار می‌کنند همچنان ربات‌ها را بدون لحاظ نمودن مسائلی که در مدل‌های شبکه عصبی وجود دارند ایجاد کنند. او می‌گوید «ما در معرض ریسک خلق نسلی از ربات‌های دارای تعصبات نژادی و جنسیتی هستیم ولی افراد و سازمان‌ها تصمیم گرفته‌اند خلق این محصولات بدون چاره‌جویی درباره این مسائل ایرادی ندارد».

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *