نتایج به دست آمده گویای چندین سوگیری مشخص و متمایز بود. مردها 8% بیشتر از زنها توسط AI انتخاب شدند؛ همچنین مردهای سفیدپوست و آسیایی در موارد بیشتری انتخاب شدند و زنان سیاهپوست کمتر انتخاب میشدند. همچنین محتملتر بود که این ربات زنان را به عنوان «خانهدار»، مردان سیاهپوست را به عنوان «تبهکاران» و مردان لاتین را به عنوان «سرایهدار» بشناسد. همچنین وقتی AI به جستجوی «دکتر» میپرداخت، احتمال اینکه مردها را انتخاب کند بیشتر از زنها بود.
اندرو هاندیت، یک دانشجوی پستدکتری در Georgia Tech، بر این باور است که آیندهای تاریک پیش رو خواهد بود اگر کسانی که بر روی AI کار میکنند همچنان رباتها را بدون لحاظ نمودن مسائلی که در مدلهای شبکه عصبی وجود دارند ایجاد کنند. او میگوید «ما در معرض ریسک خلق نسلی از رباتهای دارای تعصبات نژادی و جنسیتی هستیم ولی افراد و سازمانها تصمیم گرفتهاند خلق این محصولات بدون چارهجویی درباره این مسائل ایرادی ندارد».