هفتهی گذشته، OpenAI با انتشار پستی وبلاگی به نکات مهمی اشاره کرد که نشان میدهد چطور برخی از معلمان از ChatGPT بهعنوان ابزار کمکآموزشی استفاده میکنند. همچنین، این شرکت رسماً اعتراف میکند که برنامههای تشخیص متنهای تولیدشده با هوش مصنوعی عملکرد درستی ندارند.
در بخشی از سؤالات متداول OpenAI با عنوان «آیا آشکارسازهای هوش مصنوعی کار میکنند؟» آمده است:
بهطور خلاصه خیر؛ درحالیکه برخی شرکتها ازجمله OpenAI ابزارهای منتشر کردهاند که ادعا میشود محتوای ساختهشده با هوش مصنوعی را شناسایی میکنند، هیچکدام از این ابزارها ثابتشده نیستند و محتوای تولیدشده با هوش مصنوعی و محتوایی تولید انسان را نمیتواند تشخیص دهد.
– OpenAI
ابزارهای تشخیص محتوای تولیدشده با هوش مصنوعی بهدلیل استفاده از معیارهای اثباتنشده نتایج مثبت کاذب ارائه میدهند. درنهایت، نشانهی خاصی در متن نوشتهشده با هوش مصنوعی وجود ندارد که بتوان آن را همیشه از متن انسانها تشخیص داد. درواقع، با بازنویسی ساده میتوان چنین ابزارهایی را بهراحتی فریب داد. OpenAI نیز پیشازاین ابزار آزمایشی خود که برای همین کار ساخته شده بود، متوقف کرد؛ زیرا میزان دقتش در سطح نامطلوب ۲۶ درصد قرار داشت.
پرسشهای متداول OpenAI به تصور اشتباه بزرگ دیگری نیز اشاره میکند که نشان میدهد ChatGPT میتواند متنهای ساختهشده با هوش مصنوعی را تشخیص دهد. این شرکت میگوید:
ChatGPT دربارهی محتوای تولید هوش مصنوعی دانشی ندارد و گاهی به سؤالاتی مثل «آیا این مقاله را تو نوشتهای؟» اینگونه پاسخ میدهد: «شاید این متن را هوش مصنوعی نوشته باشد.» البته این پاسخ تصادفی است و مبنای دقیقی ندارد.
– OpenAI
افزونبراین، OpenAI به تمایل مدل هوش مصنوعی خود به ترکیب اطلاعات نادرست اشاره میکند و میگوید:
گاهی اوقات ChatGPT قانعکننده بهنظر میرسد؛ اما شاید اطلاعات نادرست یا گمراهکنندهای به شما ارائه دهد. حتی گاهی اوقات این هوش مصنوعی میتواند نقلقولهای نادرستی بسازد؛ بنابراین، نباید از آن بهعنوان تنها منبع خود استفاده کنید.
– OpenAI
اگرچه ابزارهای تشخیص محتوای تولیدشده با هوش مصنوعی عملکرد رضایتبخشی ندارند، این بدانمعنا نیست که انسانها نمیتوانند چنین کاری انجام دهند. بهعنوان مثال، معلمی که با سبک نوشتاری معمول دانشآموزانش آشنایی دارد، باتوجهبه تغییر سبک ناگهانی نوشتههای آنها میتواند محتوای ساختهشده با هوش مصنوعی را تشخیص دهد.
نشانههای گویایی مثل عبارت «بهعنوان مدل زبان هوش مصنوعی» در متنها، یعنی شخص مدنظر متن تولیدشده با ابزارهای هوش مصنوعی را حتی بازنویسی نکرده است و بهراحتی میتوان آن را تشخیص داد.
اتان مولیک، تحلیلگر هوش مصنوعی، دربارهی ابزارهای تشخیص محتوای هوش مصنوعی گفت:
درحالحاضر، نمیتوان متن تولیدشده با هوش مصنوعی را تشخیص داد و این مسئله احتمالاً در آینده تغییر نخواهد کرد. ابزارهای تشخیص محتوای هوش مصنوعی نرخ کارایی مثبت کاذبی دارند و درنتیجه، نباید از آنها استفاد کرد.