- پروژه هوشمند سازی بیمارستان رازی
- پروژه توسعه تجهیزات شبکه انتقال
- پروژه ایجاد زیرساخت فیبر نوری
- پروژه سدید (دیسپچینگ ملی گاز ایران)
- پروژه هوشمند سازی تونل آزاد راه اراک خرم آباد (ITS)
- پروژه ایجاد شبکه ملی سیگنال رسانی به فرستنده های صدا و سیما جمهوری اسلامی ایران
- پروژه اسکادا گاز تهران
- پروژه مخابرات (USO)
- پروژه NGL 3200
- پروژه تلکام پتروشیمی دماوند
- پروژه راه آهن چابهار – زاهدان
- پروژه راه آهن یزد – اقلید
- پروژه سیگنالینگ مترو هشتگرد
- پروژه مترو قم
OpenAI تأیید کرد متن تولیدشده با هوش مصنوعی تشخیصدادنی نیست

طبق اعلام OpenAI، هیچکدام از ابزارهای تشخیص محتوای هوش مصنوعی نمیتوانند متنهای تولیدشده با هوش مصنوعی را شناسایی کنند.
هفتهی گذشته، OpenAI با انتشار پستی وبلاگی به نکات مهمی اشاره کرد که نشان میدهد چطور برخی از معلمان از ChatGPT بهعنوان ابزار کمکآموزشی استفاده میکنند. همچنین، این شرکت رسماً اعتراف میکند که برنامههای تشخیص متنهای تولیدشده با هوش مصنوعی عملکرد درستی ندارند.
در بخشی از سؤالات متداول OpenAI با عنوان «آیا آشکارسازهای هوش مصنوعی کار میکنند؟» آمده است:
بهطور خلاصه خیر؛ درحالیکه برخی شرکتها ازجمله OpenAI ابزارهای منتشر کردهاند که ادعا میشود محتوای ساختهشده با هوش مصنوعی را شناسایی میکنند، هیچکدام از این ابزارها ثابتشده نیستند و محتوای تولیدشده با هوش مصنوعی و محتوایی تولید انسان را نمیتواند تشخیص دهد.
– OpenAI
ابزارهای تشخیص محتوای تولیدشده با هوش مصنوعی بهدلیل استفاده از معیارهای اثباتنشده نتایج مثبت کاذب ارائه میدهند. درنهایت، نشانهی خاصی در متن نوشتهشده با هوش مصنوعی وجود ندارد که بتوان آن را همیشه از متن انسانها تشخیص داد. درواقع، با بازنویسی ساده میتوان چنین ابزارهایی را بهراحتی فریب داد. OpenAI نیز پیشازاین ابزار آزمایشی خود که برای همین کار ساخته شده بود، متوقف کرد؛ زیرا میزان دقتش در سطح نامطلوب ۲۶ درصد قرار داشت.
پرسشهای متداول OpenAI به تصور اشتباه بزرگ دیگری نیز اشاره میکند که نشان میدهد ChatGPT میتواند متنهای ساختهشده با هوش مصنوعی را تشخیص دهد. این شرکت میگوید:
ChatGPT دربارهی محتوای تولید هوش مصنوعی دانشی ندارد و گاهی به سؤالاتی مثل «آیا این مقاله را تو نوشتهای؟» اینگونه پاسخ میدهد: «شاید این متن را هوش مصنوعی نوشته باشد.» البته این پاسخ تصادفی است و مبنای دقیقی ندارد.
– OpenAI
افزونبراین، OpenAI به تمایل مدل هوش مصنوعی خود به ترکیب اطلاعات نادرست اشاره میکند و میگوید:
گاهی اوقات ChatGPT قانعکننده بهنظر میرسد؛ اما شاید اطلاعات نادرست یا گمراهکنندهای به شما ارائه دهد. حتی گاهی اوقات این هوش مصنوعی میتواند نقلقولهای نادرستی بسازد؛ بنابراین، نباید از آن بهعنوان تنها منبع خود استفاده کنید.
– OpenAI
اگرچه ابزارهای تشخیص محتوای تولیدشده با هوش مصنوعی عملکرد رضایتبخشی ندارند، این بدانمعنا نیست که انسانها نمیتوانند چنین کاری انجام دهند. بهعنوان مثال، معلمی که با سبک نوشتاری معمول دانشآموزانش آشنایی دارد، باتوجهبه تغییر سبک ناگهانی نوشتههای آنها میتواند محتوای ساختهشده با هوش مصنوعی را تشخیص دهد.
نشانههای گویایی مثل عبارت «بهعنوان مدل زبان هوش مصنوعی» در متنها، یعنی شخص مدنظر متن تولیدشده با ابزارهای هوش مصنوعی را حتی بازنویسی نکرده است و بهراحتی میتوان آن را تشخیص داد.
اتان مولیک، تحلیلگر هوش مصنوعی، دربارهی ابزارهای تشخیص محتوای هوش مصنوعی گفت:
درحالحاضر، نمیتوان متن تولیدشده با هوش مصنوعی را تشخیص داد و این مسئله احتمالاً در آینده تغییر نخواهد کرد. ابزارهای تشخیص محتوای هوش مصنوعی نرخ کارایی مثبت کاذبی دارند و درنتیجه، نباید از آنها استفاد کرد.