- پروژه هوشمند سازی بیمارستان رازی
- پروژه توسعه تجهیزات شبکه انتقال
- پروژه ایجاد زیرساخت فیبر نوری
- پروژه سدید (دیسپچینگ ملی گاز ایران)
- پروژه هوشمند سازی تونل آزاد راه اراک خرم آباد (ITS)
- پروژه ایجاد شبکه ملی سیگنال رسانی به فرستنده های صدا و سیما جمهوری اسلامی ایران
- پروژه اسکادا گاز تهران
- پروژه مخابرات (USO)
- پروژه NGL 3200
- پروژه تلکام پتروشیمی دماوند
- پروژه راه آهن چابهار – زاهدان
- پروژه راه آهن یزد – اقلید
- پروژه سیگنالینگ مترو هشتگرد
- پروژه مترو قم
توهمات دردسرساز ChatGPT؛ یک وکیل بهخاطر استناد به دروغهای هوش مصنوعی به دادگاه میرود

وکیل شرکت Levidow, Levidow & Oberman که از هواپیمایی کلمبیایی Avianca شکایت کرده، در دادخواست خود به نمونههایی از رویههای قضایی قبلی اشاره کرده بود که توسط ChatGPT ساخته شده بودند. این شرکت هواپیمایی اما خیلی زود متوجه این مسئله شد و این اتفاق را به اطلاع دادگاه رساند. حالا وکیل شاکی باید درباره استنادات دروغین خود به دادگاه پاسخ دهد.
به گزارش نیویورک تایمز، «استیون ای. شوارتز»، وکیل طرف شاکی در این پرونده، اذعان کرده که از چتبات شرکت OpenAI برای تحقیقات خود استفاده کرده است. او میگوید ChatGPT در پاسخ به این سؤال که آیا این پروندهها واقعی هستند یا خیر، پاسخ مثبت داده، اما از ارائه منبع طفره رفته و صرفاً مدعی شده است که این پروندهها در پایگاه Westlaw و LexisNexis در دسترس هستند.
بااینحال، تحقیقات تیم حقوقی هواپیمایی Avianca نشان داد که این پروندهها واقعیت ندارند و این موضوع را به اطلاع دادگاه رساند. در یک مورد، برای پروندهای ناموجود موسوم به «وارگسه در برابر هواپیمایی جنوب چین»، چتبات هوش مصنوعی ظاهراً ارجاع را به یک پرونده واقعی دیگر به نام «زیکرمن در برابر هواپیمایی کره» داده بود، اما در همین ارجاع هم تاریخ (و چند جزئیات دیگر) را اشتباه کرده بود.

وکیل پرونده بابت استفاده از ChatGPT پشیمان است
شوارتز میگوید او مطلع نبوده که احتمال بروز اشتباه در این محتواها وجود دارد. او نسبت به استفاده از هوش مصنوعی مولد در این شکایت ابراز پشیمانی کرده و مدعی شده است که دیگر هرگز بدون کسب اطمینان صددرصدی از اعتبار پروندهها دست به انجام چنین کاری نخواهد زد.
قاضی این پرونده حالا جلسه استماعی را برای ماه آینده میلادی در نظر گرفته است تا در صورت نیاز جریمههایی را برای شوارتز در نظر بگیرد. این پرونده نشان میدهد که موضوع «توهم» در ابزارهای هوش مصنوعی مولد تا چه اندازه میتواند دردسرساز باشد و چرا نباید برای انجام کارهای جدی از این ابزارها بهمنظور استناد به محتوا استفاده کرد.