اخبار

نگاهی به مدل‌های هوش مصنوعی متن‌باز؛ سرابی که روی شانه غول‌های فناوری سوار است

حدود دو هفته پیش یادداشت یکی از مهندسان گوگل به نام «لوک سرانو» منتشر شد که مدعی بود تهدید اصلی علیه غول‌های فناوری در حوزه هوش مصنوعی از جانب جامعه متن‌باز مطرح شده است. ولی نگاهی دقیق‌تر به این بازار نشان می‌دهد که اگر شرکت‌های بزرگ دسترسی به مدل‌های خود را مسدود کنند، پروژه‌های متن‌باز توفیق چندانی برای رقابت با شرکت‌های بزرگ نخواهند داشت.

هر روز بر تعداد مدل‌های زبانی متن‌بازی که رقیب مدل‌های هوش مصنوعی گوگل و OpenAI به‌حساب می‌آیند، افزوده می‌شود. این مدل‌ها درواقع نسخه کوچک‌تر و ارزان‌تر بهترین مدل‌هایی هستند که توسط شرکت‌های بزرگ فناوری ساخته شده‌اند و ادعا می‌کنند که می‌توانند هم‌تراز آن‌ها باشند.

شرکت‌هایی مثل گوگل – که در کنفرانس توسعه‌دهندگان اخیر خود هوش مصنوعی مولد را به تمام سرویس‌هایش اضافه کرد – آن‌قدر درگیر رقابت با دیگر شرکت‌ها ازجمله OpenAI و مایکروسافت بوده‌اند که نتوانسته‌اند تهدید اصلی را از سوی جامعه متن‌باز ببینند.

این اتفاق از بسیاری جهات اتفاق خوبی بوده است. دسترسی بیشتر به مدل‌های هوش مصنوعی موجب افزایش نوآوری و رفع مشکلات این مدل‌ها شده. اگر این فناوری فقط در دست چند شرکت بزرگ فناوری باشد که برای آینده آن تصمیم می‌گیرند، هرگز رشد نخواهد کرد.

ولی رشد پروژه‌های متن‌باز پرتزلزل است؛ اکثر این پروژه‌ها روی شانه‌های مدل‌های غول‌های فناوری سوار شده‌اند. اگر شرکت‌هایی مثل متا و OpenAI تصمیم بگیرند که دسترسی به ابزارهای خود را مسدود کنند، پیشرفت جامعه متن‌باز متوقف می‌شود.

درحال‌حاضر بسیاری از مدل‌های آزاد روی مدل زبانی بزرگ LLaMA از متا ساخته شده‌اند. بقیه هم از مجموعه داده بزرگی به نام Pile استفاده می‌کنند که عمومی بوده و توسط شرکتی غیرانتفاعی موسوم به EleutherAI ساخته شده است. بااین‌حال، خود EleutherAI هم صرفاً به‌خاطر بازبودن OpenAI به‌وجود آمده است؛ چون مهندسان آن با کمک اطلاعاتی که این شرکت منتشر کرده بود، توانستند GPT-3 را مهندسی معکوس کنند و مدل خود را بسازند.

«استلا بیدرمن»، مدیر اجرایی و رئیس واحد تحقیقات EleutherAI و مشاور Booz Allen Hamilton می‌گوید: «واحد هوش مصنوعی متا با تعلیم و انتشار مدل‌ها برای جامعه محققان کار بزرگی انجام داده است.» سرانو، مهندس گوگل هم در یادداشت خود به نقش مهم متا در پیشرفت جامعه متن‌باز اشاره کرده بود. گوگل صحت این یادداشت افشایی را تأیید کرده است، اما می‌گوید این توضیحات استراتژی رسمی آن‌ها را بیان نمی‌کند.

بااین‌وجود، همه‌چیز می‌تواند تغییر کند. OpenAI با عرضه GPT-4 تا حدی استراتژی خود را نسبت به نسخه‌های قبلی تغییر داد، چون نگران رشد رقبا بود. البته در شایعات گفته شده است که این شرکت می‌خواهد مدل هوش مصنوعی جدیدی را به‌صورت متن‌باز عرضه کند، اما چنین چیزی هنوز رسماً تأیید نشده است.

متا هم ممکن است سیاست‌های خود را تغییر دهد تا از ریسک سوءاستفاده از مدل‌هایش جلوگیری کند. «جوئل پینو»، مدیر واحد هوش مصنوعی متا، درباره بازکردن کد مدل‌های این شرکت می‌گوید: «صادقانه فکر می‌کنم درحال‌حاضر کار درست همین است. اما آیا پنج سال دیگر هم استراتژی ما همین خواهد بود؟ نمی‌دانم؛ چون هوش مصنوعی به‌سرعت درحال حرکت است.»

اگر ترند بستن دسترسی عموم به مدل‌های هوش مصنوعی جدی شود، نه‌تنها جامعه متن‌باز دچار چالشی اساسی می‌شود، بلکه نسل بعدی فناوری‌های هوش مصنوعی به‌طور کامل به دست بزرگ‌ترین شرکت‌های دنیای فناوری می‌افتد. بنابراین چگونگی ساخت و استفاده از این فناوری‌ها در آینده در یک تقاطع قرار گرفته است.

رونق یک‌باره مدل‌های هوش مصنوعی متن‌باز

نرم‌افزارهای متن‌باز دهه‌هاست که وجود دارند و بخش بزرگی از اینترنت روی همین نرم‌افزارها سوار است. در گذشته اما هزینه ساخت مدل‌های هوش مصنوعی قدرتمند آن‌قدر زیاد بود که اجازه نمی‌داد پروژه‌های متن‌باز حرفی برای زدن داشته باشند. اما خیلی زود شرایط تغییر کرد.

کافی است نگاهی به چند هفته اخیر داشته باشید. استارتاپ Hugging Face که از حامیان اصلی دسترسی باز و آزاد به هوش مصنوعی است، در تاریخ 5 فروردین‌ماه از اولین مدل متن‌باز برای رقابت با ChatGPT پرده برداشت.

چت‌بات این استارتاپ با نام HuggingChat روی یک مدل زبانی بزرگ متن‌باز به نام Open Assistant ساخته شده که برای گفت‌وگو بهینه‌سازی شده است. این مدل هم خود با کمک حدود 13 هزار داوطلب تعلیم یافته و حدود یک ماه است که منتشر شده. ولی حتی Open Assistant هم بر پایه مدل LLaMA از متا به‌وجود آمده است.

از سوی دیگر، StableLM را داریم که 28 اسفندماه معرفی شد و یک مدل زبانی بزرگ متن‌باز متعلق به شرکت StabilityAI است. این شرکت همان شرکتی است که مدل تبدیل متن به تصویر Stable Diffusion را ساخته بود. آن‌ها در تاریخ 8 فروردین‌ماه پروژه StableVicuna را معرفی کردند که نسخه‌ای از StableLM برای گفت‌وگو است. (StableLM را مشابه GPT-4 و StableVicuna را مشابه ChatGPT در نظر بگیرید.)

این مدل‌های متن‌باز به جمع چند مدل دیگر مثل Alpaca (از دانشگاه استنفورد)، Dolly (از شرکت Databricks) و Cerebras-GPT (از شرکت Cerebras) ملحق شده‌اند. اکثر این مدل‌ها مبتنی بر LLaMA یا مدل‌ها و مجموعه داده‌های EleutherAI به‌وجود آمده‌اند.

برای بعضی‌ها، متن‌بازبودن یک موضوع اصولی است. «یانیک کیلچر»، یوتوبر و محقق هوش مصنوعی می‌گوید: «این مسئله یک تلاش جمعی در جهان برای این منظور است که قدرت هوش مصنوعی مکالمه‌ای در دسترس همگان قرار بگیرد و از دست چند شرکت بزرگ خارج شود.»

«جولین چائوموند»، هم‌بنیان‌گذار Hugging Face، ماه گذشته دراین‌باره گفت: «ما هیچ‌گاه عرصه مبارزه برای هوش مصنوعی متن‌باز را ترک نخواهیم کرد.» برای بقیه اما بحث سودآوری هم مطرح است.

Stability AI امیدوار است که ترفند قبلی آن‌ها در‌زمینه مدل‌های تصویری روی چت‌بات‌ها هم جواب دهد. آن‌ها می‌خواهند ابتدا به بازار نوآوری تزریق کنند و بعد به کمک انفجار نوآوری میان توسعه‌دهندگانی که از محصولات این شرکت استفاده می‌کنند، به سود برسند. Stability AI می‌خواهد بهترین ایده‌های خلاقانه شکل بگیرند و بعد آن‌ها را به‌صورت محصولات سفارشی برای گستره وسیعی از مشتریان عرضه کنند. «عماد مستقی»، مدیرعامل این شرکت می‌گوید: «ما به نوآوری سوخت می‌دهیم و بعد از نتیجه آن ثمره می‌گیریم. این بهترین مدل تجاری دنیاست.»

درهر‌حال، مدل‌های زبانی متن‌باز و آزاد باعث می‌شوند این فناوری در دسترس میلیون‌ها آدم در سراسر دنیا قرار بگیرد و ابزارها و کاربردهای جدیدی را به‌وجود بیاورد. بیدرمن می‌گوید: «حالا بسیار بیشتر از هر زمان دیگری در تاریخ دسترسی به این فناوری وجود دارد.»

«امیر قوی»، وکیل شرکت Fried Frank که با تعدادی از شرکت‌های فعال درزمینه هوش مصنوعی مولد ازجمله Stability AI کار می‌کند، می‌گوید: «صادقانه بگویم شمار فوق‌العاده زیاد روش‌هایی که مردم درحال استفاده از این فناوری هستند، شگفت‌آور است. فکر می‌کنم این قضیه گواهی بر خلاقیت بشری است که کل هدف متن‌بازبودن را شامل می‌شود.»

پردازشگرهایی که ذوب شدند

آموزش مدل‌های زبانی بزرگ از صفر کار بسیار سختی است. مستقی می‌گوید: «این کار هنوز از عهده بخش عمده افراد خارج است. ما در حین ساخت StableLM چندین GPU را ذوب کردیم.» اولین نسخه از مدل Stable Diffusion اگر نگوییم بهتر از مدل‌هایی مثل Imagen گوگل یا DALL-E بود، در حد این مدل‌ها کار می‌کرد. این مدل نه‌تنها رایگان بود، بلکه روی کامپیوترهای خانگی هم اجرا می‌شد. Stable Diffusion نقش زیادی در توسعه ابزارهای هوش مصنوعی تصویری در سال گذشته داشت.

ولی عماد مستقی این‌بار می‌خواهد انتظارها را تعدیل کند. او می‌گوید StableLM قدرتی در حد GPT-4 نخواهد داشت: «هنوز کارهای زیادی باید انجام شود. ماجرا مانند Stable Diffusion نیست که بلافاصله مدلی بسیار کارآمد داشته باشید. آموزش مدل‌های زبانی کار سخت‌تری است.»

مشکل بعدی این است که هرچه مدل‌ها بزرگ‌تر می‌شوند، تعلیم‌دادنشان دشوارتر می‌شود. موضوع فقط به هزینه قدرت رایانشی هم محدود نیست. فرایند تعلیم اغلب در مدل‌های بزرگ‌تر شکست می‌خورد و باید دوباره راه‌اندازی شود. درنتیجه ساخت آن‌ها هزینه بیشتری نیاز دارد.

هوش مصنوعی

بیدرمن می‌گوید در عمل محدودیتی برای حداکثر تعداد پارامترهایی وجود دارد که اکثر شرکت‌ها قادر به تعلیم‌دادنشان هستند. دلیلش این است که مدل‌های بزرگ باید با چندین GPU مختلف آموزش داده شوند و ایجاد ارتباط میان تمام این سخت‌افزارها کار پیچیده‌ای است. او ادامه می‌دهد: «آموزش موفق مدل‌ها در این مقیاس، حوزه بسیار جدیدی از تحقیق درزمینه رایانش توان بالاست.»

عدد دقیق پارامترها با پیشرفت فناوری تغییر می‌کند، ولی بیدرمن درحال‌حاضر این سقف را در دامنه‌ای بین 6 تا 10 میلیارد پارامتر قرار داده است. (در مقایسه، GPT-3 حدود 175 میلیارد پارامتر و LLaMA حدود 65 میلیارد پارامتر دارد.) این رابطه کاملاً مستقیم نیست، اما به‌طور کلی، مدل‌های بزرگ‌تر عملکرد بهتری دارند.

بیدرمن انتظار دارد که فعالیت‌ها پیرامون مدل‌های زبانی متن‌باز ادامه پیدا کند. ولی تمرکز آن‌ها بر توسعه یا پذیرش چند مدل از پیش‌تعلیم‌یافته معطوف خواهد شد: «درحال‌حاضر فقط چند شرکت وجود دارند که از مدل‌های از پیش‌تعلیم‌یافته بهره می‌برند، و انتظار دارم که شرایط در آینده نزدیک به همین صورت باقی بماند.»

به همین دلیل است که خیلی از مدل‌های متن‌باز روی LLaMA ساخته شده‌اند. البته مدل EleutherAI هم وجود دارد. بااین‌حال، بیدرمن می‌گوید فقط یک جای دیگر در دنیا وجود دارد که قادر به توسعه این مدل‌هاست و آنجا چین است.

EleutherAI چگونه به‌وجود آمد؟

EleutherAI به‌لطف OpenAI پروبال گرفت. OpenAI در سال 2020 تازه مدل GPT-3 را عرضه کرده بود. بیدرمن توضیح می‌دهد: «GPT-3 باعث شد تفکر خیلی‌ها درباره مدل‌های هوش مصنوعی مقیاس بزرگ تغییر کند. این مدل اغلب به‌عنوان یک گذر پارادایم فکری درزمینه آنچه افراد از این مدل‌ها انتظار دارند، در نظر گرفته می‌شود.»

بیدرمن و چند محقق دیگر، هیجان‌زده از پتانسیل‌های این فناوری جدید، می‌خواستند کمی با این مدل سروکله بزنند تا درک بهتری نسبت به عملکرد آن پیدا کنند. بنابراین تصمیم گرفتند GPT-3 را شبیه‌سازی کنند. البته OpenAI خود این مدل را منتشر نکرده بود، اما به‌قدر کافی اطلاعات به اشتراک گذاشته بود تا بیدرمن و گروهش دریابند که این مدل چگونه ساخته شده است.

هیچ‌کس در بیرون از OpenAI قبلاً هرگز مدلی شبیه به GPT را تعلیم نداده بود، اما آن‌ها در میانه همه‌گیری کرونا قرار گرفته بودند و کار دیگری برای انجام‌دادن نداشتند. بیدرمن می‌گوید: «زمانی که وارد این کار شدم، مشغول شغلم بودم و با همسرم بازی رومیزی انجام می‌دادم. بنابراین تخصیص 10 یا 20 ساعت زمان در هفته کار نسبتاً راحتی بود.»

اولین گام آن‌ها کنار هم قراردادن یک مجموعه داده عظیم جدید بود که شامل میلیاردها تکه متن باشد و بتواند با داده‌های مورد استفاده در تعلیم GPT-3 رقابت کند. EleutherAI که از مجموعه داده‌های خود با نام Pile نام می‌برد، آن را در اواخر سال 2020 منتشر کرد.

EleutherAI از این مجموعه داده برای تعلیم اولین مدل متن‌باز خود استفاده کرد. آموزش بزرگ‌ترین مدل این شرکت حدود سه ماه و نیم طول کشید و با حمایت یک شرکت رایانش ابری انجام گرفت. بیدرمن اضافه می‌کند: «اگر می‌خواستیم از جیب خودمان این هزینه را بدهیم، حدود 400 هزار دلار می‌شد. درخواست این رقم از یک گروه تحقیقاتی دانشگاهی درواقع درخواستی هنگفت است.»

کمک از راه رسید

به‌خاطر همین هزینه‌ها، روش آسان‌تر این است که این مدل‌ها را مبتنی بر مدل‌های موجود بسازیم. LLaMA خیلی زود به بهترین گزینه برای شروع کار بسیاری از پروژه‌های متن‌باز تبدیل شد. واحد هوش مصنوعی متا از حدود یک دهه پیش که توسط «یان لکون» پایه‌گذاری شد، اتکای زیادی بر توسعه متن‌باز داشته و این تفکر به بخشی از فرهنگ متا تبدیل شده است. پینو می‌گوید: «اوضاع بسیار شبیه به رویکرد سریع حرکت کن و محصول بساز در بازارهای آزاد است.»

پینو درباره مزایای این سازوکار شفاف می‌گوید: «این کار تنوع افرادی را که به توسعه این فناوری کمک می‌کنند، افزایش می‌دهد. این یعنی نه‌تنها محققان یا کارآفرینان، بلکه دولت‌ها هم می‌توانند دید واضحی نسبت به این مدل‌ها داشته باشند.»

پینو و همکارانش مثل بخش عمده جامعه متن‌باز باور دارند که شفافیت باید یک استاندارد باشد: «یکی از چیزهایی که از محققانم می‌خواهم انجام دهند، این است که پروژه‌ها را با تفکر متن‌بازشدن آغاز کنند. چون وقتی چنین کاری انجام می‌دهید، معیار بسیار بالاتری را از نظر داده‌های مصرفی و چگونگی ساخت مدل برای خود در نظر می‌گیرید.»

ولی ریسک‌های مهمی هم وجود دارد؛ مدل‌های زبانی بزرگ می‌توانند اطلاعات اشتباه ارائه کنند، تعصب داشته باشند و نفرت‌پراکنی کنند. همچنین می‌توان از آن‌ها برای تولید پروپاگاندا یا ساخت بدافزار استفاده کرد. پینو می‌گوید: «شما میان شفافیت و ایمنی یک مصالحه انجام می‌دهید.»

این مصالحه برای واحد هوش مصنوعی متا به این معناست که برخی مدل‌ها اصلاً عرضه نخواهند شد. برای مثال، اگر تیم پینو یک مدل را روی داده‌های کاربران فیسبوک تعلیم دهد، این مدل باید در داخل سازمان باقی بماند، چون ریسک نشت اطلاعات خصوصی مردم بسیار زیاد است. در غیر این صورت، توسعه‌دهندگان باید مدل خود را با مجوزی منتشر کنند که صرفاً به کاربردهای تحقیقاتی اجازه بهره‌برداری بدهد.

رویکرد آن‌ها برای LLaMA هم همین بود. ولی چند روز پس از انتشار، یک نفر کل این مدل و دستورالعمل‌های آن را در انجمن گفت‌وگوی 4chan منتشر کرد. پینو می‌گوید: «هنوز فکر می‌کنم این کار برای این مدل خاص مصالحه درستی بود، اما ناامید شدم که مردم چنین کاری می‌کنند؛ چون در ادامه کار برای چنین عرضه‌هایی سخت‌تر می‌شود. ما همیشه حمایت خوبی را برای این رویکرد از طرف مدیریت شرکت و خود شخص مارک [زاکربرگ] دریافت کردیم، اما این شرایط به‌آسانی به‌دست نمی‌آید.»

حالا ریسک‌ها برای واحد هوش مصنوعی متا افزایش یافته است. پینو توضیح می‌دهد: «مسئولیت احتمالی انجام کارهای دیوانه‌وار برای استارتاپ‌های بسیار کوچک خیلی کمتر از وقتی است که یک شرکت بسیار بزرگ هستید. ما درحال‌حاضر این مدل‌ها را برای هزاران نفر منتشر می‌کنیم، اما اگر شرایط مشکل‌ساز شود یا احساس کنیم که ریسک‌های ایمنی بزرگ‌تر شده‌اند، حلقه را کوچک‌تر می‌کنیم و مدل‌ها را از طریق توافق‌های محرمانگی یا NDA که مانع از ساخت محصول با این مدل‌ها حتی برای امور تحقیقاتی می‌شوند، صرفاً در اختیار همکاران سرشناس آکادمیک خود قرار می‌دهیم؛ کسانی که اعتبار بالایی دارند.»

اگر این اتفاق بیفتد، ممکن است خیلی از فعالان جامعه متن‌باز دسترسی به نسل بعدی مدل هوش مصنوعی متا را از دست بدهند. بدون LLaMA، مدل‌های متن‌بازی مثل Alpaca ،Open Assistant یا Hugging Chat به این اندازه خوب نمی‌شوند و نسل بعدی خلاقان حوزه متن‌باز نمی‌توانند به همین راحتی پروژه‌های هوش مصنوعی خود را پیش ببرند.

نکته مهم رسیدن به تعادل است

سایر شرکت‌ها نیز درحال ارزیابی مزایا و معایب این رویکرد متن‌باز و رایگان هستند. در همان زمانی که متا LLaMA را عرضه کرد، Hugging Face از مکانیزمی شبیه به یک دروازه پرده برداشت تا کاربران برای دسترسی پیداکردن به مدل این شرکت درخواست دهند و تأیید شوند. هدف این شرکت این بود که فقط افراد مجاز با مقاصد مناسب بتوانند از این مدل بهره بگیرند.

«مارگارت میچل»، دانشمند ارشد اخلاق در Hugging Face می‌گوید: «من مبشر متن‌بازبودن نیستم و می‌توانم متوجه دلایلی باشم که بسته‌بودن را بسیار منطقی می‌کنند.» برای مثال، او به محتواهای بزرگسالانه فاقد رضایت اشاره می‌کند که می‌توانند یکی از خطرات دسترس‌پذیرکردن این مدل‌های قدرتمند باشد. او می‌گوید این کاربرد، یکی از کاربردهای اصلی مدل‌های تصویری هوش مصنوعی است.

میچل که قبلاً در گوگل کار کرده و تیم Ethical AI را به‌وجود آورده، تنش موجود در این فضا را درک می‌کند. او طرفدار چیزی است که خودش به آن «دموکراتیزه‌کردن مسئولانه» می‌گوید؛ رویکردی شبیه به متا که در آن مدل‌ها به شیوه‌ای کنترل‌شده و با توجه به ریسک بالقوه‌ای که می‌توانند برای آسیب‌رسانی داشته باشند، منتشر می‌شوند. میچل اضافه می‌کند: «من واقعاً قدردان آرمان‌های متن‌باز هستم، اما فکر می‌کنم مفید است که نوعی مکانیزم مسئولیت‌پذیری هم داشته باشیم.»

OpenAI هم شرایط را سخت‌تر کرده است. زمانی که GPT-4 معرفی شد، این شرکت جمله عجیبی را در گزارش فنی خود آورده بود که می‌گفت: «با توجه به چشم‌انداز رقابتی و پیچیدگی‌های ایمنیِ مدل‌های مقیاس بزرگ نظیر GPT-4، این گزارش حاوی هیچ جزئیات بیشتری درباره معماری (ازجمله اندازه مدل)، سخت‌افزار، رایانش‌های تعلیمی، ساخت مجموعه داده‌ها، روش‌های آموزش یا موارد مشابه نیست.»

این محدودیت‌های جدید تا حدودی متأثر از این مسئله است که OpenAI حالا یک شرکت سود‌محور شده که با غول‌هایی مثل گوگل رقابت می‌کند. ولی بحث تغییر عقیده مدیران شرکت هم مطرح است. «ایلیا سوتس‌کِور»، هم‌بنیان‌گذار و دانشمند ارشد این شرکت، در مصاحبه‌ای گفته بود که بازبودن OpenAI در گذشته یک اشتباه بوده است.

سازنده ChatGPT بدون‌شک استراتژی‌های خود را درباره اینکه چه محصولاتی برای عمومی‌شدن ایمن هستند، تغییر داده است. «سندینی آگاروال»، محقق سیاست‌گذاری OpenAI می‌گوید: «پیش‌تر اگر چیزی متن‌باز بود، شاید گروه کوچکی از افراد به آن اهمیت می‌دادند. اما حالا کل جامعه تغییر کرده است. متن‌بازبودن واقعاً می‌تواند سرعت توسعه را افزایش دهد و به رقابتی با نهایت توان منجر شود.»

OpenAI نقش مهمی در پیشرفت هوش مصنوعی متن‌باز داشت

ولی اوضاع قبلاً به این منوال نبود. اگر OpenAI سه سال پیش که GPT-3 عرضه شد، چنین تفکری داشت، EleutherAI به‌وجود نمی‌آمد. امروز EleutherAI نقش مهمی در اکوسیستم متن‌باز ایفا می‌کند. این شرکت تاکنون چندین مدل زبانی ساخته و از Pile برای آموزش چندین پروژه متن‌باز ازجمله StableLM استفاده کرده است. (مستقی از اعضای هیئت‌مدیره EleutherAI است.)

اگر OpenAI جزئیات مربوط به ساخت GPT-3 را منتشر نمی‌کرد، هیچ‌کدام از این اتفاق‌ها نمی‌افتاد. اما با بسته‌شدن GPT-4 – و احتمالاً 5 و 6 – جامعه متن‌باز ممکن است دوباره از صحنه رقابت شرکت‌های بزرگ بیرون بماند. البته این پروژه‌ها شاید بتوانند بهینه‌سازی‌هایی را ارائه کنند و حتی به رقابت با برخی از محصولات گوگل بپردازند، اما به نسل قبلی مدل‌های هوش مصنوعی محدود خواهند بود و پیشرفت واقعی و جهش بزرگ بعدی، پشت درهای بسته رقم خواهد خورد.

آیا این اتفاق اهمیتی دارد؟ اینکه راجع به بسته‌شدن دسترسی به مدل‌های هوش مصنوعی شرکت‌های بزرگ فناوری و اثر آن بر جامعه متن‌باز باید چه فکری بکنید، تا حد زیادی به این بستگی دارد که به نظر شما هوش مصنوعی چطور و توسط چه کسی باید ساخته شود.

امیر قوی می‌گوید: «هوش مصنوعی احتمالاً در شکل و رسمی که جامعه خودش را سامان‌دهی می‌کند، تعیین‌کننده خواهد بود. فکر می‌کنم داشتن یک سیستم شفاف و دارای مؤلفه‌های وارسی بهتر از تمرکز قدرت در دستان چند نفر است.»

بیدرمن هم با این ایده موافق است: «قطعاً فکر نمی‌کنم ضرورتی اخلاقی برای همه وجود داشته باشد تا متن‌باز شوند. ولی در پایان راه، بسیار مهم است که افرادی مشغول توسعه و تحقیق درباره این فناوری باشند که از نظر مالی چشم‌انتظار موفقیت تجاری آن نیستند.»

بااین‌حال، او از ریسک‌ها هم آگاه است: «من درواقع خیلی کمتر از آنچه مردم تصور می‌کنند، نسبت به OpenAI انتقاد دارم. انتشار عمومی این فناوری با ریسک‌ها و خطرات بزرگی همراه است.»

OpenAI مدعی است که آن‌ها صرفاً جانب احتیاط را رعایت می‌کنند. «دیو ویلنر»، رئیس بخش اعتماد و ایمنی شرکت سازنده ChatGPT می‌گوید: «نمی‌گوییم شفافیت خوب نیست. موضوع این است که سعی داریم راهی برای شفاف‌بودن در عین حفظ ایمنی پیدا کنیم. با قدرتمندترشدن این فناوری‌ها، کشمکش‌هایی بین این مباحث به‌وجود می‌آید.»

ویلنر ادامه می‌دهد: «خیلی از معیارها و تفکرها در حوزه هوش مصنوعی توسط جوامع تحقیقاتیِ آکادمیک به‌وجود آمده است که برای مشارکت و شفافیت ارزش قائلند تا افراد بتوانند پروژه‌های یکدیگر را پیشرفت دهند. شاید این قضیه با پیشرفت این فناوری باید کمی تغییر کند.»

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *