متا اعلام کرد که مدل زبانی بزرگ هوش مصنوعی جدید خود، یعنی Llama 2، قادر خواهد بود تا از سال 2024 روی تراشههای موبایل و دسکتاپ کوالکام اجرا شود.

کوالکام در بیانیه مطبوعاتی خود توضیح میدهد:
«امکان اجرای مدلهای هوش مصنوعی مولد مانند Llama 2 روی دستگاههایی مانند گوشیهای هوشمند، رایانههای شخصی، هدستهای واقعیت مجازی/افزوده و وسایل نقلیه به توسعهدهندگان این امکان را میدهد که در هزینههای ابری خود صرفهجویی کنند و تجربیات خصوصی، قابلاعتمادتر و شخصیسازیشدهای را برای کاربران فراهم نمایند.»
ارائه هوش مصنوعی Llama 2 به چیپهای اسنپدراگون
در حال حاضر، کوالکام قصد دارد در سال 2024 پشتیبانی از هوش مصنوعی Llama 2 را در دستگاههایی از تراشههای اسنپدراگون بهره میبرند، فراهم کند. بااینحال، هنوز مشخص نیست که کدام دسته از چیپستهای اسنپدراگون به این قابلیت مجهز خواهند شد.

تاکنون مدلهای زبانی بزرگ به دلیل نیاز بسیار زیادی که به قدرت محاسباتی و داده دارند، عمدتاً روی مزارع سرور بزرگ و پردازندههای گرافیکی انویدیا اجرا شدهاند که همین امر همچنین باعث شد سهام انویدیا بیش از 220 درصد در سال جاری افزایش پیدا کند. اما این فناوری تا حد زیادی از دسترس شرکتهایی مانند کوالکام که پردازندههای موبایل و دسکتاپ پیشرو تولید میکنند، دور بوده است.
حالا با وجود این اعلامیه بهنظر میرسد که کوالکام نیز قصد دارد موقعیت پردازندههای خود در حوزه هوش مصنوعی را بهبود بخشد. همچنین اگر مدلهای زبانی بزرگ بتوانند بهجای مراکز داده روی گوشیهای موبایل اجرا شوند، هزینه قابلتوجه مربوط به اجرای هوش مصنوعی کاهش پیدا میکند و در نهایت دستیارهای صوتی بهتر و سریعتری به کاربران ارائه میشود.