\ هنگام ساختن یک برنامه هوش مصنوعی مولد که نیاز به فراخوانی یک مدل زبان بزرگ (LLM) برای تکمیل یک کار دارد، یک مشکل رایج این است که پرس و جوهای مکرر به LLM می تواند هم گران و هم غیرقابل پیش بینی باشد. مدلهای بزرگی مانند GPT-3.5/4 برای آموزش و اجرای استنتاج به طور باورنکردنی نیازمند منابع هستند. این در هزینه های API و همچنین اختلالات گاه به گاه در سرویس منعکس می شود. ChatGPT در ابتدا به عنوان پیش نمایش تحقیقاتی منتشر شد و قرار نبود برای برنامه های تولید استفاده شود. با این حال، سودمندی آن در طیف گسترده ای از برنامه های کاربردی غیرقابل انکار است، بنابراین علاقه به LLM ها افزایش یافته است.
\ از زمان شروع ChatGPT، کاربران به دنبال راه هایی برای رفع کمبود حریم خصوصی و ناتوانی در کنترل تنظیمات آپ تایم یا استنتاج هنگام استفاده از GPT بوده اند. این منجر به محبوبیت مدلهای رایگان و عمومی مانند Meta's Llama 2 و بعداً ایجاد نسخههای کوانتیزهشده و با پارامترهای پایینتر از Llama شده است که میتوانند روی سختافزار مصرفکننده اجرا شوند. این مدلهای عمومی میتوانند بسیاری از عملکردهای مشابه GPT را برای قدرت محاسباتی بسیار کمتر ارائه دهند، البته به قیمت پارامترهای کمتر و خروجیهای پرمخاطب کمتر.
\ اگر برنامه شما لزوماً به پردازش زمینه های بسیار بزرگ یا تولید خروجی های پرمخاطب وابسته نیست، میزبانی…
سئو PBN | خبر های جدید سئو و هک و سرور