پارادوکس تعمیم یک شات: چرا هوش مصنوعی مولد با اطلاعات جدید مبارزه می کند؟

هوش مصنوعی مولد چیزی کمتر از یک گردباد تکنولوژیکی نبوده است. مدل هایی مانند GPT-4 با ظرفیت سورئال خود برای تولید متنی که مکالمه انسانی را تقلید می کند، مقاله می نویسد، کد می نویسد، و حتی راه حل های خلاقانه ای برای برخی از کارهای نسبتاً پیچیده ارائه می دهد، طوفانی به جهان زده اند. ما دائماً به آینده‌ای با کمک هوش مصنوعی نزدیک‌تر می‌شویم، آینده‌ای که در آن دستیاران دیجیتال ما بدون زحمت نیازهای ما را درک کرده و به آنها پاسخ خواهند داد. همین کافی است که کسی را مؤمن بسازید، درست است؟

خوب، تقریبا … اما نه کاملا.

ببینید، در زیر درخشش خروجی زرق و برق GPT و ظرافت دستوری آن، یک محدودیت اساسی وجود دارد، محدودیتی که بسیاری از ما فناوران را دیوانه می کند: هوش مصنوعی مولد برای مدیریت اطلاعات کاملاً جدید، به ویژه در سناریوهای یادگیری تک شات تلاش می کند. این مسئله به ظاهر ساده (در عین حال خسته کننده) یک شکاف مرکزی را در سیستم های هوش مصنوعی فعلی نشان می دهد. علیرغم اینکه قادر به ترکیب گذرهای چشمگیر از میلیاردها نقطه داده هستند، هنگامی که وظیفه جدید بودن واقعی را بر عهده می گیرند – چیزی که قبلاً ندیده یا در مورد آن آموزش ندیده است – مدل های سبک GPT با دیوار ذاتی برخورد می کنند.

این تصویری از آنچه من می نامم را ترسیم می کند “پارادوکس تعمیم یک شات”: مهم نیست که چقدر قدرتمند، مهم نیست که چقدر سیستم‌های هوش مصنوعی مانند GPT «هوشمند» به نظر می‌رسند، زمانی که نیاز به تعمیم سریع از یک یا کوچک…

Source link