RAG. RAG. RAG.
در رقابت برای پیادهسازی هوش مصنوعی در فرآیندها و محصولات کسبوکار، یک روند نگرانکننده وجود دارد: وسواس با Retrieval-Augmented Generation (RAG). در حالی که RAG – روشی که مدلهای زبان بزرگ (LLM) را با بازیابی دانش خارجی ترکیب میکند – به طور غیرقابل انکاری راههای جدیدی را برای تعامل با دانش باز کرده است، بسیاری از پزشکان در حال مبارزه با آن هستند.
زمان آن فرا رسیده است که گفتگو پیرامون پیاده سازی هوش مصنوعی را مجدداً تنظیم کنیم، مشکلات اتکای بیش از حد به RAG را تصدیق کنیم و رویکردهای جایگزینی را که ممکن است مناسب تر، مقرون به صرفه تر و زیباتر باشند، بررسی کنیم.
The RAG Mania: Overkill for Many Use Cases
RAG برای بسیاری از مهندسان هوش مصنوعی که میخواهند دقت مدلهای زبان را با ارائه زمینههای خارجی بهبود بخشند، تبدیل به تکنیکی شده است. فرضیه به اندازه کافی ساده است: با آپلود مقادیر زیادی متن در فروشگاههای برداری، این سیستمهای هوش مصنوعی میتوانند اسناد مربوطه را جستجو کنند، دادهها را بازیابی کنند و آنها را با تواناییهای تولیدی مدل زبان ترکیب کنند تا پاسخهای دقیقتری تولید کنند.
با این حال، اشتیاق برای RAG منجر به انفجاری از پیاده سازی هایی شده است که سودمندی آن را بیش از حد تخمین می زنند. غیرعادی نیست که مهندسان میلیونها سند را به فروشگاههای وکتور میریزند، هزینههای ذخیرهسازی ابری و پردازش را بدون …