RAG: مقدمه ای برای مبتدیان

بسیاری از ما با مدل‌های زبان بزرگ (LLM) مانند GPT-4 تعامل داشته‌ایم و آن‌ها چشمگیر بوده‌اند. با این حال، ممکن است تعجب کرده باشید: اگر بخواهم اطلاعات شخصی یا سند طولانی خود را به یک هوش مصنوعی بدهم و اطلاعات خاصی را از آن استخراج کنم، چه؟

\ در این پست وبلاگ، ما موارد زیر را بررسی خواهیم کرد:

  • مشکلات با LLM های سنتی
  • Retrieval-Augmented Generation (RAG) چیست؟
  • RAG چگونه کار می کند
  • پیاده سازی دنیای واقعی RAG

\

مشکلات با LLM های سنتی

در حالی که LLM ها شیوه تعامل ما با فناوری را متحول کرده اند، با محدودیت های قابل توجهی همراه هستند:

  • توهم: LLM ها گاهی دچار توهم می شوند، به این معنی که پاسخ های واقعی نادرست را ارائه می دهند. این به این دلیل اتفاق می‌افتد که آنها پاسخ‌هایی را بر اساس الگوهای موجود در داده‌هایی که بر روی آنها آموزش دیده‌اند، تولید می‌کنند، نه همیشه بر اساس حقایق تأیید شده. مثال: یک هوش مصنوعی ممکن است بیان کند که یک رویداد تاریخی در سالی رخ داده است که این اتفاق رخ نداده است.

\

  • دانش منسوخ شده: مدل هایی مانند GPT-4 دارای یک تاریخ قطع دانش (به عنوان مثال، می 2024). آنها فاقد اطلاعات در مورد رویدادها یا تحولاتی هستند که پس از این تاریخ رخ داده است. دلالت: هوش مصنوعی نمی تواند اطلاعاتی در مورد پیشرفت ها، اخبار یا داده های اخیر ارائه دهد.

\

  • دلیل غیر قابل ردیابی: LLM ها اغلب پاسخ هایی را بدون منابع روشن ارائه می دهند که منجر به استدلال غیر قابل ردیابی. شفافیت: کاربران…

Source link