LLMs: تحقیقات علوم اعصاب برای همسویی و ایمنی هوش مصنوعی

چه تابع ریاضی جدیدی را می‌توان در پارامترهای مدل‌های زبان بزرگ گنجاند که قصد را در برابر مفید بودن برای آسیب‌هایی مانند دیپ‌فیک ترسیم می‌کنند؟

چه لایه جدیدی را می توان در آموزش یک مدل پایه گنجاند، به گونه ای که به جای داشتن یک خروجی فوری که توهم، مخدوش یا تمایز ایجاد می کند، دارای یک لایه اصلاحی باشد که به سمت دقت و انصاف می رود؟

هم ترازی هوش مصنوعی، ایمنی، تفسیرپذیری و تنظیم بیشتر مشکلات علم مغز هستند تا مهندسی. چندین نقطه ضعف در مدل های زبان بزرگ وجود دارد که ذهن انسان به راحتی آنها را برطرف می کند – ارائه استاندارد برای تکرارهای بعدی LLM برای شکل دادن به ایمنی و استقرار گسترده تر.

مغز انسان پیش بینی نمی کند. از نظر مفهومی، سیگنال‌های الکتریکی در یک مجموعه تقسیم می‌شوند و برخی از آنها جلوتر از دیگران می‌روند تا مانند قبل با سیگنال‌های شیمیایی تعامل کنند، به طوری که اگر ورودی مطابقت داشته باشد، سیگنال‌های دریافتی به طور مشابه دنبال می‌شوند. اگر نه، آنهایی که وارد می شوند در مسیر درست حرکت می کنند. این کدگذاری، پردازش و خطای پیش بینی پیش بینی را توضیح می دهد.

به سادگی، در تجربیات، ادراکات اولیه اغلب ناشی از انشعاب است، به طوری که فرآیندها می توانند سریعتر در ذهن انجام شوند. آنها نشانه بعدی را پیش بینی نمی کنند، برخی آن را درست می گیرند و برخی دیگر مانند LLM ها دچار توهم می شوند.

پس انتشار در …

Source link