تراز هوش مصنوعی: چه منبع باز برای ایمنی، اخلاق و حکومت LLM ضروری است؟

تعصب یک مشکل در مدل های زبان بزرگ است [LLMs]. اما چگونه می توان تعصب را حل کرد یا کاهش داد؟ این سوال به این معنی است که در مورد مدل‌های پایه آموزشی یا مدل‌های دستیار تنظیم دقیق برای حل سوگیری – از نظر فنی – در LLM چه می‌توان کرد؟

معایب مختلفی از سوگیری هوش مصنوعی در چندین مورد استفاده وجود دارد. این ممکن است نشان دهد که سازمان هایی وجود دارند که علاقه مند به کاهش تعصب هستند. با این حال، آیا جایی وجود دارد که آنها بتوانند برای یافتن مسیرهای تحقیقات فنی برای کشف حل تعصب در هوش مصنوعی بروند؟

نوسانات زیادی در مورد منبع باز در LLM ها وجود دارد – شاید وزن ها، مجموعه داده ها یا کدها – اما حتی اگر همه چیزهایی که برای آموزش یک مدل زبان استفاده می شود منبع باز باشد، چقدر می توان از نظر فنی در آنجا برای حل سوگیری جمع آوری کرد، زیرا بسته شده است. منبع LLM تیم هایی دارند که به همه چیز دسترسی دارند اما قادر به حل آن نیستند.

آنچه می‌توان در مورد سوگیری انجام داد – از نظر فنی – که می‌توان آن را در لیست در دسترس علاقه‌مندان قرار داد، می‌تواند مسیر منبع باز مهم‌تری برای مشکلات در هوش مصنوعی باشد تا بحث در مورد اینکه آیا وزن‌ها یا دیگران منبع باز هستند.

همین امر در مورد ایمنی، همسویی، اخلاق، حاکمیت و مقررات هوش مصنوعی نیز صدق می کند. چه چیزی از نظر فنی قابل انجام است تا هوش مصنوعی در حال و آینده کمتر مورد سوء استفاده قرار گیرد و مضر باشد و در یک انجمن برای کسانی که می خواهند گزینه هایی برای برخورد با مشکلات پیدا کنند در دسترس باشد؟

ایالات متحده یک …

Source link