تعصب یک مشکل در مدل های زبان بزرگ است [LLMs]. اما چگونه می توان تعصب را حل کرد یا کاهش داد؟ این سوال به این معنی است که در مورد مدلهای پایه آموزشی یا مدلهای دستیار تنظیم دقیق برای حل سوگیری – از نظر فنی – در LLM چه میتوان کرد؟
معایب مختلفی از سوگیری هوش مصنوعی در چندین مورد استفاده وجود دارد. این ممکن است نشان دهد که سازمان هایی وجود دارند که علاقه مند به کاهش تعصب هستند. با این حال، آیا جایی وجود دارد که آنها بتوانند برای یافتن مسیرهای تحقیقات فنی برای کشف حل تعصب در هوش مصنوعی بروند؟
نوسانات زیادی در مورد منبع باز در LLM ها وجود دارد – شاید وزن ها، مجموعه داده ها یا کدها – اما حتی اگر همه چیزهایی که برای آموزش یک مدل زبان استفاده می شود منبع باز باشد، چقدر می توان از نظر فنی در آنجا برای حل سوگیری جمع آوری کرد، زیرا بسته شده است. منبع LLM تیم هایی دارند که به همه چیز دسترسی دارند اما قادر به حل آن نیستند.
آنچه میتوان در مورد سوگیری انجام داد – از نظر فنی – که میتوان آن را در لیست در دسترس علاقهمندان قرار داد، میتواند مسیر منبع باز مهمتری برای مشکلات در هوش مصنوعی باشد تا بحث در مورد اینکه آیا وزنها یا دیگران منبع باز هستند.
همین امر در مورد ایمنی، همسویی، اخلاق، حاکمیت و مقررات هوش مصنوعی نیز صدق می کند. چه چیزی از نظر فنی قابل انجام است تا هوش مصنوعی در حال و آینده کمتر مورد سوء استفاده قرار گیرد و مضر باشد و در یک انجمن برای کسانی که می خواهند گزینه هایی برای برخورد با مشکلات پیدا کنند در دسترس باشد؟
ایالات متحده یک …