چرا دانشمندان داده شما با توهمات هوش مصنوعی مبارزه خواهند کرد؟

یکی از دانشمندان داده اخیراً با من بحث کرد که ما باید استفاده از اصطلاح “توهم” را متوقف کنیم و فقط این خروجی ها را آنچه واقعاً هستند بنامیم: خطاها. فرض ساده است – خطا نامیدن آنها انتظارات معقول تری را برای رفتار هوش مصنوعی ایجاد می کند. در حالی که این استدلال ممکن است برای کسی که از یک پیشینه آماری یا برنامه‌نویسی می‌آید، منطقی باشد، اما اساساً به درستی درک نمی‌کند که هوش مصنوعی چگونه کار می‌کند و چرا اصطلاح «توهم» در واقع مناسب‌تر است، هرچند ناقص.

سوء تفاهم از ماهیت هوش مصنوعی

از دیدگاه آماری، خطا انحراف از یک مقدار یا استاندارد شناخته شده است. اندازه‌گیری آن آسان است، تشخیص آن آسان است، و حس روشنی از درست و غلط وجود دارد. اگر مدلی 20% احتمال را در حالی که احتمال واقعی 30% است پیش بینی کند، آن را خطا می نامیم. ما می توانیم این انحراف را اندازه گیری کنیم، مدل را تنظیم کنیم و به جلو حرکت کنیم.

برای یک دانشمند داده که عادت به کار در این چارچوب دارد، طبیعی است که خروجی های LLM را که در واقع نادرست هستند، فقط به عنوان نوع دیگری از خطا ببینند. اگر یک مدل هوش مصنوعی بگوید: “یک دایره دارای سه ضلع است”، به وضوح مرتکب اشتباه شده است – مانند یک مدل رگرسیون که یک نقطه پرت عجیب و غریب ایجاد می کند. مشکل این مقایسه این است که یک تعریف محدود از خطا را برای سیستمی اعمال می کند که زبان تولید می کند، نه …

Source link