آیا تعصب در هوش مصنوعی قابل سنجش است؟

بیایید با یک نکته واضح (اما به شدت نادیده گرفته شده) شروع کنیم: هوش مصنوعی تعصب دارد. ما آن را دریافت می کنیم. تا به حال، ما در مورد سیستم های تشخیص چهره شنیده ایم که به طور غیرقابل توضیحی افراد رنگین پوست را تشخیص نمی دهند، یا الگوریتم هایی را استخدام می کنند که به نظر می رسد مانند نامرئی از روی زنان عبور می کنند. دست کم ناراحت کننده است. اما اینجا جایی است که همه چیز شروع به پیچیده شدن می کند – آیا واقعاً می توانیم کمیت کردن آن تعصب؟ آیا معیاری جادویی وجود دارد که به طور قطعی به ما بگوید که هوش مصنوعی چقدر جانبدارانه است؟

احتمالاً امیدوار هستید که من بگویم بله – اما دست و پنجه نرم کنید. آشفته تر از آن چیزی است که فکر می کنید.

طناب کشی بین تعصب و انصاف

همه می‌خواهند هوش مصنوعی «بی‌طرفانه» باشد – اما بیایید صادق باشیم، تعصب یک نقص فنی نیست که بتوان آن را هر روز برطرف کرد. این در داده‌ها، الگوریتم‌ها، و – منتظر آن باشید – حتی تصورات ما از “عادلانه” وجود دارد. و دقیقاً به همین دلیل است که تلاش می کنید کمیت کردن خیلی لغزنده است

اولین چیزها: تعصب در موقعیت ها یکسان به نظر نمی رسد. یک سیستم تشخیص چهره را در نظر بگیرید: داده‌هایی که به آن داده می‌شود ممکن است به‌طور نامتناسبی نشان‌دهنده مردان سفیدپوست باشد، شاید به این دلیل که تصاویر دیجیتال بیشتری از آن گروه در اینترنت شناور است. نتیجه؟ این سیستم برای مردانی مثل من عالی کار می‌کند و متأسفانه وقتی با افراد با پوست تیره‌تر یا زنان مواجه می‌شود، از کار می‌افتد. یعنی…

Source link