بیایید با یک نکته واضح (اما به شدت نادیده گرفته شده) شروع کنیم: هوش مصنوعی تعصب دارد. ما آن را دریافت می کنیم. تا به حال، ما در مورد سیستم های تشخیص چهره شنیده ایم که به طور غیرقابل توضیحی افراد رنگین پوست را تشخیص نمی دهند، یا الگوریتم هایی را استخدام می کنند که به نظر می رسد مانند نامرئی از روی زنان عبور می کنند. دست کم ناراحت کننده است. اما اینجا جایی است که همه چیز شروع به پیچیده شدن می کند – آیا واقعاً می توانیم کمیت کردن آن تعصب؟ آیا معیاری جادویی وجود دارد که به طور قطعی به ما بگوید که هوش مصنوعی چقدر جانبدارانه است؟
احتمالاً امیدوار هستید که من بگویم بله – اما دست و پنجه نرم کنید. آشفته تر از آن چیزی است که فکر می کنید.
طناب کشی بین تعصب و انصاف
همه میخواهند هوش مصنوعی «بیطرفانه» باشد – اما بیایید صادق باشیم، تعصب یک نقص فنی نیست که بتوان آن را هر روز برطرف کرد. این در دادهها، الگوریتمها، و – منتظر آن باشید – حتی تصورات ما از “عادلانه” وجود دارد. و دقیقاً به همین دلیل است که تلاش می کنید کمیت کردن خیلی لغزنده است
اولین چیزها: تعصب در موقعیت ها یکسان به نظر نمی رسد. یک سیستم تشخیص چهره را در نظر بگیرید: دادههایی که به آن داده میشود ممکن است بهطور نامتناسبی نشاندهنده مردان سفیدپوست باشد، شاید به این دلیل که تصاویر دیجیتال بیشتری از آن گروه در اینترنت شناور است. نتیجه؟ این سیستم برای مردانی مثل من عالی کار میکند و متأسفانه وقتی با افراد با پوست تیرهتر یا زنان مواجه میشود، از کار میافتد. یعنی…