چرا نادیده گرفتن عوامل حساس، تعصب و تبعیض الگوریتمی را حل نمی کند؟

خیلی طولانی نخوانده

این مقاله توضیح می‌دهد که استفاده نکردن از عوامل حساس مانند نژاد یا جنسیت در الگوریتم‌ها مانع از سوگیری آن‌ها نمی‌شود. سوگیری‌ها همچنان می‌توانند از طریق داده‌های مرتبط، مانند موقعیت مکانی یا درآمد، به‌عنوان پروکسی به داخل نفوذ کنند. در حالی که برخی کشورها، تحت قوانینی مانند GDPR، از جمع آوری داده ها در مورد این عوامل حساس اجتناب می کنند، این واقعاً سوگیری را حل نمی کند. فقط آن را پنهان می کند زیرا ما نمی توانیم آن را اندازه گیری کنیم. این مقاله در مورد مقررات و مسئولیت‌پذیری قوی‌تر، نه فقط دستورالعمل‌ها، برای مبارزه فعال و اصلاح تعصبات در الگوریتم‌ها بحث می‌کند. این یک چارچوب حسابرسی دقیق را برای اطمینان از منصفانه و شفاف بودن الگوریتم ها پیشنهاد می کند. (ربات ها گیج شدند، بنابراین این chatgpt ایجاد می شود).