خیلی طولانی نخوانده
این مقاله توضیح میدهد که استفاده نکردن از عوامل حساس مانند نژاد یا جنسیت در الگوریتمها مانع از سوگیری آنها نمیشود. سوگیریها همچنان میتوانند از طریق دادههای مرتبط، مانند موقعیت مکانی یا درآمد، بهعنوان پروکسی به داخل نفوذ کنند. در حالی که برخی کشورها، تحت قوانینی مانند GDPR، از جمع آوری داده ها در مورد این عوامل حساس اجتناب می کنند، این واقعاً سوگیری را حل نمی کند. فقط آن را پنهان می کند زیرا ما نمی توانیم آن را اندازه گیری کنیم. این مقاله در مورد مقررات و مسئولیتپذیری قویتر، نه فقط دستورالعملها، برای مبارزه فعال و اصلاح تعصبات در الگوریتمها بحث میکند. این یک چارچوب حسابرسی دقیق را برای اطمینان از منصفانه و شفاف بودن الگوریتم ها پیشنهاد می کند. (ربات ها گیج شدند، بنابراین این chatgpt ایجاد می شود).