چگونه مشکل سوگیری هوش مصنوعی می تواند بر برنامه شغلی بعدی شما تأثیر بگذارد

زمانی که جویندگان کار فناوری توسط تعصب هوش مصنوعی مسدود می شوند درخواست برای نقش ها. اگرچه برای متخصصان منابع انسانی، هوش مصنوعی ژنرال پتانسیل زیادی برای خودکارسازی کارهای خسته کننده دارد، تمایل آن به سمت سوگیری همچنان دلیلی برای نگرانی است.

تعصب هوش مصنوعی در استخدام زمانی به وجود می آید که سیستم ها و ابزارهایی که برای غربالگری و انتخاب نامزدها استفاده می شوند، به طور ناخواسته تعصبات موجود را تداوم یا حتی تقویت کنند.

این سوگیری ها اغلب از داده هایی که این سیستم ها بر روی آنها آموزش می بینند ناشی می شود، که می تواند منعکس کننده پیشداوری های اجتماعی یا الگوهای استخدام تاریخی باشد که به نفع برخی جمعیت شناسی بر دیگران است.

گاهی اوقات تعصب هوش مصنوعی به دلیل خود طراحی است که منعکس کننده سوگیری های ناخودآگاه توسعه دهندگان آن است، در حالی که حلقه های بازخورد به این معنی است که اگر یک سیستم به طور مداوم نامزدهایی را از پس زمینه های مشابه انتخاب کند، این کار را ادامه می دهد مگر اینکه اصلاح شود.

تعصب داخلی می تواند بر شما تأثیر بگذارد جستجوی کار به طور قابل ملاحظه. در حالی که گزارش‌ها در مورد سوگیری‌ها در سیستم‌های ردیابی متقاضی (ATS) گسترده شده است، که رزومه‌ها را برای کلمات کلیدی در مشخصات شغلی و کلمات کلیدی که با نامزدهای موفق قبلی همسو هستند، اسکن می‌کنند، آزمایش اخیر نشان می دهد که تعصب هوش مصنوعی چقدر می تواند طاس باشد.

تعصب در عمل

با استفاده از نام‌های ساختگی اما «از نظر جمعیتی متمایز» برای رزومه‌های دارای شرایط یکسان، از ChatGPT 3.5 خواسته شد تا متقاضیان را در برابر شغل واقعی رتبه‌بندی کند.

Source link