حل مسئله تعصب در هوش مصنوعی

عکس پروفایل ITRex Hacker Noon

@itrexITRex

توسعه و مشاوره فناوری نوظهور: هوش مصنوعی. تجزیه و تحلیل پیشرفته فراگیری ماشین. اطلاعات بزرگ. ابر

در سال 2018 ، اتحادیه آزادی های مدنی آمریکا متوجه شد که Amazon Recognition ، فناوری نظارت بر چهره که توسط پلیس و ادارات خواستگاری در سراسر ایالات متحده استفاده می شود ، تعصب AI را نشان می دهد. در طول آزمون ، این نرم افزار به نادرست 28 نفر از اعضای کنگره را با تصاویر زیادی از افرادی که به جرم ارتکاب جرم دستگیر شده اند ، مطابقت داد و 40٪ از موارد تطبیقی ​​دروغین افراد رنگی بودند.

به دنبال اعتراضات گسترده ای که در آن کارکنان آمازون از کمک به ابزارهای هوش مصنوعی که تولید تعصب تشخیص چهره را دارند ، خودداری کردند ، این غول فناوری اعلام کرد که یک سال توقف آژانس های اجرای قانون را با استفاده از این سیستم عامل مهار می کند.

این حادثه بحث جدیدی راجع به تعصب در الگوریتم های هوش مصنوعی برانگیخته و شرکت ها را واداشته است به دنبال راه حل های جدید برای پارادوکس تعصب AI باشند.

در این مقاله ، نقاط ضعف را بیان خواهیم کرد ، در مورد مفهوم ، علل اصلی ، انواع و پیامدهای اخلاقی سوگیری در هوش مصنوعی بزرگنمایی خواهیم کرد ، و همچنین تکنیک های عملی سوias استفاده از مشاوران ما را که ارزش آن را دارد در استراتژی هوش مصنوعی خود ذکر کنید ، ذکر خواهیم کرد.

اما بیایید با اصول شروع کنیم.

سوگیری AI چیست و چرا رخ می دهد؟

A simple definition of AI bias could sound like that: an anomaly in the output of AI...
سئو PBN | خبر های جدید سئو و هک و سرور