فناوری جهانی شده پتانسیل ایجاد تأثیر اجتماعی در مقیاس بزرگ را دارد و داشتن یک رویکرد تحقیقاتی مبتنی بر استانداردهای بینالمللی حقوق بشر و حقوق شهروندی یک جزء حیاتی برای اطمینان از توسعه و استقرار هوش مصنوعی مسئولانه و اخلاقی است. تیم Impact Lab، بخشی از تیم مسئولیتپذیر هوش مصنوعی Google، طیفی از روشهای بین رشتهای را برای اطمینان از تجزیه و تحلیل انتقادی و غنی از پیامدهای بالقوه توسعه فناوری به کار میگیرد. ماموریت این تیم بررسی تأثیرات اجتماعی-اقتصادی و حقوق بشری هوش مصنوعی، انتشار تحقیقات بنیادی، و انکوبه کردن روشهای کاهشدهنده جدید است که شاغلین یادگیری ماشین (ML) را قادر میسازد تا برابری جهانی را پیش ببرند. ما راه حل های مقیاس پذیر، دقیق و مبتنی بر شواهد را با استفاده از تجزیه و تحلیل داده ها، حقوق بشر و چارچوب های مشارکتی مطالعه و توسعه می دهیم.
منحصر به فرد اهداف آزمایشگاه ایمپکت رویکرد چند رشته ای آن و تنوع تجربیات، از جمله تحقیقات کاربردی و دانشگاهی است. هدف ما گسترش لنز معرفتی هوش مصنوعی مسئولیت پذیر است تا صدای جوامع به حاشیه رانده شده تاریخی را متمرکز کنیم و با ارائه رویکردی مبتنی بر تحقیق برای درک اینکه چگونه دیدگاه ها و تجربیات متفاوت باید بر توسعه فناوری تأثیر بگذارند، بر تحلیل بی اساس تأثیرات غلبه کنیم.
کاری که ما انجام می دهیم
در پاسخ به پیچیدگی فزاینده ML و افزایش جفت بین ML در مقیاس بزرگ و افراد، تیم ما به طور انتقادی مفروضات سنتی را بررسی می کند که چگونه فناوری بر جامعه تأثیر می گذارد تا درک ما از این تعامل را عمیق تر کند. ما با دانشمندان دانشگاهی در زمینههای علوم اجتماعی و فلسفه فناوری همکاری میکنیم و تحقیقات بنیادی را منتشر میکنیم که بر این موضوع تمرکز دارد که چگونه ML میتواند مفید و مفید باشد. ما همچنین برای برخی از چالشبرانگیزترین تلاشهای سازمانمان، از جمله ابتکار 1000 زبان و کار مداوم در آزمایش و ارزیابی زبان و مدلهای تولیدی، پشتیبانی تحقیقاتی ارائه میکنیم. کار ما به اصول هوش مصنوعی گوگل اهمیت می دهد.
برای این منظور، ما:
- انجام تحقیقات بنیادی و اکتشافی در راستای هدف ایجاد راه حل های اجتماعی و فنی مقیاس پذیر
- ایجاد مجموعه داده ها و چارچوب های مبتنی بر تحقیق برای ارزیابی سیستم های ML
- تعریف، شناسایی و ارزیابی اثرات منفی اجتماعی هوش مصنوعی
- ایجاد راه حل های مسئول برای جمع آوری داده های مورد استفاده برای ساخت مدل های بزرگ
- روشها و رویکردهای جدیدی را توسعه دهید که از استقرار مسئولانه مدلها و سیستمهای ML برای اطمینان از ایمنی، انصاف، استحکام و مسئولیتپذیری کاربر پشتیبانی میکند.
- برای درک بهتر نیازها و تأثیرات کاربر، بازخوردهای جامعه خارجی و متخصص را به بینش های تجربی ترجمه کنید
- به دنبال همکاری عادلانه باشید و برای مشارکت های سودمند متقابل تلاش کنید
ما نه تنها در تلاش هستیم تا چارچوبهای موجود را برای ارزیابی تأثیر نامطلوب هوش مصنوعی برای پاسخ به سؤالات تحقیقاتی جاهطلبانه دوباره تصور کنیم، بلکه تلاش میکنیم اهمیت این کار را نیز ارتقا دهیم.
تلاش های پژوهشی جاری
شناخت مشکلات اجتماعی
انگیزه ما برای ارائه ابزارها و رویکردهای تحلیلی دقیق این است که اطمینان حاصل کنیم که تأثیر اجتماعی-فنی و انصاف در رابطه با تفاوتهای فرهنگی و تاریخی به خوبی درک شده است. این بسیار مهم است، زیرا به توسعه انگیزه و توانایی برای درک بهتر جوامعی که بیشترین بار را تجربه می کنند کمک می کند و ارزش تجزیه و تحلیل دقیق و متمرکز را نشان می دهد. هدف ما مشارکت فعالانه با رهبران فکری بیرونی در این فضای مشکل است، مدلهای ذهنی موجود خود را در هنگام ارزیابی آسیبها و اثرات بالقوه بازنگری میکنیم، و از تکیه بر فرضیات و کلیشههای بیاساس در فناوریهای ML اجتناب میکنیم. ما با محققانی در استنفورد، دانشگاه کالیفرنیا برکلی، دانشگاه ادینبورگ، بنیاد موزیلا، دانشگاه میشیگان، دانشکده تحصیلات تکمیلی نیروی دریایی، Data & Society، EPFL، دانشگاه ملی استرالیا و دانشگاه مک گیل همکاری می کنیم.
ما مسائل اجتماعی سیستمی را بررسی می کنیم و مصنوعات مفیدی را برای توسعه هوش مصنوعی مسئول تولید می کنیم. |
تمرکز صداهای کم بازنمایی شده
ما همچنین میزگرد تحقیقاتی عادلانه هوش مصنوعی (EARR)، یک ائتلاف جدید تحقیقاتی مبتنی بر جامعه را ایجاد کردیم که برای ایجاد مشارکتهای مداوم با رهبران سازمانهای غیرانتفاعی و تحقیقاتی خارجی که متخصصان عدالت در زمینههای آموزش، قانون، عدالت اجتماعی، اخلاق هوش مصنوعی هستند، ایجاد شده است. توسعه اقتصادی این مشارکتها فرصتی را برای تعامل با کارشناسان چند رشتهای در مورد سؤالات تحقیقاتی پیچیده مرتبط با نحوه تمرکز و درک عدالت با استفاده از درسهایی از حوزههای دیگر ارائه میدهند. شرکای ما عبارتند از PolicyLink. اعتماد آموزش و پرورش – غرب; نوتلی; مشارکت در هوش مصنوعی؛ مؤسسه دیگر و تعلق در UC برکلی. مؤسسه مایکلسون برای مالکیت معنوی، HBCU IP Futures Collaborative در دانشگاه اموری؛ مرکز تحقیقات فناوری اطلاعات به نفع جامعه (CITRIS) در موسسه Banatao. و مرکز Charles A. Dana در دانشگاه تگزاس، آستین. اهداف برنامه EARR عبارتند از: (1) تمرکز دانش در مورد تجارب گروههای به حاشیه رانده شده یا کمنمایش تاریخی، (2) درک و شناسایی کیفی رویکردهای بالقوه برای مطالعه آسیبهای اجتماعی و مشابههای آنها در چارچوب فناوری، و (3) لنز تخصص و دانش مرتبط را گسترش دهید زیرا به کار ما در مورد رویکردهای مسئولانه و ایمن برای توسعه هوش مصنوعی مربوط می شود.
از طریق کارگاهها و بحثهای نیمه ساختاریافته، EARR دیدگاهها و بازخوردهای انتقادی در مورد چگونگی مفهومسازی برابری و آسیبپذیری در ارتباط با فناوری هوش مصنوعی ارائه کرده است. ما با مشارکت کنندگان EARR در طیفی از موضوعات از هوش مصنوعی مولد، تصمیم گیری الگوریتمی، شفافیت و توضیح پذیری، با خروجی های مختلف از پرس و جوهای مخالف تا چارچوب ها و مطالعات موردی، شریک شده ایم. مطمئناً روند تبدیل بینش های تحقیقاتی در بین رشته ها به راه حل های فنی همیشه آسان نیست، اما این تحقیق یک مشارکت مفید بوده است. ما ارزیابی اولیه خود را از این تعامل در این مقاله ارائه می کنیم.
EARR: اجزای چرخه حیات توسعه ML که در آن دانش چند رشته ای برای کاهش تعصبات انسانی کلیدی است. |
پایه گذاری در ارزش های مدنی و حقوق بشر
در مشارکت با برنامه مدنی و حقوق بشر ما، فرآیند تحقیق و تحلیل ما بر اساس چارچوب ها و استانداردهای حقوق بشر شناخته شده بین المللی از جمله اعلامیه جهانی حقوق بشر و اصول راهنمای سازمان ملل در زمینه تجارت و حقوق بشر است. استفاده از چارچوب های مدنی و حقوق بشری به عنوان نقطه شروع، امکان یک رویکرد زمینه خاص را برای تحقیق فراهم می کند که نحوه بکارگیری فناوری و تأثیرات آن بر جامعه را در نظر می گیرد. مهمتر از همه، رویکرد مبتنی بر حقوق به تحقیق ما را قادر میسازد تا روشهای مفهومی و کاربردی را اولویتبندی کنیم که بر اهمیت درک آسیبپذیرترین کاربران و برجستهترین آسیبها برای اطلاعرسانی بهتر تصمیمگیری روزانه، طراحی محصول و بلندمدت تأکید میکند. استراتژی ها.
کارهای در حال انجام
زمینه اجتماعی برای کمک به توسعه و ارزیابی مجموعه داده ها
ما به دنبال استفاده از رویکردی برای مدیریت مجموعه دادهها، توسعه مدل و ارزیابی هستیم که ریشه در برابری داشته باشد و از رویکردهای سریع اما بالقوه مخاطرهآمیز مانند استفاده از دادههای ناقص یا در نظر نگرفتن عوامل فرهنگی تاریخی و اجتماعی مرتبط با مجموعه داده اجتناب کند. جمع آوری و تجزیه و تحلیل مسئولانه داده ها مستلزم سطح بیشتری از بررسی دقیق زمینه ای است که داده ها در آن ایجاد می شوند. برای مثال، ممکن است بین متغیرهای جمعیتی تفاوتهایی در نتایج مشاهده شود که برای ساخت مدلها استفاده میشوند و باید عوامل ساختاری و سطح سیستم را زیر سوال ببرند زیرا برخی از متغیرها در نهایت میتوانند بازتابی از عوامل تاریخی، اجتماعی و سیاسی باشند. با استفاده از دادههای پراکسی، مانند نژاد یا قومیت، جنسیت یا کد پستی، ما به طور سیستماتیک تجربیات زندگی یک گروه از افراد مختلف را با هم ادغام میکنیم و از آن برای آموزش مدلهایی استفاده میکنیم که میتوانند نمایههای شخصیتی مضر و نادرست را بازسازی و حفظ کنند. جمعیت ها تجزیه و تحلیل داده های انتقادی همچنین مستلزم درک دقیق این موضوع است که همبستگی ها یا روابط بین متغیرها دلالت بر علیت ندارند. را اتحادیه اغلب شاهد هستیم باعث توسط متغیرهای چندگانه اضافی
رابطه بین بافت اجتماعی و نتایج مدل
با تکیه بر این درک اجتماعی گسترده و ظریف از ساخت دادهها و دادهها، ما همچنین به مشکل پیشبینی یا بهبود تأثیر مدلهای ML هنگامی که برای استفاده در دنیای واقعی مستقر شدند، نزدیک میشویم. روشهای بیشماری وجود دارد که در آنها استفاده از ML در زمینههای مختلف – از آموزش گرفته تا مراقبتهای بهداشتی – نابرابری موجود را تشدید کرده است، زیرا توسعهدهندگان و کاربران تصمیمگیرنده این سیستمها فاقد درک اجتماعی مرتبط، زمینه تاریخی هستند و ذینفعان مربوطه را درگیر نمیکنند. . این یک چالش تحقیقاتی برای رشته ML به طور کلی است و برای تیم ما بسیار مهم است.
کارشناسان جامعه متمرکز هوش مصنوعی در سطح جهانی
تیم ما همچنین اهمیت درک بافت اجتماعی-فنی در سطح جهانی را تشخیص می دهد. در راستای ماموریت Google برای “سازماندهی اطلاعات جهان و قابل دسترس و مفید ساختن آن برای جهانیان”، تیم ما در حال مشارکت در همکاری های تحقیقاتی در سطح جهانی است. برای مثال، ما با تیم پردازش زبان طبیعی و تیم انسان محور در آزمایشگاه هوش مصنوعی Makerere در اوگاندا برای تحقیق در مورد تفاوتهای فرهنگی و زبانی در ارتباط با توسعه مدل زبان همکاری میکنیم.
نتیجه
ما با انجام تحقیقات فنی-اجتماعی بیشتر و درگیر کردن کارشناسان خارجی که همچنین بخشی از جوامعی هستند که از لحاظ تاریخی و جهانی از حق رای محروم هستند، به بررسی تأثیرات مدلهای ML مستقر در دنیای واقعی ادامه میدهیم. آزمایشگاه Impact مشتاق است رویکردی را ارائه دهد که به توسعه راهحلهایی برای مشکلات کاربردی از طریق استفاده از علوم اجتماعی، ارزیابی و معرفتشناسی حقوق بشر کمک میکند.
سپاسگزاریها
مایلیم از تک تک اعضای تیم ایمپکت لب – جمیلا اسمیت لود، اندرو اسمارت، جالون هال، دارلین نیل، امبر ابینما، و قاضی مامونور رشید تشکر کنیم. – برای تمام کارهای سختی که انجام می دهند تا اطمینان حاصل کنند که ML نسبت به کاربران و جامعه خود در سراسر جوامع و در سراسر جهان مسئولیت بیشتری دارد.