آزمایشگاه تاثیر – وبلاگ هوش مصنوعی گوگل

فناوری جهانی شده پتانسیل ایجاد تأثیر اجتماعی در مقیاس بزرگ را دارد و داشتن یک رویکرد تحقیقاتی مبتنی بر استانداردهای بین‌المللی حقوق بشر و حقوق شهروندی یک جزء حیاتی برای اطمینان از توسعه و استقرار هوش مصنوعی مسئولانه و اخلاقی است. تیم Impact Lab، بخشی از تیم مسئولیت‌پذیر هوش مصنوعی Google، طیفی از روش‌های بین رشته‌ای را برای اطمینان از تجزیه و تحلیل انتقادی و غنی از پیامدهای بالقوه توسعه فناوری به کار می‌گیرد. ماموریت این تیم بررسی تأثیرات اجتماعی-اقتصادی و حقوق بشری هوش مصنوعی، انتشار تحقیقات بنیادی، و انکوبه کردن روش‌های کاهش‌دهنده جدید است که شاغلین یادگیری ماشین (ML) را قادر می‌سازد تا برابری جهانی را پیش ببرند. ما راه حل های مقیاس پذیر، دقیق و مبتنی بر شواهد را با استفاده از تجزیه و تحلیل داده ها، حقوق بشر و چارچوب های مشارکتی مطالعه و توسعه می دهیم.

منحصر به فرد اهداف آزمایشگاه ایمپکت رویکرد چند رشته ای آن و تنوع تجربیات، از جمله تحقیقات کاربردی و دانشگاهی است. هدف ما گسترش لنز معرفتی هوش مصنوعی مسئولیت پذیر است تا صدای جوامع به حاشیه رانده شده تاریخی را متمرکز کنیم و با ارائه رویکردی مبتنی بر تحقیق برای درک اینکه چگونه دیدگاه ها و تجربیات متفاوت باید بر توسعه فناوری تأثیر بگذارند، بر تحلیل بی اساس تأثیرات غلبه کنیم.

کاری که ما انجام می دهیم

در پاسخ به پیچیدگی فزاینده ML و افزایش جفت بین ML در مقیاس بزرگ و افراد، تیم ما به طور انتقادی مفروضات سنتی را بررسی می کند که چگونه فناوری بر جامعه تأثیر می گذارد تا درک ما از این تعامل را عمیق تر کند. ما با دانشمندان دانشگاهی در زمینه‌های علوم اجتماعی و فلسفه فناوری همکاری می‌کنیم و تحقیقات بنیادی را منتشر می‌کنیم که بر این موضوع تمرکز دارد که چگونه ML می‌تواند مفید و مفید باشد. ما همچنین برای برخی از چالش‌برانگیزترین تلاش‌های سازمانمان، از جمله ابتکار 1000 زبان و کار مداوم در آزمایش و ارزیابی زبان و مدل‌های تولیدی، پشتیبانی تحقیقاتی ارائه می‌کنیم. کار ما به اصول هوش مصنوعی گوگل اهمیت می دهد.

برای این منظور، ما:

  • انجام تحقیقات بنیادی و اکتشافی در راستای هدف ایجاد راه حل های اجتماعی و فنی مقیاس پذیر
  • ایجاد مجموعه داده ها و چارچوب های مبتنی بر تحقیق برای ارزیابی سیستم های ML
  • تعریف، شناسایی و ارزیابی اثرات منفی اجتماعی هوش مصنوعی
  • ایجاد راه حل های مسئول برای جمع آوری داده های مورد استفاده برای ساخت مدل های بزرگ
  • روش‌ها و رویکردهای جدیدی را توسعه دهید که از استقرار مسئولانه مدل‌ها و سیستم‌های ML برای اطمینان از ایمنی، انصاف، استحکام و مسئولیت‌پذیری کاربر پشتیبانی می‌کند.
  • برای درک بهتر نیازها و تأثیرات کاربر، بازخوردهای جامعه خارجی و متخصص را به بینش های تجربی ترجمه کنید
  • به دنبال همکاری عادلانه باشید و برای مشارکت های سودمند متقابل تلاش کنید

ما نه تنها در تلاش هستیم تا چارچوب‌های موجود را برای ارزیابی تأثیر نامطلوب هوش مصنوعی برای پاسخ به سؤالات تحقیقاتی جاه‌طلبانه دوباره تصور کنیم، بلکه تلاش می‌کنیم اهمیت این کار را نیز ارتقا دهیم.

تلاش های پژوهشی جاری

شناخت مشکلات اجتماعی

انگیزه ما برای ارائه ابزارها و رویکردهای تحلیلی دقیق این است که اطمینان حاصل کنیم که تأثیر اجتماعی-فنی و انصاف در رابطه با تفاوت‌های فرهنگی و تاریخی به خوبی درک شده است. این بسیار مهم است، زیرا به توسعه انگیزه و توانایی برای درک بهتر جوامعی که بیشترین بار را تجربه می کنند کمک می کند و ارزش تجزیه و تحلیل دقیق و متمرکز را نشان می دهد. هدف ما مشارکت فعالانه با رهبران فکری بیرونی در این فضای مشکل است، مدل‌های ذهنی موجود خود را در هنگام ارزیابی آسیب‌ها و اثرات بالقوه بازنگری می‌کنیم، و از تکیه بر فرضیات و کلیشه‌های بی‌اساس در فناوری‌های ML اجتناب می‌کنیم. ما با محققانی در استنفورد، دانشگاه کالیفرنیا برکلی، دانشگاه ادینبورگ، بنیاد موزیلا، دانشگاه میشیگان، دانشکده تحصیلات تکمیلی نیروی دریایی، Data & Society، EPFL، دانشگاه ملی استرالیا و دانشگاه مک گیل همکاری می کنیم.

ما مسائل اجتماعی سیستمی را بررسی می کنیم و مصنوعات مفیدی را برای توسعه هوش مصنوعی مسئول تولید می کنیم.

تمرکز صداهای کم بازنمایی شده

ما همچنین میزگرد تحقیقاتی عادلانه هوش مصنوعی (EARR)، یک ائتلاف جدید تحقیقاتی مبتنی بر جامعه را ایجاد کردیم که برای ایجاد مشارکت‌های مداوم با رهبران سازمان‌های غیرانتفاعی و تحقیقاتی خارجی که متخصصان عدالت در زمینه‌های آموزش، قانون، عدالت اجتماعی، اخلاق هوش مصنوعی هستند، ایجاد شده است. توسعه اقتصادی این مشارکت‌ها فرصتی را برای تعامل با کارشناسان چند رشته‌ای در مورد سؤالات تحقیقاتی پیچیده مرتبط با نحوه تمرکز و درک عدالت با استفاده از درس‌هایی از حوزه‌های دیگر ارائه می‌دهند. شرکای ما عبارتند از PolicyLink. اعتماد آموزش و پرورش – غرب; نوتلی; مشارکت در هوش مصنوعی؛ مؤسسه دیگر و تعلق در UC برکلی. مؤسسه مایکلسون برای مالکیت معنوی، HBCU IP Futures Collaborative در دانشگاه اموری؛ مرکز تحقیقات فناوری اطلاعات به نفع جامعه (CITRIS) در موسسه Banatao. و مرکز Charles A. Dana در دانشگاه تگزاس، آستین. اهداف برنامه EARR عبارتند از: (1) تمرکز دانش در مورد تجارب گروه‌های به حاشیه رانده شده یا کم‌نمایش تاریخی، (2) درک و شناسایی کیفی رویکردهای بالقوه برای مطالعه آسیب‌های اجتماعی و مشابه‌های آن‌ها در چارچوب فناوری، و (3) لنز تخصص و دانش مرتبط را گسترش دهید زیرا به کار ما در مورد رویکردهای مسئولانه و ایمن برای توسعه هوش مصنوعی مربوط می شود.

از طریق کارگاه‌ها و بحث‌های نیمه ساختاریافته، EARR دیدگاه‌ها و بازخوردهای انتقادی در مورد چگونگی مفهوم‌سازی برابری و آسیب‌پذیری در ارتباط با فناوری هوش مصنوعی ارائه کرده است. ما با مشارکت کنندگان EARR در طیفی از موضوعات از هوش مصنوعی مولد، تصمیم گیری الگوریتمی، شفافیت و توضیح پذیری، با خروجی های مختلف از پرس و جوهای مخالف تا چارچوب ها و مطالعات موردی، شریک شده ایم. مطمئناً روند تبدیل بینش های تحقیقاتی در بین رشته ها به راه حل های فنی همیشه آسان نیست، اما این تحقیق یک مشارکت مفید بوده است. ما ارزیابی اولیه خود را از این تعامل در این مقاله ارائه می کنیم.

EARR: اجزای چرخه حیات توسعه ML که در آن دانش چند رشته ای برای کاهش تعصبات انسانی کلیدی است.

پایه گذاری در ارزش های مدنی و حقوق بشر

در مشارکت با برنامه مدنی و حقوق بشر ما، فرآیند تحقیق و تحلیل ما بر اساس چارچوب ها و استانداردهای حقوق بشر شناخته شده بین المللی از جمله اعلامیه جهانی حقوق بشر و اصول راهنمای سازمان ملل در زمینه تجارت و حقوق بشر است. استفاده از چارچوب های مدنی و حقوق بشری به عنوان نقطه شروع، امکان یک رویکرد زمینه خاص را برای تحقیق فراهم می کند که نحوه بکارگیری فناوری و تأثیرات آن بر جامعه را در نظر می گیرد. مهم‌تر از همه، رویکرد مبتنی بر حقوق به تحقیق ما را قادر می‌سازد تا روش‌های مفهومی و کاربردی را اولویت‌بندی کنیم که بر اهمیت درک آسیب‌پذیرترین کاربران و برجسته‌ترین آسیب‌ها برای اطلاع‌رسانی بهتر تصمیم‌گیری روزانه، طراحی محصول و بلندمدت تأکید می‌کند. استراتژی ها.

کارهای در حال انجام

زمینه اجتماعی برای کمک به توسعه و ارزیابی مجموعه داده ها

ما به دنبال استفاده از رویکردی برای مدیریت مجموعه داده‌ها، توسعه مدل و ارزیابی هستیم که ریشه در برابری داشته باشد و از رویکردهای سریع اما بالقوه مخاطره‌آمیز مانند استفاده از داده‌های ناقص یا در نظر نگرفتن عوامل فرهنگی تاریخی و اجتماعی مرتبط با مجموعه داده اجتناب کند. جمع آوری و تجزیه و تحلیل مسئولانه داده ها مستلزم سطح بیشتری از بررسی دقیق زمینه ای است که داده ها در آن ایجاد می شوند. برای مثال، ممکن است بین متغیرهای جمعیتی تفاوت‌هایی در نتایج مشاهده شود که برای ساخت مدل‌ها استفاده می‌شوند و باید عوامل ساختاری و سطح سیستم را زیر سوال ببرند زیرا برخی از متغیرها در نهایت می‌توانند بازتابی از عوامل تاریخی، اجتماعی و سیاسی باشند. با استفاده از داده‌های پراکسی، مانند نژاد یا قومیت، جنسیت یا کد پستی، ما به طور سیستماتیک تجربیات زندگی یک گروه از افراد مختلف را با هم ادغام می‌کنیم و از آن برای آموزش مدل‌هایی استفاده می‌کنیم که می‌توانند نمایه‌های شخصیتی مضر و نادرست را بازسازی و حفظ کنند. جمعیت ها تجزیه و تحلیل داده های انتقادی همچنین مستلزم درک دقیق این موضوع است که همبستگی ها یا روابط بین متغیرها دلالت بر علیت ندارند. را اتحادیه اغلب شاهد هستیم باعث توسط متغیرهای چندگانه اضافی

رابطه بین بافت اجتماعی و نتایج مدل

با تکیه بر این درک اجتماعی گسترده و ظریف از ساخت داده‌ها و داده‌ها، ما همچنین به مشکل پیش‌بینی یا بهبود تأثیر مدل‌های ML هنگامی که برای استفاده در دنیای واقعی مستقر شدند، نزدیک می‌شویم. روش‌های بی‌شماری وجود دارد که در آنها استفاده از ML در زمینه‌های مختلف – از آموزش گرفته تا مراقبت‌های بهداشتی – نابرابری موجود را تشدید کرده است، زیرا توسعه‌دهندگان و کاربران تصمیم‌گیرنده این سیستم‌ها فاقد درک اجتماعی مرتبط، زمینه تاریخی هستند و ذینفعان مربوطه را درگیر نمی‌کنند. . این یک چالش تحقیقاتی برای رشته ML به طور کلی است و برای تیم ما بسیار مهم است.

کارشناسان جامعه متمرکز هوش مصنوعی در سطح جهانی

تیم ما همچنین اهمیت درک بافت اجتماعی-فنی در سطح جهانی را تشخیص می دهد. در راستای ماموریت Google برای “سازماندهی اطلاعات جهان و قابل دسترس و مفید ساختن آن برای جهانیان”، تیم ما در حال مشارکت در همکاری های تحقیقاتی در سطح جهانی است. برای مثال، ما با تیم پردازش زبان طبیعی و تیم انسان محور در آزمایشگاه هوش مصنوعی Makerere در اوگاندا برای تحقیق در مورد تفاوت‌های فرهنگی و زبانی در ارتباط با توسعه مدل زبان همکاری می‌کنیم.

نتیجه

ما با انجام تحقیقات فنی-اجتماعی بیشتر و درگیر کردن کارشناسان خارجی که همچنین بخشی از جوامعی هستند که از لحاظ تاریخی و جهانی از حق رای محروم هستند، به بررسی تأثیرات مدل‌های ML مستقر در دنیای واقعی ادامه می‌دهیم. آزمایشگاه Impact مشتاق است رویکردی را ارائه دهد که به توسعه راه‌حل‌هایی برای مشکلات کاربردی از طریق استفاده از علوم اجتماعی، ارزیابی و معرفت‌شناسی حقوق بشر کمک می‌کند.

سپاسگزاریها

مایلیم از تک تک اعضای تیم ایمپکت لب – جمیلا اسمیت لود، اندرو اسمارت، جالون هال، دارلین نیل، امبر ابینما، و قاضی مامونور رشید تشکر کنیم. – برای تمام کارهای سختی که انجام می دهند تا اطمینان حاصل کنند که ML نسبت به کاربران و جامعه خود در سراسر جوامع و در سراسر جهان مسئولیت بیشتری دارد.

سئو PBN | خبر های جدید سئو و هک و سرور