پشتیبانی از معیارهای ایمنی هوش مصنوعی با MLCommons – وبلاگ تحقیقاتی گوگل

معیارهای استاندارد بر سر روش‌هایی برای اندازه‌گیری کیفیت‌های مهم محصول توافق شده‌اند و در بسیاری از زمینه‌ها وجود دارند. برخی از معیارهای استاندارد ایمنی را اندازه‌گیری می‌کنند: برای مثال، هنگامی که یک سازنده خودرو یک «رتبه‌بندی ایمنی کلی پنج ستاره» را تبلیغ می‌کند، آنها از یک معیار استناد می‌کنند. معیارهای استاندارد در حال حاضر در فناوری‌های یادگیری ماشین (ML) و هوش مصنوعی وجود دارد: برای مثال، انجمن MLCommons معیارهای MLPerf را اجرا می‌کند که سرعت سخت‌افزار پیشرفته هوش مصنوعی مانند TPUهای Google را اندازه‌گیری می‌کند. با این حال، اگرچه کار قابل توجهی در مورد ایمنی هوش مصنوعی انجام شده است، هنوز هیچ معیار استاندارد مشابهی برای ایمنی هوش مصنوعی وجود ندارد.

ما هیجان زده هستیم که از تلاش جدید انجمن غیرانتفاعی MLCommons برای توسعه معیارهای ایمنی استاندارد هوش مصنوعی حمایت کنیم. توسعه معیارهای موثر و قابل اعتماد مستلزم پیشرفت فناوری تست ایمنی هوش مصنوعی و ترکیب طیف گسترده ای از دیدگاه ها است. تلاش MLCommons با هدف گرد هم آوردن محققان خبره در سراسر دانشگاه و صنعت برای ایجاد معیارهای استاندارد برای اندازه‌گیری ایمنی سیستم‌های هوش مصنوعی به امتیازهایی است که همه می‌توانند آن را درک کنند. ما کل جامعه، از محققان هوش مصنوعی گرفته تا کارشناسان سیاست، را تشویق می کنیم تا در این تلاش به ما بپیوندند.

چرا معیارهای ایمنی هوش مصنوعی؟

مانند بسیاری از فناوری‌های پیشرفته، هوش مصنوعی دارای پتانسیل مزایای فوق‌العاده است، اما همچنین می‌تواند بدون مراقبت مناسب منجر به نتایج منفی شود. برای مثال، فناوری هوش مصنوعی می‌تواند بهره‌وری انسان را در طیف گسترده‌ای از فعالیت‌ها (به عنوان مثال، بهبود تشخیص سلامت و تحقیق در مورد بیماری‌ها، تجزیه و تحلیل مصرف انرژی و موارد دیگر) افزایش دهد. با این حال، بدون اقدامات احتیاطی کافی، هوش مصنوعی می‌تواند برای حمایت از فعالیت‌های مضر یا مخرب و پاسخ‌گویی به روش‌های جانبدارانه یا توهین‌آمیز مورد استفاده قرار گیرد.

معیارهای استاندارد ایمنی هوش مصنوعی با ارائه معیارهای استاندارد ایمنی در گروه‌هایی مانند استفاده مضر، پاسخ‌های خارج از محدوده، خطرات کنترل هوش مصنوعی و غیره، می‌توانند به جامعه کمک کنند تا از مزایای هوش مصنوعی بهره‌مند شود و در عین حال اطمینان حاصل شود که اقدامات احتیاطی کافی برای کاهش آن انجام می‌شود. این خطرات در ابتدا، معیارهای نوپای ایمنی می‌توانند به پیشبرد تحقیقات ایمنی هوش مصنوعی کمک کنند و به توسعه هوش مصنوعی مسئولانه اطلاع دهند. با گذشت زمان و بلوغ، آنها می توانند به اطلاع کاربران و خریداران سیستم های هوش مصنوعی کمک کنند. در نهایت، آنها می توانند ابزار ارزشمندی برای سیاست گذاران باشند.

در سخت‌افزار رایانه، معیارها (به عنوان مثال، SPEC، TPC) توانایی شگفت‌انگیزی برای همسو کردن تحقیقات، مهندسی و حتی بازاریابی در کل یک صنعت به دنبال پیشرفت نشان داده‌اند، و ما معتقدیم که معیارهای استاندارد ایمنی هوش مصنوعی می‌توانند به انجام همین کار در این امر حیاتی کمک کنند. حوزه.

معیارهای استاندارد ایمنی هوش مصنوعی چیست؟

تلاش‌های تحقیقاتی دانشگاهی و شرکتی با طیف وسیعی از تست‌های ایمنی هوش مصنوعی (مثلاً RealToxicityPrompts، عادلانه بودن HELM استانفورد، سوگیری، اندازه‌گیری‌های سمیت، و حفاظ‌های گوگل برای هوش مصنوعی مولد) آزمایش کرده‌اند. با این حال، بیشتر این تست‌ها بر ارائه یک اعلان به یک سیستم هوش مصنوعی و امتیازدهی الگوریتمی خروجی تمرکز می‌کنند که شروع مفیدی است اما محدود به دامنه درخواست‌های تست است. علاوه بر این، آنها معمولاً از مجموعه داده‌های باز برای درخواست‌ها و پاسخ‌ها استفاده می‌کنند که ممکن است قبلاً (اغلب سهوا) در داده‌های آموزشی گنجانده شده باشند.

MLCommons یک فرآیند چند ذی‌نفع را برای انتخاب تست‌ها و گروه‌بندی آن‌ها در زیرمجموعه‌هایی برای سنجش ایمنی برای موارد استفاده خاص هوش مصنوعی پیشنهاد می‌کند، و نتایج بسیار فنی آن تست‌ها را به امتیازهایی تبدیل می‌کند که همه بتوانند آن را درک کنند. MLCommons پیشنهاد می‌کند پلتفرمی ایجاد کند که این تست‌های موجود را در یک مکان گرد هم بیاورد و ایجاد تست‌های دقیق‌تر را تشویق کند که وضعیت هنر را به جلو می‌برد. کاربران می‌توانند هم از طریق تست آنلاین به این تست‌ها دسترسی داشته باشند، هم از طریق تست آنلاین که می‌توانند امتیازات را ایجاد و بررسی کنند و هم تست آفلاین با موتوری برای تست خصوصی.

معیارهای ایمنی هوش مصنوعی باید یک تلاش جمعی باشد

توسعه دهندگان مسئول هوش مصنوعی از طیف متنوعی از اقدامات ایمنی، از جمله آزمایش خودکار، آزمایش دستی، تیم قرمز (که در آن آزمایش‌کنندگان انسانی تلاش می‌کنند تا نتایج متخاصم ایجاد کنند)، محدودیت‌های اعمال‌شده توسط نرم‌افزار، داده‌ها و بهترین شیوه‌های مدل، و ممیزی استفاده می‌کنند. با این حال، تشخیص اینکه اقدامات احتیاطی کافی انجام شده است، می تواند چالش برانگیز باشد، به خصوص که جامعه شرکت های ارائه دهنده سیستم های هوش مصنوعی در حال رشد و تنوع هستند. معیارهای استاندارد هوش مصنوعی می توانند ابزار قدرتمندی برای کمک به رشد مسئولانه جامعه باشند، هم از طریق کمک به فروشندگان و کاربران برای اندازه گیری ایمنی هوش مصنوعی و هم با تشویق اکوسیستمی از منابع و ارائه دهندگان متخصص که بر بهبود ایمنی هوش مصنوعی متمرکز هستند.

در عین حال، توسعه معیارهای ایمنی هوش مصنوعی بالغ که هم موثر و هم قابل اعتماد هستند، بدون مشارکت جامعه امکان پذیر نیست. این تلاش به محققان و مهندسان نیاز دارد تا گرد هم آیند و پیشرفت‌های نوآورانه و در عین حال کاربردی را در فناوری تست ایمنی ارائه دهند که آزمایش را هم دقیق‌تر و هم کارآمدتر می‌کند. به طور مشابه، شرکت ها باید گرد هم آیند و داده های آزمایشی، پشتیبانی مهندسی و پشتیبانی مالی را ارائه دهند. برخی از جنبه‌های ایمنی هوش مصنوعی می‌تواند ذهنی باشد، و ایجاد معیارهای قابل اعتماد که توسط یک اجماع گسترده پشتیبانی می‌شوند، مستلزم ترکیب دیدگاه‌های متعدد، از جمله دیدگاه‌های مدافعان عمومی، سیاست‌گذاران، دانشگاهیان، مهندسان، کارکنان داده، رهبران تجاری و کارآفرینان است.

پشتیبانی گوگل از MLCommons

بر اساس اصول هوش مصنوعی ما که در سال 2018 اعلام شد، Google متعهد به اقدامات خاصی برای توسعه و استفاده ایمن، ایمن و قابل اعتماد از هوش مصنوعی است (به‌روزرسانی‌های 2019، 2020، 2021، 2022 ما را ببینید). ما همچنین پیشرفت قابل توجهی در تعهدات کلیدی داشته‌ایم، که به اطمینان از توسعه هوش مصنوعی شجاعانه و مسئولانه به نفع همه کمک می‌کند.

گوگل از تلاش‌های انجمن MLCommons برای توسعه معیارهای ایمنی هوش مصنوعی به طرق مختلف حمایت می‌کند.

  1. پلت فرم تست: ما در حال پیوستن به شرکت های دیگر در تامین بودجه برای حمایت از توسعه یک پلت فرم تست هستیم.
  2. تخصص فنی و منابع: ما در حال ارائه تخصص فنی و منابعی مانند مجموعه داده‌های Monk Skin Tone Examples هستیم تا اطمینان حاصل کنیم که معیارها به خوبی طراحی شده و مؤثر هستند.
  3. مجموعه داده ها: ما در حال ارائه یک مجموعه داده داخلی برای سوگیری بازنمایی چندزبانه، و همچنین آزمایش‌های خارجی برای آسیب‌های کلیشه‌ای، مانند SeeGULL و SPICE هستیم. علاوه بر این، ما مجموعه داده‌های خود را به اشتراک می‌گذاریم که بر جمع‌آوری حاشیه‌نویسی‌های انسانی به طور مسئولانه و فراگیر تمرکز می‌کنند، مانند DICES و SRP.

جهت آینده

ما معتقدیم که این معیارها برای پیشرفت تحقیقات در ایمنی هوش مصنوعی و حصول اطمینان از توسعه و استقرار سیستم های هوش مصنوعی به شیوه ای مسئولانه بسیار مفید خواهند بود. ایمنی هوش مصنوعی یک مشکل اقدام جمعی است. گروه‌هایی مانند فروم مدل مرزی و مشارکت در هوش مصنوعی نیز ابتکارات مهم استانداردسازی را رهبری می‌کنند. ما خوشحالیم که بخشی از این گروه‌ها و MLCommons از زمان شروع آنها بوده‌ایم. ما مشتاقانه منتظر تلاش های جمعی بیشتر برای ترویج توسعه مسئولانه ابزارهای مولد جدید هوش مصنوعی هستیم.

سپاسگزاریها

با تشکر فراوان از تیم Google که در این کار مشارکت داشتند: پیتر ماتسون، لورا آریو، کریس ولتی، کتی مایر-هلسترن، پارکر بارنز، تولسی دوشی، مانویندر سینگ، برایان گلدمن، نیتش گویال، آلیس فرند، نیکول دلانژ، کری بارکر، مادلین الیش، شروتی شت، داون بلوکسویچ، ویلیام آیزاک، کریستینا باترفیلد.