معیارهای استاندارد بر سر روشهایی برای اندازهگیری کیفیتهای مهم محصول توافق شدهاند و در بسیاری از زمینهها وجود دارند. برخی از معیارهای استاندارد ایمنی را اندازهگیری میکنند: برای مثال، هنگامی که یک سازنده خودرو یک «رتبهبندی ایمنی کلی پنج ستاره» را تبلیغ میکند، آنها از یک معیار استناد میکنند. معیارهای استاندارد در حال حاضر در فناوریهای یادگیری ماشین (ML) و هوش مصنوعی وجود دارد: برای مثال، انجمن MLCommons معیارهای MLPerf را اجرا میکند که سرعت سختافزار پیشرفته هوش مصنوعی مانند TPUهای Google را اندازهگیری میکند. با این حال، اگرچه کار قابل توجهی در مورد ایمنی هوش مصنوعی انجام شده است، هنوز هیچ معیار استاندارد مشابهی برای ایمنی هوش مصنوعی وجود ندارد.
ما هیجان زده هستیم که از تلاش جدید انجمن غیرانتفاعی MLCommons برای توسعه معیارهای ایمنی استاندارد هوش مصنوعی حمایت کنیم. توسعه معیارهای موثر و قابل اعتماد مستلزم پیشرفت فناوری تست ایمنی هوش مصنوعی و ترکیب طیف گسترده ای از دیدگاه ها است. تلاش MLCommons با هدف گرد هم آوردن محققان خبره در سراسر دانشگاه و صنعت برای ایجاد معیارهای استاندارد برای اندازهگیری ایمنی سیستمهای هوش مصنوعی به امتیازهایی است که همه میتوانند آن را درک کنند. ما کل جامعه، از محققان هوش مصنوعی گرفته تا کارشناسان سیاست، را تشویق می کنیم تا در این تلاش به ما بپیوندند.
چرا معیارهای ایمنی هوش مصنوعی؟
مانند بسیاری از فناوریهای پیشرفته، هوش مصنوعی دارای پتانسیل مزایای فوقالعاده است، اما همچنین میتواند بدون مراقبت مناسب منجر به نتایج منفی شود. برای مثال، فناوری هوش مصنوعی میتواند بهرهوری انسان را در طیف گستردهای از فعالیتها (به عنوان مثال، بهبود تشخیص سلامت و تحقیق در مورد بیماریها، تجزیه و تحلیل مصرف انرژی و موارد دیگر) افزایش دهد. با این حال، بدون اقدامات احتیاطی کافی، هوش مصنوعی میتواند برای حمایت از فعالیتهای مضر یا مخرب و پاسخگویی به روشهای جانبدارانه یا توهینآمیز مورد استفاده قرار گیرد.
معیارهای استاندارد ایمنی هوش مصنوعی با ارائه معیارهای استاندارد ایمنی در گروههایی مانند استفاده مضر، پاسخهای خارج از محدوده، خطرات کنترل هوش مصنوعی و غیره، میتوانند به جامعه کمک کنند تا از مزایای هوش مصنوعی بهرهمند شود و در عین حال اطمینان حاصل شود که اقدامات احتیاطی کافی برای کاهش آن انجام میشود. این خطرات در ابتدا، معیارهای نوپای ایمنی میتوانند به پیشبرد تحقیقات ایمنی هوش مصنوعی کمک کنند و به توسعه هوش مصنوعی مسئولانه اطلاع دهند. با گذشت زمان و بلوغ، آنها می توانند به اطلاع کاربران و خریداران سیستم های هوش مصنوعی کمک کنند. در نهایت، آنها می توانند ابزار ارزشمندی برای سیاست گذاران باشند.
در سختافزار رایانه، معیارها (به عنوان مثال، SPEC، TPC) توانایی شگفتانگیزی برای همسو کردن تحقیقات، مهندسی و حتی بازاریابی در کل یک صنعت به دنبال پیشرفت نشان دادهاند، و ما معتقدیم که معیارهای استاندارد ایمنی هوش مصنوعی میتوانند به انجام همین کار در این امر حیاتی کمک کنند. حوزه.
معیارهای استاندارد ایمنی هوش مصنوعی چیست؟
تلاشهای تحقیقاتی دانشگاهی و شرکتی با طیف وسیعی از تستهای ایمنی هوش مصنوعی (مثلاً RealToxicityPrompts، عادلانه بودن HELM استانفورد، سوگیری، اندازهگیریهای سمیت، و حفاظهای گوگل برای هوش مصنوعی مولد) آزمایش کردهاند. با این حال، بیشتر این تستها بر ارائه یک اعلان به یک سیستم هوش مصنوعی و امتیازدهی الگوریتمی خروجی تمرکز میکنند که شروع مفیدی است اما محدود به دامنه درخواستهای تست است. علاوه بر این، آنها معمولاً از مجموعه دادههای باز برای درخواستها و پاسخها استفاده میکنند که ممکن است قبلاً (اغلب سهوا) در دادههای آموزشی گنجانده شده باشند.
MLCommons یک فرآیند چند ذینفع را برای انتخاب تستها و گروهبندی آنها در زیرمجموعههایی برای سنجش ایمنی برای موارد استفاده خاص هوش مصنوعی پیشنهاد میکند، و نتایج بسیار فنی آن تستها را به امتیازهایی تبدیل میکند که همه بتوانند آن را درک کنند. MLCommons پیشنهاد میکند پلتفرمی ایجاد کند که این تستهای موجود را در یک مکان گرد هم بیاورد و ایجاد تستهای دقیقتر را تشویق کند که وضعیت هنر را به جلو میبرد. کاربران میتوانند هم از طریق تست آنلاین به این تستها دسترسی داشته باشند، هم از طریق تست آنلاین که میتوانند امتیازات را ایجاد و بررسی کنند و هم تست آفلاین با موتوری برای تست خصوصی.
معیارهای ایمنی هوش مصنوعی باید یک تلاش جمعی باشد
توسعه دهندگان مسئول هوش مصنوعی از طیف متنوعی از اقدامات ایمنی، از جمله آزمایش خودکار، آزمایش دستی، تیم قرمز (که در آن آزمایشکنندگان انسانی تلاش میکنند تا نتایج متخاصم ایجاد کنند)، محدودیتهای اعمالشده توسط نرمافزار، دادهها و بهترین شیوههای مدل، و ممیزی استفاده میکنند. با این حال، تشخیص اینکه اقدامات احتیاطی کافی انجام شده است، می تواند چالش برانگیز باشد، به خصوص که جامعه شرکت های ارائه دهنده سیستم های هوش مصنوعی در حال رشد و تنوع هستند. معیارهای استاندارد هوش مصنوعی می توانند ابزار قدرتمندی برای کمک به رشد مسئولانه جامعه باشند، هم از طریق کمک به فروشندگان و کاربران برای اندازه گیری ایمنی هوش مصنوعی و هم با تشویق اکوسیستمی از منابع و ارائه دهندگان متخصص که بر بهبود ایمنی هوش مصنوعی متمرکز هستند.
در عین حال، توسعه معیارهای ایمنی هوش مصنوعی بالغ که هم موثر و هم قابل اعتماد هستند، بدون مشارکت جامعه امکان پذیر نیست. این تلاش به محققان و مهندسان نیاز دارد تا گرد هم آیند و پیشرفتهای نوآورانه و در عین حال کاربردی را در فناوری تست ایمنی ارائه دهند که آزمایش را هم دقیقتر و هم کارآمدتر میکند. به طور مشابه، شرکت ها باید گرد هم آیند و داده های آزمایشی، پشتیبانی مهندسی و پشتیبانی مالی را ارائه دهند. برخی از جنبههای ایمنی هوش مصنوعی میتواند ذهنی باشد، و ایجاد معیارهای قابل اعتماد که توسط یک اجماع گسترده پشتیبانی میشوند، مستلزم ترکیب دیدگاههای متعدد، از جمله دیدگاههای مدافعان عمومی، سیاستگذاران، دانشگاهیان، مهندسان، کارکنان داده، رهبران تجاری و کارآفرینان است.
پشتیبانی گوگل از MLCommons
بر اساس اصول هوش مصنوعی ما که در سال 2018 اعلام شد، Google متعهد به اقدامات خاصی برای توسعه و استفاده ایمن، ایمن و قابل اعتماد از هوش مصنوعی است (بهروزرسانیهای 2019، 2020، 2021، 2022 ما را ببینید). ما همچنین پیشرفت قابل توجهی در تعهدات کلیدی داشتهایم، که به اطمینان از توسعه هوش مصنوعی شجاعانه و مسئولانه به نفع همه کمک میکند.
گوگل از تلاشهای انجمن MLCommons برای توسعه معیارهای ایمنی هوش مصنوعی به طرق مختلف حمایت میکند.
- پلت فرم تست: ما در حال پیوستن به شرکت های دیگر در تامین بودجه برای حمایت از توسعه یک پلت فرم تست هستیم.
- تخصص فنی و منابع: ما در حال ارائه تخصص فنی و منابعی مانند مجموعه دادههای Monk Skin Tone Examples هستیم تا اطمینان حاصل کنیم که معیارها به خوبی طراحی شده و مؤثر هستند.
- مجموعه داده ها: ما در حال ارائه یک مجموعه داده داخلی برای سوگیری بازنمایی چندزبانه، و همچنین آزمایشهای خارجی برای آسیبهای کلیشهای، مانند SeeGULL و SPICE هستیم. علاوه بر این، ما مجموعه دادههای خود را به اشتراک میگذاریم که بر جمعآوری حاشیهنویسیهای انسانی به طور مسئولانه و فراگیر تمرکز میکنند، مانند DICES و SRP.
جهت آینده
ما معتقدیم که این معیارها برای پیشرفت تحقیقات در ایمنی هوش مصنوعی و حصول اطمینان از توسعه و استقرار سیستم های هوش مصنوعی به شیوه ای مسئولانه بسیار مفید خواهند بود. ایمنی هوش مصنوعی یک مشکل اقدام جمعی است. گروههایی مانند فروم مدل مرزی و مشارکت در هوش مصنوعی نیز ابتکارات مهم استانداردسازی را رهبری میکنند. ما خوشحالیم که بخشی از این گروهها و MLCommons از زمان شروع آنها بودهایم. ما مشتاقانه منتظر تلاش های جمعی بیشتر برای ترویج توسعه مسئولانه ابزارهای مولد جدید هوش مصنوعی هستیم.
سپاسگزاریها
با تشکر فراوان از تیم Google که در این کار مشارکت داشتند: پیتر ماتسون، لورا آریو، کریس ولتی، کتی مایر-هلسترن، پارکر بارنز، تولسی دوشی، مانویندر سینگ، برایان گلدمن، نیتش گویال، آلیس فرند، نیکول دلانژ، کری بارکر، مادلین الیش، شروتی شت، داون بلوکسویچ، ویلیام آیزاک، کریستینا باترفیلد.