چگونه گوگل تعهد خود را به هوش مصنوعی ایمن گسترش می دهد

تهدیدات سایبری به سرعت تکامل می‌یابند و برخی از بزرگترین آسیب‌پذیری‌ها توسط شرکت‌ها یا تولیدکنندگان محصول کشف نمی‌شوند، بلکه توسط محققان امنیتی خارجی کشف می‌شوند. به همین دلیل است که ما سابقه طولانی در حمایت از امنیت جمعی از طریق برنامه پاداش آسیب پذیری (VRP)، پروژه صفر و در زمینه امنیت نرم افزار منبع باز داریم. همچنین به همین دلیل است که در اوایل سال جاری به دیگر شرکت‌های پیشرو هوش مصنوعی در کاخ سفید ملحق شدیم تا متعهد به پیشبرد کشف آسیب‌پذیری‌ها در سیستم‌های هوش مصنوعی باشیم.

امروز، ما در حال گسترش VRP خود هستیم تا برای سناریوهای حمله خاص به هوش مصنوعی مولد پاداش دهیم. ما بر این باوریم که این امر به تحقیقات در مورد ایمنی و امنیت هوش مصنوعی انگیزه می دهد و مسائل بالقوه را آشکار می کند که در نهایت هوش مصنوعی را برای همه ایمن تر می کند. ما همچنین در حال گسترش کار امنیتی منبع باز خود هستیم تا اطلاعات مربوط به امنیت زنجیره تأمین هوش مصنوعی را به طور جهانی قابل کشف و تأیید کنیم.

فناوری جدید به دستورالعمل های جدید گزارش آسیب پذیری نیاز دارد

به عنوان بخشی از گسترش VRP برای هوش مصنوعی، ما نگاهی تازه به نحوه طبقه بندی و گزارش اشکالات داریم. هوش مصنوعی مولد نگرانی های جدید و متفاوتی را نسبت به امنیت دیجیتال سنتی ایجاد می کند، مانند احتمال سوگیری ناعادلانه، دستکاری مدل یا تفسیر نادرست داده ها (توهم). همانطور که ما به ادغام هوش مصنوعی مولد در محصولات و ویژگی‌های بیشتر ادامه می‌دهیم، تیم‌های Trust و Safety ما از چندین دهه تجربه استفاده می‌کنند و رویکردی جامع برای پیش‌بینی و آزمایش بهتر این خطرات بالقوه اتخاذ می‌کنند. اما ما می‌دانیم که محققان امنیتی خارجی می‌توانند به ما کمک کنند تا آسیب‌پذیری‌های جدیدی را پیدا کنیم و آن‌ها را برطرف کنیم که به نوبه خود محصولات هوش مصنوعی تولیدی ما را ایمن‌تر و ایمن‌تر می‌کنند. در ماه اوت، ما به کاخ سفید و همتایان صنعت ملحق شدیم تا هزاران محقق امنیتی شخص ثالث را قادر به یافتن مشکلات احتمالی در بزرگترین رویداد عمومی عمومی Generative AI Red Team DEF CON کنیم. اکنون، از آنجایی که ما در حال گسترش برنامه پاداش باگ هستیم و دستورالعمل‌های اضافی را برای آنچه که می‌خواهیم محققان امنیتی دنبال کنند، منتشر می‌کنیم، این دستورالعمل‌ها را به اشتراک می‌گذاریم تا هرکسی بتواند محدوده محدوده را ببیند. انتظار می رود این باعث شود که محققان امنیتی باگ های بیشتری را ارسال کنند و هدف یک هوش مصنوعی مولد ایمن تر و ایمن تر را تسریع بخشد.

دو روش جدید برای تقویت زنجیره تامین هوش مصنوعی

ما چارچوب هوش مصنوعی امن (SAIF) خود را برای حمایت از صنعت در ایجاد برنامه‌های کاربردی قابل اعتماد معرفی کردیم و پیاده‌سازی را از طریق تیم‌سازی قرمز هوش مصنوعی تشویق کردیم. اولین اصل SAIF این است که اطمینان حاصل شود که اکوسیستم هوش مصنوعی دارای پایه های امنیتی قوی است و این به معنای ایمن سازی اجزای زنجیره تامین حیاتی است که یادگیری ماشین (ML) را در برابر تهدیدهایی مانند دستکاری مدل، مسمومیت داده ها و تولید محتوای مضر امکان پذیر می کند.

امروز، برای محافظت بیشتر در برابر حملات زنجیره تامین یادگیری ماشینی، ما در حال گسترش کار امنیتی منبع باز خود هستیم و بر اساس همکاری قبلی خود با بنیاد امنیت منبع باز هستیم. تیم امنیتی منبع باز Google (GOSST) از SLSA و Sigstore برای محافظت از یکپارچگی کلی زنجیره های تامین هوش مصنوعی استفاده می کند. SLSA شامل مجموعه‌ای از استانداردها و کنترل‌ها برای بهبود انعطاف‌پذیری در زنجیره‌های تأمین است، در حالی که Sigstore به تأیید اینکه نرم‌افزار در زنجیره تأمین همان چیزی است که ادعا می‌کند، کمک می‌کند. برای شروع، امروز در دسترس بودن اولین نمونه های اولیه برای امضای مدل با Sigstore و تأیید گواهی با SLSA را اعلام کردیم.

اینها گام‌های اولیه برای تضمین توسعه ایمن و ایمن هوش مصنوعی مولد هستند و ما می‌دانیم که کار تازه شروع شده است. امید ما این است که با تشویق بیشتر به تحقیقات امنیتی در حین اعمال امنیت زنجیره تامین برای هوش مصنوعی، همکاری بیشتری با جامعه امنیتی منبع باز و سایرین در صنعت ایجاد کنیم و در نهایت به ایمن‌تر شدن هوش مصنوعی برای همه کمک کنیم.