تهدیدات سایبری به سرعت تکامل مییابند و برخی از بزرگترین آسیبپذیریها توسط شرکتها یا تولیدکنندگان محصول کشف نمیشوند، بلکه توسط محققان امنیتی خارجی کشف میشوند. به همین دلیل است که ما سابقه طولانی در حمایت از امنیت جمعی از طریق برنامه پاداش آسیب پذیری (VRP)، پروژه صفر و در زمینه امنیت نرم افزار منبع باز داریم. همچنین به همین دلیل است که در اوایل سال جاری به دیگر شرکتهای پیشرو هوش مصنوعی در کاخ سفید ملحق شدیم تا متعهد به پیشبرد کشف آسیبپذیریها در سیستمهای هوش مصنوعی باشیم.
امروز، ما در حال گسترش VRP خود هستیم تا برای سناریوهای حمله خاص به هوش مصنوعی مولد پاداش دهیم. ما بر این باوریم که این امر به تحقیقات در مورد ایمنی و امنیت هوش مصنوعی انگیزه می دهد و مسائل بالقوه را آشکار می کند که در نهایت هوش مصنوعی را برای همه ایمن تر می کند. ما همچنین در حال گسترش کار امنیتی منبع باز خود هستیم تا اطلاعات مربوط به امنیت زنجیره تأمین هوش مصنوعی را به طور جهانی قابل کشف و تأیید کنیم.
فناوری جدید به دستورالعمل های جدید گزارش آسیب پذیری نیاز دارد
به عنوان بخشی از گسترش VRP برای هوش مصنوعی، ما نگاهی تازه به نحوه طبقه بندی و گزارش اشکالات داریم. هوش مصنوعی مولد نگرانی های جدید و متفاوتی را نسبت به امنیت دیجیتال سنتی ایجاد می کند، مانند احتمال سوگیری ناعادلانه، دستکاری مدل یا تفسیر نادرست داده ها (توهم). همانطور که ما به ادغام هوش مصنوعی مولد در محصولات و ویژگیهای بیشتر ادامه میدهیم، تیمهای Trust و Safety ما از چندین دهه تجربه استفاده میکنند و رویکردی جامع برای پیشبینی و آزمایش بهتر این خطرات بالقوه اتخاذ میکنند. اما ما میدانیم که محققان امنیتی خارجی میتوانند به ما کمک کنند تا آسیبپذیریهای جدیدی را پیدا کنیم و آنها را برطرف کنیم که به نوبه خود محصولات هوش مصنوعی تولیدی ما را ایمنتر و ایمنتر میکنند. در ماه اوت، ما به کاخ سفید و همتایان صنعت ملحق شدیم تا هزاران محقق امنیتی شخص ثالث را قادر به یافتن مشکلات احتمالی در بزرگترین رویداد عمومی عمومی Generative AI Red Team DEF CON کنیم. اکنون، از آنجایی که ما در حال گسترش برنامه پاداش باگ هستیم و دستورالعملهای اضافی را برای آنچه که میخواهیم محققان امنیتی دنبال کنند، منتشر میکنیم، این دستورالعملها را به اشتراک میگذاریم تا هرکسی بتواند محدوده محدوده را ببیند. انتظار می رود این باعث شود که محققان امنیتی باگ های بیشتری را ارسال کنند و هدف یک هوش مصنوعی مولد ایمن تر و ایمن تر را تسریع بخشد.
دو روش جدید برای تقویت زنجیره تامین هوش مصنوعی
ما چارچوب هوش مصنوعی امن (SAIF) خود را برای حمایت از صنعت در ایجاد برنامههای کاربردی قابل اعتماد معرفی کردیم و پیادهسازی را از طریق تیمسازی قرمز هوش مصنوعی تشویق کردیم. اولین اصل SAIF این است که اطمینان حاصل شود که اکوسیستم هوش مصنوعی دارای پایه های امنیتی قوی است و این به معنای ایمن سازی اجزای زنجیره تامین حیاتی است که یادگیری ماشین (ML) را در برابر تهدیدهایی مانند دستکاری مدل، مسمومیت داده ها و تولید محتوای مضر امکان پذیر می کند.
امروز، برای محافظت بیشتر در برابر حملات زنجیره تامین یادگیری ماشینی، ما در حال گسترش کار امنیتی منبع باز خود هستیم و بر اساس همکاری قبلی خود با بنیاد امنیت منبع باز هستیم. تیم امنیتی منبع باز Google (GOSST) از SLSA و Sigstore برای محافظت از یکپارچگی کلی زنجیره های تامین هوش مصنوعی استفاده می کند. SLSA شامل مجموعهای از استانداردها و کنترلها برای بهبود انعطافپذیری در زنجیرههای تأمین است، در حالی که Sigstore به تأیید اینکه نرمافزار در زنجیره تأمین همان چیزی است که ادعا میکند، کمک میکند. برای شروع، امروز در دسترس بودن اولین نمونه های اولیه برای امضای مدل با Sigstore و تأیید گواهی با SLSA را اعلام کردیم.
اینها گامهای اولیه برای تضمین توسعه ایمن و ایمن هوش مصنوعی مولد هستند و ما میدانیم که کار تازه شروع شده است. امید ما این است که با تشویق بیشتر به تحقیقات امنیتی در حین اعمال امنیت زنجیره تامین برای هوش مصنوعی، همکاری بیشتری با جامعه امنیتی منبع باز و سایرین در صنعت ایجاد کنیم و در نهایت به ایمنتر شدن هوش مصنوعی برای همه کمک کنیم.