سال گذشته، چارچوب هوش مصنوعی ایمن خود (SAIF) را برای کمک به دیگران برای استقرار ایمن و مسئولانه مدلهای هوش مصنوعی اعلام کردیم. این نه تنها بهترین شیوههای ما را به اشتراک میگذارد، بلکه چارچوبی را برای صنعت، توسعهدهندگان خط مقدم و متخصصان امنیتی ارائه میدهد تا اطمینان حاصل شود که وقتی مدلهای هوش مصنوعی پیادهسازی میشوند، از نظر طراحی ایمن هستند. برای اتخاذ تدابیر امنیتی حیاتی هوش مصنوعی، از اصول SAIF برای کمک به تشکیل ائتلاف برای هوش مصنوعی امن (CoSAI) با شرکای صنعتی استفاده کردیم. امروز، ما ابزار جدیدی را به اشتراک می گذاریم که می تواند به دیگران کمک کند وضعیت امنیتی خود را ارزیابی کنند، این بهترین شیوه ها را به کار گیرند و اصول SAIF را عملی کنند.
ارزیابی ریسک SAIF، که برای استفاده امروز در وبسایت جدید ما SAIF.Google در دسترس است، ابزاری مبتنی بر پرسشنامه است که یک چک لیست فوری و متناسب ایجاد میکند تا پزشکان را برای ایمن کردن سیستمهای هوش مصنوعی خود راهنمایی کند. ما معتقدیم که این ابزار به راحتی در دسترس، شکاف مهمی را برای حرکت اکوسیستم هوش مصنوعی به سمت آینده ای امن تر پر می کند.
ارزیابی ریسک جدید SAIF
ارزیابی ریسک SAIF به تبدیل SAIF از یک چارچوب مفهومی به یک چک لیست عملی برای پزشکانی که مسئول ایمن سازی سیستم های هوش مصنوعی خود هستند کمک می کند. تمرینکنندگان میتوانند این ابزار را در نوار منو صفحه اصلی SAIF.Google جدید پیدا کنند.