پتانسیل هوش مصنوعی، به ویژه هوش مصنوعی مولد، بسیار زیاد است. با این حال، در تعقیب پیشرفت در این مرزهای نوآوری جدید، باید استانداردهای امنیتی صنعتی روشنی برای ساخت و استقرار این فناوری به شیوه ای مسئولانه وجود داشته باشد. به همین دلیل است که امروز ما مشتاق معرفی چارچوب هوش مصنوعی امن (SAIF) هستیم، چارچوبی مفهومی برای سیستم های هوش مصنوعی ایمن.
- برای مشاهده خلاصه سیف اینجا را کلیک کنید.
- برای مثالهایی از اینکه چگونه پزشکان می توانند SAIF را پیاده سازی کنند، اینجا را کلیک کنید.
چرا ما اکنون سیف را معرفی می کنیم
SAIF از بهترین شیوههای امنیتی الهام گرفته شده است – مانند بررسی، آزمایش و کنترل زنجیره تامین – که ما برای توسعه نرمافزار اعمال کردهایم، در حالی که درک ما از روندهای بزرگ امنیتی و خطرات خاص سیستمهای هوش مصنوعی را در بر میگیرد.
یک چارچوب در بخشهای دولتی و خصوصی برای اطمینان از اینکه بازیگران مسئول از فناوریهایی که از پیشرفتهای هوش مصنوعی پشتیبانی میکند محافظت میکنند، ضروری است، به طوری که وقتی مدلهای هوش مصنوعی پیادهسازی میشوند، بهطور پیشفرض ایمن باشند. امروز اولین قدم مهم است.
در طول سالها در Google، ما رویکردی باز و مشارکتی را برای امنیت سایبری پذیرفتهایم. این شامل ترکیب اطلاعات خط مقدم، تخصص و نوآوری با تعهد به اشتراک گذاری اطلاعات تهدید با دیگران برای کمک به پاسخ به «حملات سایبری» و جلوگیری از آن است. بر اساس این رویکرد، SAIF برای کمک به کاهش خطرات خاص سیستمهای هوش مصنوعی مانند سرقت مدل، مسمومیت دادههای دادههای آموزشی، تزریق ورودیهای مخرب از طریق تزریق سریع و استخراج اطلاعات محرمانه در دادههای آموزشی طراحی شده است. همانطور که قابلیتهای هوش مصنوعی به طور فزایندهای در محصولات در سراسر جهان ادغام میشوند، پایبندی به یک چارچوب جسورانه و مسئولانه بسیار مهمتر خواهد بود.
و با آن، بیایید نگاهی به SAIF و شش عنصر اصلی آن بیندازیم: