ما مفتخریم که با دیگر شرکتهای پیشرو هوش مصنوعی ملحق میشویم تا به طور مشترک متعهد به پیشبرد شیوههای مسئولانه در توسعه هوش مصنوعی باشیم. امروز نقطه عطفی در گرد هم آوردن صنعت است تا اطمینان حاصل شود که هوش مصنوعی به همه کمک می کند. این تعهدات از تلاش های G7، OECD و دولت های ملی برای به حداکثر رساندن مزایای هوش مصنوعی و به حداقل رساندن خطرات آن حمایت می کند.
ما مدتهاست بر این باور بودهایم که جسور بودن در هوش مصنوعی به معنای مسئولیتپذیر بودن از همان ابتدا است. در اینجا بیشتر در مورد نحوه انجام این کار توضیح داده شده است:
استفاده از هوش مصنوعی برای حل بزرگترین چالش های جامعه
ما بیش از ده سال است که روی هوش مصنوعی کار میکنیم و در سال 2017 تبدیل به «اولین شرکت هوش مصنوعی» شدیم. امروزه هوش مصنوعی به جستجوی Google، ترجمه، نقشهها و سایر سرویسهایی که هر روز استفاده میکنید، قدرت میدهد. و ما از هوش مصنوعی برای حل مسائل اجتماعی استفاده می کنیم – پیش بینی سیل، کاهش انتشار کربن با کاهش ترافیک توقف و حرکت، بهبود مراقبت های بهداشتی با پاسخ دادن به سوالات بالینی با دقت بیش از 90 درصد، و کمک به درمان و غربالگری بیماری هایی مانند سرطان سینه.
ترویج سیستم های هوش مصنوعی ایمن و ایمن
اما برای ایجاد خدمات بهتر هوش مصنوعی کافی نیست – ما همچنین میخواهیم از آن برای ایمن و ایمن کردن این سرویسها استفاده کنیم. ما محصولات خود را به گونهای طراحی میکنیم که بهطور پیشفرض ایمن باشند – و رویکرد ما به هوش مصنوعی متفاوت نیست. ما اخیراً چارچوب هوش مصنوعی امن خود (SAIF) را برای کمک به سازمانها در ایمن کردن سیستمهای هوش مصنوعی معرفی کردهایم، و برنامههای شکارچیان اشکالات خود را (از جمله برنامه پاداش آسیبپذیری خود) گسترش دادیم تا تحقیقات پیرامون ایمنی و امنیت هوش مصنوعی را تشویق کنیم. ما مدلهای خود را از طریق آزمایشهای متخاصم برای کاهش خطرات قرار میدهیم، و تیم Google DeepMind ما در حال پیشرفت در موضوعاتی مانند کمک به هوش مصنوعی برای برقراری ارتباط به روشهای ایمنتر، جلوگیری از سوء استفاده از مدلهای پیشرفته، و طراحی سیستمهایی برای اخلاقیتر و منصفانهتر هستند.
ما متعهد به ادامه این کار و شرکت در تمرینات تیمی قرمز رنگ اضافی از جمله یکی در DefCon در ماه آینده هستیم.
ایجاد اعتماد در سیستم های هوش مصنوعی
ما می دانیم که گاهی اوقات قدرت ابزارهای جدید هوش مصنوعی ممکن است چالش های اجتماعی فعلی مانند اطلاعات غلط و سوگیری ناعادلانه را تقویت کند. به همین دلیل است که در سال 2018 مجموعهای از اصول هوش مصنوعی را برای هدایت کار خود منتشر کردیم و یک تیم حاکمیتی ایجاد کردیم تا با انجام بررسیهای اخلاقی سیستمهای جدید، اجتناب از تعصب و ترکیب حریم خصوصی، امنیت و ایمنی، آنها را به مرحله اجرا درآورد. و جعبه ابزار هوش مصنوعی مسئول ما به توسعه دهندگان کمک می کند تا هوش مصنوعی را نیز مسئولانه دنبال کنند. ما به کار برای ایجاد اعتماد در سیستمهای هوش مصنوعی، از جمله با به اشتراک گذاشتن گزارشهای پیشرفت منظم در مورد کار خود ادامه خواهیم داد.
وقتی صحبت از محتوا می شود، ما در حال برداشتن گام هایی برای ترویج اطلاعات قابل اعتماد هستیم. ما به زودی واترمارک، ابرداده و سایر تکنیکهای نوآورانه را در جدیدترین مدلهای تولیدی خود ادغام خواهیم کرد و یک ابزار درباره این تصویر را به جستجوی Google میآوریم تا زمینهای را درباره جایی که یک تصویر برای اولین بار به صورت آنلاین ظاهر شد به شما ارائه دهیم. پرداختن به محتوای تولید شده توسط هوش مصنوعی به راهحلهای صنعت نیاز دارد و ما مشتاقانه منتظر همکاری با دیگران، از جمله گروه کاری رسانه مصنوعی AI هستیم.
ساختن هوش مصنوعی مسئول، با هم
هیچ یک از ما نمیتوانیم به تنهایی به هوش مصنوعی دست پیدا کنیم. ما از پیوستن به دیگر شرکتهای پیشرو هوش مصنوعی در تأیید این تعهدات خرسندیم و متعهد میشویم که با به اشتراک گذاشتن اطلاعات و بهترین شیوهها به همکاری با یکدیگر ادامه دهیم. گروههایی مانند Partnership for AI و ML Commons در حال حاضر ابتکارات مهمی را رهبری میکنند و ما مشتاقانه منتظر تلاشهای بیشتری برای ترویج توسعه مسئولانه ابزارهای مولد هوش مصنوعی جدید هستیم.