تعهد ما به پیشبرد هوش مصنوعی جسورانه و مسئولانه، با هم

ما مفتخریم که با دیگر شرکت‌های پیشرو هوش مصنوعی ملحق می‌شویم تا به طور مشترک متعهد به پیشبرد شیوه‌های مسئولانه در توسعه هوش مصنوعی باشیم. امروز نقطه عطفی در گرد هم آوردن صنعت است تا اطمینان حاصل شود که هوش مصنوعی به همه کمک می کند. این تعهدات از تلاش های G7، OECD و دولت های ملی برای به حداکثر رساندن مزایای هوش مصنوعی و به حداقل رساندن خطرات آن حمایت می کند.

ما مدت‌هاست بر این باور بوده‌ایم که جسور بودن در هوش مصنوعی به معنای مسئولیت‌پذیر بودن از همان ابتدا است. در اینجا بیشتر در مورد نحوه انجام این کار توضیح داده شده است:

استفاده از هوش مصنوعی برای حل بزرگترین چالش های جامعه

ما بیش از ده سال است که روی هوش مصنوعی کار می‌کنیم و در سال 2017 تبدیل به «اولین شرکت هوش مصنوعی» شدیم. امروزه هوش مصنوعی به جستجوی Google، ترجمه، نقشه‌ها و سایر سرویس‌هایی که هر روز استفاده می‌کنید، قدرت می‌دهد. و ما از هوش مصنوعی برای حل مسائل اجتماعی استفاده می کنیم – پیش بینی سیل، کاهش انتشار کربن با کاهش ترافیک توقف و حرکت، بهبود مراقبت های بهداشتی با پاسخ دادن به سوالات بالینی با دقت بیش از 90 درصد، و کمک به درمان و غربالگری بیماری هایی مانند سرطان سینه.

ترویج سیستم های هوش مصنوعی ایمن و ایمن

اما برای ایجاد خدمات بهتر هوش مصنوعی کافی نیست – ما همچنین می‌خواهیم از آن برای ایمن و ایمن کردن این سرویس‌ها استفاده کنیم. ما محصولات خود را به گونه‌ای طراحی می‌کنیم که به‌طور پیش‌فرض ایمن باشند – و رویکرد ما به هوش مصنوعی متفاوت نیست. ما اخیراً چارچوب هوش مصنوعی امن خود (SAIF) را برای کمک به سازمان‌ها در ایمن کردن سیستم‌های هوش مصنوعی معرفی کرده‌ایم، و برنامه‌های شکارچیان اشکالات خود را (از جمله برنامه پاداش آسیب‌پذیری خود) گسترش دادیم تا تحقیقات پیرامون ایمنی و امنیت هوش مصنوعی را تشویق کنیم. ما مدل‌های خود را از طریق آزمایش‌های متخاصم برای کاهش خطرات قرار می‌دهیم، و تیم Google DeepMind ما در حال پیشرفت در موضوعاتی مانند کمک به هوش مصنوعی برای برقراری ارتباط به روش‌های ایمن‌تر، جلوگیری از سوء استفاده از مدل‌های پیشرفته، و طراحی سیستم‌هایی برای اخلاقی‌تر و منصفانه‌تر هستند.

مطالب پیشنهادی  حفاظت از حریم خصوصی افراد در موضوعات بهداشتی

ما متعهد به ادامه این کار و شرکت در تمرینات تیمی قرمز رنگ اضافی از جمله یکی در DefCon در ماه آینده هستیم.

ایجاد اعتماد در سیستم های هوش مصنوعی

ما می دانیم که گاهی اوقات قدرت ابزارهای جدید هوش مصنوعی ممکن است چالش های اجتماعی فعلی مانند اطلاعات غلط و سوگیری ناعادلانه را تقویت کند. به همین دلیل است که در سال 2018 مجموعه‌ای از اصول هوش مصنوعی را برای هدایت کار خود منتشر کردیم و یک تیم حاکمیتی ایجاد کردیم تا با انجام بررسی‌های اخلاقی سیستم‌های جدید، اجتناب از تعصب و ترکیب حریم خصوصی، امنیت و ایمنی، آنها را به مرحله اجرا درآورد. و جعبه ابزار هوش مصنوعی مسئول ما به توسعه دهندگان کمک می کند تا هوش مصنوعی را نیز مسئولانه دنبال کنند. ما به کار برای ایجاد اعتماد در سیستم‌های هوش مصنوعی، از جمله با به اشتراک گذاشتن گزارش‌های پیشرفت منظم در مورد کار خود ادامه خواهیم داد.

وقتی صحبت از محتوا می شود، ما در حال برداشتن گام هایی برای ترویج اطلاعات قابل اعتماد هستیم. ما به زودی واترمارک، ابرداده و سایر تکنیک‌های نوآورانه را در جدیدترین مدل‌های تولیدی خود ادغام خواهیم کرد و یک ابزار درباره این تصویر را به جستجوی Google می‌آوریم تا زمینه‌ای را درباره جایی که یک تصویر برای اولین بار به صورت آنلاین ظاهر شد به شما ارائه دهیم. پرداختن به محتوای تولید شده توسط هوش مصنوعی به راه‌حل‌های صنعت نیاز دارد و ما مشتاقانه منتظر همکاری با دیگران، از جمله گروه کاری رسانه مصنوعی AI هستیم.

ساختن هوش مصنوعی مسئول، با هم

هیچ یک از ما نمی‌توانیم به تنهایی به هوش مصنوعی دست پیدا کنیم. ما از پیوستن به دیگر شرکت‌های پیشرو هوش مصنوعی در تأیید این تعهدات خرسندیم و متعهد می‌شویم که با به اشتراک گذاشتن اطلاعات و بهترین شیوه‌ها به همکاری با یکدیگر ادامه دهیم. گروه‌هایی مانند Partnership for AI و ML Commons در حال حاضر ابتکارات مهمی را رهبری می‌کنند و ما مشتاقانه منتظر تلاش‌های بیشتری برای ترویج توسعه مسئولانه ابزارهای مولد هوش مصنوعی جدید هستیم.

مطالب پیشنهادی  ویژگی‌های جدید ویرایش ویدیو و بهره‌وری به Chromebook می‌آیند
سئو PBN | خبر های جدید سئو و هک و سرور