مایکروسافت، آمازون و آی‌بی‌ام متعهد شدند که اقدامات ایمنی هوش مصنوعی را برای مدل‌ها منتشر کنند | دانش مرکز داده

این مقاله در اصل در AI Business ظاهر شد.

شرکت‌های فناوری پیشرو از جمله مایکروسافت، آمازون و آی‌بی‌ام متعهد شده‌اند که اقدامات ایمنی را که در هنگام توسعه مدل‌های پایه انجام می‌دهند، منتشر کنند.

در جریان اجلاس ایمنی هوش مصنوعی در سئول، کره، 16 شرکت توافق کردند که چارچوب های ایمنی را در مورد نحوه اندازه گیری خطرات هوش مصنوعی هنگام ساخت مدل های هوش مصنوعی منتشر کنند.

همه شرکت‌ها توافق کرده‌اند که در صورتی که خطرات ناشی از آن قابل کنترل یا کاهش نباشد، مدل هوش مصنوعی را توسعه یا به کار نگیرند.

این تعهد برای مدل‌های پایه یا «مرز» – یک مدل هوش مصنوعی که می‌تواند برای طیف وسیعی از برنامه‌ها، معمولاً یک سیستم چندوجهی که قادر به مدیریت تصاویر، متن و سایر ورودی‌ها است، اعمال شود.

متا، سامسونگ، توسعه دهنده کلود آنتروپیک و استارتاپ xAI ایلان ماسک از جمله امضاکنندگان این قرارداد هستند.

OpenAI سازنده ChatGPT، موسسه نوآوری فناوری مستقر در دبی و ارائه دهنده اینترنت کره ای Naver نیز تعهدات ایمنی مرزی هوش مصنوعی را امضا کردند.

Zhipu AI، استارت‌آپی که پاسخ چین به ChatGPT را می‌سازد، نیز از جمله شرکت‌هایی بود که تعهداتی را امضا کرد که توسط دولت‌های بریتانیا و کره ایجاد شد.

ما مطمئن هستیم که تعهدات ایمنی مرزی هوش مصنوعی خود را به عنوان بهترین روش در اکوسیستم صنعت هوش مصنوعی جهانی تثبیت خواهد کرد و امیدواریم که شرکت‌ها به گفتگو با دولت‌ها، دانشگاه‌ها و جامعه مدنی ادامه دهند و شبکه‌های همکاری با موسسه ایمنی هوش مصنوعی در آینده ایجاد کنند. لی جونگ هو، وزیر علوم و فناوری اطلاعات و ارتباطات کره گفت.

هر شرکتی که با این تعهدات موافقت کرده است، سطح خطراتی را که مدل‌های بنیادی آن‌ها ایجاد می‌کند و آنچه را که قصد دارند برای اطمینان از ایمن بودن برای استقرار انجام دهند، به طور عمومی تشریح خواهد کرد.

امضاکنندگان باید یافته های خود را قبل از نشست بعدی ایمنی هوش مصنوعی که در اوایل سال 2025 در فرانسه برگزار می شود، منتشر کنند.

ریشی سوناک، نخست وزیر بریتانیا گفت: «این تعهدات تضمین می کند که شرکت های پیشرو هوش مصنوعی در جهان شفافیت و پاسخگویی را در مورد برنامه های خود برای توسعه هوش مصنوعی ایمن ارائه خواهند کرد.

این تعهدات بر اساس توافقنامه بلچلی که در نشست افتتاحیه ایمنی هوش مصنوعی در نوامبر گذشته امضا شد، طراحی شده‌اند که خطرات هوش مصنوعی را طبقه‌بندی و دسته‌بندی می‌کند.

به گفته Beatriz Sanz Saiz، داده های مشاوره جهانی و رهبر هوش مصنوعی EY، تعهد شرکت های فناوری مورد استقبال قرار گرفته است.

سعیز گفت: «ارائه شفافیت و پاسخگویی در توسعه و اجرای هوش مصنوعی قابل اعتماد ضروری است. “در حالی که هوش مصنوعی دارای پتانسیل گسترده ای برای مشاغل و افراد به طور یکسان است، این پتانسیل تنها می تواند از طریق یک رویکرد وجدانی و اخلاقی برای توسعه آن استفاده شود.”

ساچین آگراوال، مدیر عامل زوهو بریتانیا، گفت: «شرکت‌هایی که از هوش مصنوعی استفاده می‌کنند باید ملاحظات اخلاقی و شیوه‌های داده‌های مسئولانه را در اولویت قرار دهند تا اعتماد مشتری را ایجاد کنند. اتخاذ رویه‌های درست هوش مصنوعی می‌تواند به معنای فراتر رفتن از مقررات حریم خصوصی فعلی و در نظر گرفتن اصول اخلاقی برای ایجاد تعادل بین مزایای هوش مصنوعی بدون به خطر انداختن داده‌های مشتری و اطمینان از شفافیت کامل هر گونه شیوه باشد.»

Source link