انجمن بینش هوش مصنوعی سنا در نظر می گیرد که چه کسی مسئول آسیب های هوش مصنوعی است

انجمن بینش هوش مصنوعی سنای دولت ایالات متحده راه‌حل‌هایی را برای ایمنی هوش مصنوعی، از جمله نحوه شناسایی مقصر پیامدهای زیان‌بار هوش مصنوعی و نحوه تحمیل مسئولیت در قبال این آسیب‌ها مورد بحث قرار داد. کمیته راه حلی را از دیدگاه جامعه AI منبع باز شنید که توسط رئیس بنیاد موزیلا، مارک سورمن ارائه شده است.

تا کنون انجمن بینش هوش مصنوعی سنا تحت تسلط دروازه بانان شرکتی غالب هوش مصنوعی، گوگل، متا، مایکروسافت و OpenAI بوده است.

در نتیجه بسیاری از بحث ها از دیدگاه آنها نشات گرفته است.

اولین انجمن بینش هوش مصنوعی که در 13 سپتامبر 2023 برگزار شد، توسط سناتور الیزابت وارن (D-MA) به دلیل برگزاری جلسه درهای بسته که تحت سلطه غول‌های فناوری شرکت هستند که بیشترین سود را از تأثیرگذاری بر یافته‌های کمیته دارند، مورد انتقاد قرار گرفت.

چهارشنبه فرصتی برای جامعه منبع باز بود تا نظر خود را در مورد اینکه مقررات چگونه باید باشد ارائه دهند.

مارک سورمن، رئیس بنیاد موزیلا

بنیاد موزیلا یک سازمان غیرانتفاعی است که به باز و در دسترس نگه داشتن اینترنت اختصاص دارد. اخیراً یکی از کمک‌کنندگان به صندوق 200 میلیون دلاری برای حمایت از یک ائتلاف منافع عمومی بود که به ترویج هوش مصنوعی برای منافع عمومی اختصاص داشت. بنیاد موزیلا همچنین Mozilla.ai را ایجاد کرد که یک اکوسیستم AI منبع باز را پرورش می دهد.

سخنرانی مارک سورمن در مجمع سنا بر پنج نکته متمرکز بود:

  1. ایجاد انگیزه برای باز بودن و شفافیت
  2. توزیع عادلانه بدهی
  3. قهرمان کردن حریم خصوصی به طور پیش فرض
  4. سرمایه گذاری در فناوری های افزایش دهنده حریم خصوصی
  5. توزیع عادلانه مسئولیت

از بین این پنج نکته، نکته در مورد توزیع مسئولیت به ویژه جالب است زیرا راه‌هایی را برای چگونگی شناسایی افراد مقصر در هنگام اشتباه در هوش مصنوعی و تحمیل مسئولیت به طرف مقصر توصیه می‌کند.

مشکل شناسایی مقصر آنقدرها هم که در ابتدا به نظر می رسد ساده نیست.

اعلامیه موزیلا این نکته را توضیح داد:

پیچیدگی سیستم‌های هوش مصنوعی مستلزم یک رویکرد ظریف به مسئولیت است که کل زنجیره ارزش، از جمع‌آوری داده‌ها تا استقرار مدل را در نظر می‌گیرد.

مسئولیت نباید متمرکز شود، بلکه باید به گونه ای توزیع شود که نشان دهنده چگونگی توسعه و عرضه هوش مصنوعی به بازار باشد.

به‌جای نگاه کردن به توسعه‌دهنده‌های این مدل‌ها، که اغلب ممکن است در موقعیتی نباشند که علل زمینه‌ای برای آسیب‌های احتمالی را کاهش دهند، یک رویکرد جامع‌تر می‌تواند شیوه‌ها و فرآیندها را در سراسر «پشته» توسعه تنظیم کند.»

پشته توسعه اشاره ای به فناوری هایی است که برای ایجاد هوش مصنوعی با هم کار می کنند، که شامل داده های مورد استفاده برای آموزش مدل های اساسی است.

در اظهارات سورمن از مثالی استفاده شد که یک چت بات توصیه های پزشکی را بر اساس مدلی که توسط شرکت دیگری ایجاد شده بود و سپس توسط شرکت پزشکی تنظیم شد، ارائه می کرد.

اگر چت بات توصیه های مضر ارائه دهد چه کسی باید مسئول باشد؟ شرکتی که این فناوری را توسعه داده است یا شرکتی که مدل را تنظیم کرده است؟

بیانیه سورمن در ادامه توضیح داد:

کار ما بر روی قانون هوش مصنوعی اتحادیه اروپا در سال‌های گذشته، دشواری شناسایی مقصر و مسئولیت‌پذیری در طول زنجیره ارزش هوش مصنوعی را نشان داده است.

از مجموعه داده‌های آموزشی گرفته تا مدل‌های پایه و برنامه‌های کاربردی با استفاده از همان مدل، خطرات می‌توانند در نقاط و لایه‌های مختلف در طول توسعه و استقرار ظاهر شوند.

در عین حال، نه تنها به این موضوع می‌پردازیم که آسیب از کجا سرچشمه می‌گیرد، بلکه این است که چه کسی می‌تواند به بهترین شکل آن را کاهش دهد.»

چارچوبی برای تحمیل مسئولیت برای آسیب های هوش مصنوعی

بیانیه سورمن به کمیته سنا تاکید می کند که هر چارچوبی که برای رسیدگی به این که کدام نهاد مسئول آسیب است باید کل زنجیره توسعه را اعمال کند.

او خاطرنشان می‌کند که این نه تنها شامل در نظر گرفتن هر سطح از پشته توسعه است، بلکه در مورد نحوه استفاده از فناوری نیز در نظر گرفته می‌شود، نکته این است که چه کسی مسئول شناخته می‌شود بستگی به این دارد که چه کسی می‌تواند این آسیب را در نقطه‌ای که سورمن آن را «می‌نامد» کاهش دهد. زنجیره ارزش.”

این بدان معناست که اگر یک محصول هوش مصنوعی توهم داشته باشد (که به معنای دروغ گفتن و ساختن حقایق نادرست است)، موجودیتی که به بهترین وجه می‌تواند این آسیب را کاهش دهد، کسی است که مدل بنیادی را ایجاد کرده است و تا حدی کمتر کسی است که مدل را تنظیم و اجرا می‌کند.

سورمن در پایان این مطلب گفت:

«هر چارچوبی برای تحمیل مسئولیت باید این پیچیدگی را در نظر بگیرد.

آنچه مورد نیاز است یک فرآیند روشن برای پیمایش است.

بنابراین، مقررات باید به کشف و اطلاع رسانی آسیب (صرف نظر از مرحله ای که احتمال بروز آن وجود دارد)، شناسایی علل ریشه ای آن (که در مدل های ترانسفورماتور به پیشرفت های فنی نیاز دارد) و مکانیسمی برای شناسایی کمک کند. مسئولین را برای رفع یا عدم رفع علل زمینه‌ای این تحولات مسئول بدانیم.»

چه کسی مسئول آسیب های هوش مصنوعی است؟

رئیس بنیاد موزیلا، مارک سورمن، نکات بسیار خوبی در مورد اینکه آینده مقررات چگونه باید باشد، مطرح می کند. او در مورد مسائل مربوط به حریم خصوصی که مهم هستند صحبت کرد.

اما موضوع مسئولیت و توصیه منحصر به فرد ارائه شده برای شناسایی مسئول زمانی که هوش مصنوعی اشتباه می کند، از اهمیت ویژه ای برخوردار است.

پست وبلاگ رسمی موزیلا را بخوانید:

موزیلا به آخرین انجمن هوش مصنوعی می پیوندد

نظرات مارک سورمن رئیس موزیلا را به انجمن بینش هوش مصنوعی سنا بخوانید:

انجمن بینش هوش مصنوعی: حریم خصوصی و مسئولیت (PDF)

تصویر ویژه توسط Shutterstock/Ron Adar

سئو PBN | خبر های جدید سئو و هک و سرور