انجمن بینش هوش مصنوعی سنای دولت ایالات متحده راهحلهایی را برای ایمنی هوش مصنوعی، از جمله نحوه شناسایی مقصر پیامدهای زیانبار هوش مصنوعی و نحوه تحمیل مسئولیت در قبال این آسیبها مورد بحث قرار داد. کمیته راه حلی را از دیدگاه جامعه AI منبع باز شنید که توسط رئیس بنیاد موزیلا، مارک سورمن ارائه شده است.
تا کنون انجمن بینش هوش مصنوعی سنا تحت تسلط دروازه بانان شرکتی غالب هوش مصنوعی، گوگل، متا، مایکروسافت و OpenAI بوده است.
در نتیجه بسیاری از بحث ها از دیدگاه آنها نشات گرفته است.
اولین انجمن بینش هوش مصنوعی که در 13 سپتامبر 2023 برگزار شد، توسط سناتور الیزابت وارن (D-MA) به دلیل برگزاری جلسه درهای بسته که تحت سلطه غولهای فناوری شرکت هستند که بیشترین سود را از تأثیرگذاری بر یافتههای کمیته دارند، مورد انتقاد قرار گرفت.
چهارشنبه فرصتی برای جامعه منبع باز بود تا نظر خود را در مورد اینکه مقررات چگونه باید باشد ارائه دهند.
مارک سورمن، رئیس بنیاد موزیلا
بنیاد موزیلا یک سازمان غیرانتفاعی است که به باز و در دسترس نگه داشتن اینترنت اختصاص دارد. اخیراً یکی از کمککنندگان به صندوق 200 میلیون دلاری برای حمایت از یک ائتلاف منافع عمومی بود که به ترویج هوش مصنوعی برای منافع عمومی اختصاص داشت. بنیاد موزیلا همچنین Mozilla.ai را ایجاد کرد که یک اکوسیستم AI منبع باز را پرورش می دهد.
سخنرانی مارک سورمن در مجمع سنا بر پنج نکته متمرکز بود:
- ایجاد انگیزه برای باز بودن و شفافیت
- توزیع عادلانه بدهی
- قهرمان کردن حریم خصوصی به طور پیش فرض
- سرمایه گذاری در فناوری های افزایش دهنده حریم خصوصی
- توزیع عادلانه مسئولیت
از بین این پنج نکته، نکته در مورد توزیع مسئولیت به ویژه جالب است زیرا راههایی را برای چگونگی شناسایی افراد مقصر در هنگام اشتباه در هوش مصنوعی و تحمیل مسئولیت به طرف مقصر توصیه میکند.
مشکل شناسایی مقصر آنقدرها هم که در ابتدا به نظر می رسد ساده نیست.
اعلامیه موزیلا این نکته را توضیح داد:
پیچیدگی سیستمهای هوش مصنوعی مستلزم یک رویکرد ظریف به مسئولیت است که کل زنجیره ارزش، از جمعآوری دادهها تا استقرار مدل را در نظر میگیرد.
مسئولیت نباید متمرکز شود، بلکه باید به گونه ای توزیع شود که نشان دهنده چگونگی توسعه و عرضه هوش مصنوعی به بازار باشد.
بهجای نگاه کردن به توسعهدهندههای این مدلها، که اغلب ممکن است در موقعیتی نباشند که علل زمینهای برای آسیبهای احتمالی را کاهش دهند، یک رویکرد جامعتر میتواند شیوهها و فرآیندها را در سراسر «پشته» توسعه تنظیم کند.»
پشته توسعه اشاره ای به فناوری هایی است که برای ایجاد هوش مصنوعی با هم کار می کنند، که شامل داده های مورد استفاده برای آموزش مدل های اساسی است.
در اظهارات سورمن از مثالی استفاده شد که یک چت بات توصیه های پزشکی را بر اساس مدلی که توسط شرکت دیگری ایجاد شده بود و سپس توسط شرکت پزشکی تنظیم شد، ارائه می کرد.
اگر چت بات توصیه های مضر ارائه دهد چه کسی باید مسئول باشد؟ شرکتی که این فناوری را توسعه داده است یا شرکتی که مدل را تنظیم کرده است؟
بیانیه سورمن در ادامه توضیح داد:
کار ما بر روی قانون هوش مصنوعی اتحادیه اروپا در سالهای گذشته، دشواری شناسایی مقصر و مسئولیتپذیری در طول زنجیره ارزش هوش مصنوعی را نشان داده است.
از مجموعه دادههای آموزشی گرفته تا مدلهای پایه و برنامههای کاربردی با استفاده از همان مدل، خطرات میتوانند در نقاط و لایههای مختلف در طول توسعه و استقرار ظاهر شوند.
در عین حال، نه تنها به این موضوع میپردازیم که آسیب از کجا سرچشمه میگیرد، بلکه این است که چه کسی میتواند به بهترین شکل آن را کاهش دهد.»
چارچوبی برای تحمیل مسئولیت برای آسیب های هوش مصنوعی
بیانیه سورمن به کمیته سنا تاکید می کند که هر چارچوبی که برای رسیدگی به این که کدام نهاد مسئول آسیب است باید کل زنجیره توسعه را اعمال کند.
او خاطرنشان میکند که این نه تنها شامل در نظر گرفتن هر سطح از پشته توسعه است، بلکه در مورد نحوه استفاده از فناوری نیز در نظر گرفته میشود، نکته این است که چه کسی مسئول شناخته میشود بستگی به این دارد که چه کسی میتواند این آسیب را در نقطهای که سورمن آن را «مینامد» کاهش دهد. زنجیره ارزش.”
این بدان معناست که اگر یک محصول هوش مصنوعی توهم داشته باشد (که به معنای دروغ گفتن و ساختن حقایق نادرست است)، موجودیتی که به بهترین وجه میتواند این آسیب را کاهش دهد، کسی است که مدل بنیادی را ایجاد کرده است و تا حدی کمتر کسی است که مدل را تنظیم و اجرا میکند.
سورمن در پایان این مطلب گفت:
«هر چارچوبی برای تحمیل مسئولیت باید این پیچیدگی را در نظر بگیرد.
آنچه مورد نیاز است یک فرآیند روشن برای پیمایش است.
بنابراین، مقررات باید به کشف و اطلاع رسانی آسیب (صرف نظر از مرحله ای که احتمال بروز آن وجود دارد)، شناسایی علل ریشه ای آن (که در مدل های ترانسفورماتور به پیشرفت های فنی نیاز دارد) و مکانیسمی برای شناسایی کمک کند. مسئولین را برای رفع یا عدم رفع علل زمینهای این تحولات مسئول بدانیم.»
چه کسی مسئول آسیب های هوش مصنوعی است؟
رئیس بنیاد موزیلا، مارک سورمن، نکات بسیار خوبی در مورد اینکه آینده مقررات چگونه باید باشد، مطرح می کند. او در مورد مسائل مربوط به حریم خصوصی که مهم هستند صحبت کرد.
اما موضوع مسئولیت و توصیه منحصر به فرد ارائه شده برای شناسایی مسئول زمانی که هوش مصنوعی اشتباه می کند، از اهمیت ویژه ای برخوردار است.
پست وبلاگ رسمی موزیلا را بخوانید:
موزیلا به آخرین انجمن هوش مصنوعی می پیوندد
نظرات مارک سورمن رئیس موزیلا را به انجمن بینش هوش مصنوعی سنا بخوانید:
انجمن بینش هوش مصنوعی: حریم خصوصی و مسئولیت (PDF)
تصویر ویژه توسط Shutterstock/Ron Adar