کارشناسان MIT خواستار نظارت و نظارت بر هوش مصنوعی هستند | دانش مرکز داده

این مقاله در ابتدا در AI Business ظاهر شد.

محققان و دانشگاهیان MIT یک سند خط مشی تهیه کرده اند که از دولت ایالات متحده می خواهد تا با استفاده از مقررات موجود، حاکمیت هوش مصنوعی را گسترش دهد.

این سند 10 صفحه‌ای با عنوان «ایمنی و رونق بخش هوش مصنوعی» پیشنهاد می‌کند که چارچوب‌های قانونی فعلی باید هوش مصنوعی را پوشش دهد – مانند گسترش مقررات مراقبت‌های بهداشتی به تشخیص هوش مصنوعی. آنها همچنین می خواهند هوش مصنوعی تحت پوشش قوانین تنظیم کننده فعالیت های دولتی از جمله پلیس، تعیین وثیقه و استخدام باشد.

این گروه گفت که قوانین و مقررات مربوط به هوش مصنوعی باید توسط همان نهادی اجرا شود که بر اعمال انسان بدون هوش مصنوعی در همان حوزه نظارت می‌کند و افزود: «این ممکن است به چنین نهادهایی نیاز داشته باشد تا برخی از تخصص‌های هوش مصنوعی را توسعه دهند.»

در این سیاست آمده است: «اگر فعالیت های انسانی بدون استفاده از هوش مصنوعی تنظیم شود، استفاده از هوش مصنوعی نیز باید به طور مشابه تنظیم شود. توسعه، فروش و استفاده از سیستم‌های هوش مصنوعی باید در صورت امکان، توسط همان استانداردها و رویه‌هایی که انسان‌ها بدون هوش مصنوعی در حوزه‌های کاربردی هوش مصنوعی عمل می‌کنند، کنترل شود.

گروه MIT ادعا می کند که این امر تضمین می کند که برنامه های کاربردی با خطر بالاتر تحت پوشش قوانین موجود قرار می گیرند. یکی از حوزه‌هایی که این مورد قبلاً در حال بررسی است و در مقاله به آن اشاره شده است، وسایل نقلیه خودران است که مطابق با استانداردهایی هستند که توسط انسان اداره می‌شوند.

نویسندگان گزارش استدلال می کنند که کسانی که سیستم های هوش مصنوعی همه منظوره مانند ChatGPT می سازند، باید قبل از انتشار، هدف مورد نظر چنین سیستمی را شناسایی کنند. آن‌ها همچنین پیشنهاد می‌کنند که تنظیم‌کننده‌ها قوانینی را برای تعریف استفاده‌های مورد نظر صادر کنند تا توسعه‌دهندگان بتوانند اطمینان حاصل کنند که سیستم‌هایشان با آنچه که ارائه شده است مطابقت دارد.

این گروه همچنین خواستار شفاف سازی درباره نقض مالکیت معنوی ناشی از هوش مصنوعی است، از جمله اینکه سازندگان چگونه می توانند از نقض احتمالی محافظت کنند و آنها را شناسایی کنند. یکی از راه‌های پیشنهادی، برچسب‌گذاری اجباری محتوای تولید شده توسط هوش مصنوعی است.

در این مقاله آمده است: «مشخص نیست که آیا و چگونه چارچوب‌های قانونی و نظارتی کنونی در زمانی که هوش مصنوعی درگیر است اعمال می‌شود، و آیا این چارچوب‌ها به وظایف خود عمل می‌کنند یا خیر. این باعث می‌شود که ارائه‌دهندگان، کاربران و عموم مردم در یک موقعیت اخطاری قرار بگیرند. چیزی برای جلوگیری از انتشار و استفاده از سیستم‌های مخاطره‌آمیز وجود ندارد و انگیزه کمی برای کشف، فاش کردن یا اصلاح مسائل پیشگیرانه وجود دارد.

شفافیت و نظارت بیشتری در مورد هوش مصنوعی برای تسهیل توسعه و استقرار هوش مصنوعی مفید و درک کاملتر و روانتر از مزایای بالقوه هوش مصنوعی برای همه آمریکایی ها مورد نیاز است.

دان هوتنلوچر، رئیس کالج محاسباتی MIT شوارتزمن، به MIT News گفت: “به عنوان یک کشور، ما در حال حاضر بسیاری از موارد نسبتاً پرخطر را تنظیم می کنیم و در آنجا حکمرانی می کنیم.” ما نمی گوییم که این کافی است، اما اجازه دهید با چیزهایی شروع کنیم که در آن فعالیت های انسانی از قبل تنظیم شده است، و جامعه، در طول زمان، تصمیم گرفته است که ریسک بالایی دارند. نگاه به هوش مصنوعی به این صورت یک رویکرد عملی است.”

چندین مقاله خط مشی اضافی نیز منتشر شد که مدل‌های زبان بزرگ، هوش مصنوعی حرفه‌ای و برچسب‌گذاری محتوای تولید شده توسط هوش مصنوعی را پوشش می‌داد.

سئو PBN | خبر های جدید سئو و هک و سرور