هوش مصنوعی به سرعت از کتاب های درسی علوم کامپیوتر به جریان اصلی تبدیل شده است و لذت هایی مانند بازتولید صدای افراد مشهور و چت ربات های آماده برای سرگرم کردن مکالمات پر پیچ و خم را ایجاد می کند.
اما این فناوری، که به ماشینهایی که برای انجام کارهای هوشمند آموزش دیدهاند، اشاره دارد، همچنین اختلالی عمیق را تهدید میکند: هنجارهای اجتماعی، کل صنایع و ثروت شرکتهای فناوری. این پتانسیل بسیار خوبی برای تغییر همه چیز از تشخیص بیماران گرفته تا پیش بینی الگوهای آب و هوا دارد – اما به گفته برخی کارشناسان می تواند میلیون ها نفر را بیکار کند یا حتی از هوش انسانی پیشی بگیرد.
هفته گذشته، مرکز تحقیقاتی پیو نظرسنجی را منتشر کرد که در آن اکثریت آمریکایی ها – 52 درصد – گفتند که بیشتر از اینکه هیجان زده باشند در مورد افزایش استفاده از هوش مصنوعی، از جمله نگرانی در مورد حریم خصوصی شخصی و کنترل انسان بر فناوری های جدید، احساس نگرانی می کنند.
گسترش مدلهای هوش مصنوعی در سال جاری مانند ChatGPT، Bard و Bing که همگی در دسترس عموم هستند، هوش مصنوعی را در خط مقدم قرار داد. اکنون، دولتها از چین گرفته تا برزیل و اسرائیل نیز در تلاشند تا دریابند چگونه از قدرت دگرگونکننده هوش مصنوعی استفاده کنند، در حالی که بدترین افراطها را مهار کرده و قوانینی را برای استفاده از آن در زندگی روزمره تهیه میکنند.
برخی از کشورها، از جمله اسرائیل و ژاپن، با شفاف سازی داده های موجود، حریم خصوصی و حفاظت از حق چاپ به رشد سریع آن واکنش نشان داده اند – در هر دو مورد، راه را برای استفاده از محتوای دارای حق چاپ برای آموزش هوش مصنوعی باز می کنند. سایرین، مانند امارات متحده عربی، اعلامیههای مبهم و گستردهای درباره استراتژی هوش مصنوعی منتشر کردهاند، یا گروههای کاری در مورد بهترین شیوههای هوش مصنوعی راهاندازی کردهاند و پیشنویس قوانین را برای بررسی و بررسی عمومی منتشر کردهاند.
برخی دیگر هنوز رویکرد انتظار و دید را اتخاذ کردهاند، حتی زمانی که رهبران صنعت، از جمله OpenAI، خالق ربات چت ویروسی ChatGPT، خواستار همکاری بینالمللی پیرامون مقررات و بازرسی شدهاند. در بیانیه ای در ماه مه، مدیر عامل شرکت و دو هم بنیانگذار آن نسبت به “احتمال خطر وجودی” مرتبط با ابرهوش هشدار دادند، موجودیتی فرضی که عقل آن از عملکرد شناختی انسان فراتر می رود.
در بیانیه آمده است: «توقف آن به چیزی شبیه یک رژیم نظارت جهانی نیاز دارد، و حتی این کار تضمینی نیست».
با این حال، قوانین مشخص کمی در سراسر جهان وجود دارد که به طور خاص مقررات هوش مصنوعی را هدف قرار می دهد. در اینجا برخی از راه هایی که قانونگذاران در کشورهای مختلف سعی در پاسخگویی به سؤالات پیرامون استفاده از آن دارند، آورده شده است.
برزیل
برزیل پیش نویس قانون هوش مصنوعی دارد که اوج سه سال لوایح پیشنهادی (و متوقف شده) در این زمینه است. این سند – که اواخر سال گذشته به عنوان بخشی از گزارش 900 صفحهای کمیته سنا درباره هوش مصنوعی منتشر شد – به طور دقیق حقوق کاربرانی را که با سیستمهای هوش مصنوعی در تعامل هستند و دستورالعملهایی را برای دستهبندی انواع مختلف هوش مصنوعی بر اساس خطراتی که برای جامعه ایجاد میکنند، ارائه میکند.
تمرکز قانون بر حقوق کاربران، وظیفه ارائه دهندگان هوش مصنوعی را برای ارائه اطلاعات در مورد محصولات هوش مصنوعی خود به کاربران می گذارد. کاربران حق دارند بدانند که در حال تعامل با هوش مصنوعی هستند – اما همچنین حق دارند توضیحی در مورد اینکه چگونه یک هوش مصنوعی تصمیم یا توصیه خاصی را اتخاذ کرده است. کاربران همچنین می توانند تصمیمات هوش مصنوعی را به چالش بکشند یا مداخله انسانی را درخواست کنند، به ویژه اگر تصمیم هوش مصنوعی احتمالاً تأثیر قابل توجهی بر کاربر داشته باشد، مانند سیستم هایی که با خودروهای خودران، استخدام، ارزیابی اعتبار یا شناسایی بیومتریک مرتبط هستند.
توسعه دهندگان هوش مصنوعی نیز ملزم به انجام ارزیابی ریسک قبل از ارائه محصول هوش مصنوعی به بازار هستند. بالاترین طبقهبندی ریسک به هر سیستم هوش مصنوعی اشاره دارد که تکنیکهای «فرعی» را به کار میگیرد یا از کاربران به روشهایی که برای سلامت یا ایمنی آنها مضر است بهرهبرداری میکند. اینها کاملاً ممنوع است. پیشنویس قانون هوش مصنوعی همچنین پیادهسازیهای احتمالی هوش مصنوعی «پرخطر»، از جمله هوش مصنوعی مورد استفاده در مراقبتهای بهداشتی، شناسایی بیومتریک و امتیازدهی اعتباری و سایر کاربردها را مشخص میکند. ارزیابی ریسک برای محصولات هوش مصنوعی “پرخطر” باید در یک پایگاه داده دولتی منتشر شود.
همه توسعهدهندگان هوش مصنوعی در قبال آسیبهای ناشی از سیستمهای هوش مصنوعی خود مسئول هستند، اگرچه توسعهدهندگان محصولات پرخطر با استانداردهای بالاتری مسئولیت دارند.
چین
چین پیشنویس مقرراتی را برای هوش مصنوعی مولد منتشر کرده است و به دنبال نظرات عمومی در مورد قوانین جدید است. با این حال، برخلاف بسیاری از کشورها، پیشنویس چین اشاره میکند که هوش مصنوعی مولد باید «ارزشهای اصلی سوسیالیستی» را منعکس کند.
طبق ترجمه این سند توسط پروژه DigiChina دانشگاه استنفورد، در تکرار فعلی، پیشنویس مقررات میگوید توسعهدهندگان مسئولیت خروجی ایجاد شده توسط هوش مصنوعی خود را بر عهده دارند. همچنین محدودیت هایی برای منبع داده های آموزشی وجود دارد. اگر دادههای آموزشی آنها مالکیت معنوی دیگران را نقض کند، توسعهدهندگان از نظر قانونی مسئول هستند. این مقررات همچنین تصریح میکند که خدمات هوش مصنوعی باید به گونهای طراحی شوند که فقط محتوای «واقعی و دقیق» تولید کنند.
این قوانین پیشنهادی بر اساس قوانین موجود مربوط به دیپفیکها، الگوریتمهای توصیه و امنیت دادهها است و به چین اجازه میدهد تا از سایر کشورها که از ابتدا قوانین جدید را تهیه میکنند، پیشی بگیرد. رگولاتور اینترنت این کشور نیز در ماه اوت محدودیت هایی را برای فناوری تشخیص چهره اعلام کرد.
چین اهداف چشمگیری را برای صنایع فناوری و هوش مصنوعی خود در نظر گرفته است: در “برنامه توسعه هوش مصنوعی نسل بعدی”، سند بلندپروازانه 2017 که توسط دولت چین منتشر شد، نویسندگان می نویسند که تا سال 2030، “نظریه ها، فناوری ها و برنامه های کاربردی هوش مصنوعی چین باید دستیابی به سطوح پیشرو در جهان.”
اتحادیه اروپا
در ماه ژوئن، پارلمان اروپا به تصویب آنچه «قانون هوش مصنوعی» نامیده شد، رأی داد. مشابه پیش نویس قانون برزیل، قانون هوش مصنوعی هوش مصنوعی را به سه صورت طبقه بندی می کند: غیرقابل قبول، پرخطر و محدود.
سیستمهای هوش مصنوعی که غیرقابل قبول تلقی میشوند، آنهایی هستند که برای جامعه «تهدید» تلقی میشوند. (پارلمان اروپا «اسباببازیهای فعالشده با صدا که رفتار خطرناک در کودکان را تشویق میکند» را به عنوان یک مثال ارائه میکند.) این نوع سیستمها بر اساس قانون هوش مصنوعی ممنوع هستند. هوش مصنوعی پرخطر قبل از ورود به بازار و همچنین در طول چرخه عمر محصول باید توسط مقامات اروپایی تایید شود. اینها شامل محصولات هوش مصنوعی است که به اجرای قانون، مدیریت مرزها و غربالگری اشتغال و غیره مربوط می شود.
سیستمهای هوش مصنوعی که به عنوان یک ریسک محدود تلقی میشوند باید بهطور مناسب برای کاربران برچسبگذاری شوند تا درباره تعاملاتشان با هوش مصنوعی تصمیمگیری آگاهانه بگیرند. در غیر این صورت، این محصولات عمدتاً از بررسی نظارتی اجتناب می کنند.
این قانون هنوز باید توسط شورای اروپا تصویب شود، اگرچه قانونگذاران پارلمان امیدوارند که این روند در اواخر سال جاری به پایان برسد.
اسرائيل
در سال 2022، وزارت نوآوری، علم و فناوری اسرائیل پیش نویس خط مشی مربوط به مقررات هوش مصنوعی را منتشر کرد. نویسندگان این سند آن را به عنوان «قطبنمای اخلاقی و تجاری برای هر شرکت، سازمان یا ارگان دولتی درگیر در زمینه هوش مصنوعی» توصیف میکنند و بر تمرکز آن بر «نوآوری مسئولانه» تأکید میکنند.
پیشنویس سیاست اسرائیل میگوید توسعه و استفاده از هوش مصنوعی باید به “حاکمیت قانون، حقوق اساسی و منافع عمومی احترام بگذارد و به ویژه، [maintain] کرامت انسانی و حریم خصوصی.” در جای دیگر، به طور مبهم، بیان می کند که “اقدامات منطقی باید مطابق با مفاهیم حرفه ای پذیرفته شده اتخاذ شود” تا اطمینان حاصل شود که محصولات هوش مصنوعی برای استفاده ایمن هستند.
به طور گسترده تر، پیش نویس خط مشی خودتنظیمی و رویکرد «نرم» را برای مداخله دولت در توسعه هوش مصنوعی تشویق می کند. این سند به جای پیشنهاد قوانین یکنواخت و در سطح صنعت، تنظیمکنندههای بخش خاص را تشویق میکند تا در صورت لزوم، مداخلات بسیار مناسب را در نظر بگیرند و دولت تلاش کند با بهترین شیوههای هوش مصنوعی جهانی سازگاری داشته باشد.
ایتالیا
در ماه مارس، ایتالیا برای مدت کوتاهی ChatGPT را به دلیل نگرانی در مورد نحوه و میزان جمع آوری داده های کاربران توسط ربات چت ممنوع کرد.
از آن زمان، ایتالیا تقریباً 33 میلیون دلار برای حمایت از کارگرانی که در معرض خطر عقب ماندن از تحول دیجیتال هستند – از جمله هوش مصنوعی، اما نه محدود، اختصاص داده است. حدود یک سوم این مبلغ برای آموزش کارگرانی که ممکن است شغلشان به دلیل اتوماسیون منسوخ شود، استفاده خواهد شد. وجوه باقیمانده برای آموزش مهارتهای دیجیتال به افراد بیکار یا غیرفعال، به امید تشویق ورود آنها به بازار کار، اختصاص مییابد.
ژاپن
ژاپن، مانند اسرائیل، رویکرد «قانون نرم» را برای مقررات هوش مصنوعی اتخاذ کرده است: این کشور هیچ مقررات تجویزی ای ندارد که بر روش های خاصی که می تواند و نمی تواند از هوش مصنوعی استفاده شود، حاکم است. در عوض، ژاپن تصمیم گرفته است منتظر بماند و ببیند هوش مصنوعی چگونه توسعه مییابد و به این دلیل که میخواهد از نوآوریها جلوگیری کند.
در حال حاضر، توسعه دهندگان هوش مصنوعی در ژاپن مجبور شده اند به قوانین مجاور – مانند قوانین مربوط به حفاظت از داده ها – برای ارائه دستورالعمل ها تکیه کنند. به عنوان مثال، در سال 2018، قانونگذاران ژاپنی قانون حق نسخهبرداری این کشور را بازبینی کردند و اجازه استفاده از محتوای دارای حق چاپ را برای تجزیه و تحلیل دادهها داد. از آن زمان، قانونگذاران تصریح کردهاند که این بازنگری در مورد دادههای آموزشی هوش مصنوعی نیز اعمال میشود و مسیری را برای شرکتهای هوش مصنوعی باز میکند تا الگوریتمهای خود را بر روی مالکیت معنوی دیگر شرکتها آموزش دهند. (اسرائیل نیز همین رویکرد را در پیش گرفته است.)
امارات متحده عربی
مقررات در خط مقدم رویکرد همه کشورها به هوش مصنوعی نیست.
به عنوان مثال، در استراتژی ملی امارات متحده عربی برای هوش مصنوعی، جاه طلبی های نظارتی این کشور تنها چند پاراگراف در نظر گرفته شده است. در مجموع، یک شورای هوش مصنوعی و بلاک چین “رویکردهای ملی در مورد موضوعاتی مانند مدیریت داده، اخلاق و امنیت سایبری را بررسی خواهد کرد” و بهترین شیوه های جهانی در زمینه هوش مصنوعی را مشاهده و ادغام خواهد کرد.
بقیه سند 46 صفحه ای به تشویق توسعه هوش مصنوعی در امارات از طریق جذب استعدادهای هوش مصنوعی و ادغام این فناوری در بخش های کلیدی مانند انرژی، گردشگری و مراقبت های بهداشتی اختصاص دارد. این استراتژی، خلاصه اجرایی سند به خود می بالد، با تلاش های امارات متحده عربی برای تبدیل شدن به “بهترین کشور جهان تا سال 2071” همسو است.