از چین تا برزیل، در اینجا نحوه تنظیم هوش مصنوعی در سراسر جهان آمده است | دانش مرکز داده

هوش مصنوعی به سرعت از کتاب های درسی علوم کامپیوتر به جریان اصلی تبدیل شده است و لذت هایی مانند بازتولید صدای افراد مشهور و چت ربات های آماده برای سرگرم کردن مکالمات پر پیچ و خم را ایجاد می کند.

اما این فناوری، که به ماشین‌هایی که برای انجام کارهای هوشمند آموزش دیده‌اند، اشاره دارد، همچنین اختلالی عمیق را تهدید می‌کند: هنجارهای اجتماعی، کل صنایع و ثروت شرکت‌های فناوری. این پتانسیل بسیار خوبی برای تغییر همه چیز از تشخیص بیماران گرفته تا پیش بینی الگوهای آب و هوا دارد – اما به گفته برخی کارشناسان می تواند میلیون ها نفر را بیکار کند یا حتی از هوش انسانی پیشی بگیرد.

هفته گذشته، مرکز تحقیقاتی پیو نظرسنجی را منتشر کرد که در آن اکثریت آمریکایی ها – 52 درصد – گفتند که بیشتر از اینکه هیجان زده باشند در مورد افزایش استفاده از هوش مصنوعی، از جمله نگرانی در مورد حریم خصوصی شخصی و کنترل انسان بر فناوری های جدید، احساس نگرانی می کنند.

گسترش مدل‌های هوش مصنوعی در سال جاری مانند ChatGPT، Bard و Bing که همگی در دسترس عموم هستند، هوش مصنوعی را در خط مقدم قرار داد. اکنون، دولت‌ها از چین گرفته تا برزیل و اسرائیل نیز در تلاشند تا دریابند چگونه از قدرت دگرگون‌کننده هوش مصنوعی استفاده کنند، در حالی که بدترین افراط‌ها را مهار کرده و قوانینی را برای استفاده از آن در زندگی روزمره تهیه می‌کنند.

برخی از کشورها، از جمله اسرائیل و ژاپن، با شفاف سازی داده های موجود، حریم خصوصی و حفاظت از حق چاپ به رشد سریع آن واکنش نشان داده اند – در هر دو مورد، راه را برای استفاده از محتوای دارای حق چاپ برای آموزش هوش مصنوعی باز می کنند. سایرین، مانند امارات متحده عربی، اعلامیه‌های مبهم و گسترده‌ای درباره استراتژی هوش مصنوعی منتشر کرده‌اند، یا گروه‌های کاری در مورد بهترین شیوه‌های هوش مصنوعی راه‌اندازی کرده‌اند و پیش‌نویس قوانین را برای بررسی و بررسی عمومی منتشر کرده‌اند.

برخی دیگر هنوز رویکرد انتظار و دید را اتخاذ کرده‌اند، حتی زمانی که رهبران صنعت، از جمله OpenAI، خالق ربات چت ویروسی ChatGPT، خواستار همکاری بین‌المللی پیرامون مقررات و بازرسی شده‌اند. در بیانیه ای در ماه مه، مدیر عامل شرکت و دو هم بنیانگذار آن نسبت به “احتمال خطر وجودی” مرتبط با ابرهوش هشدار دادند، موجودیتی فرضی که عقل آن از عملکرد شناختی انسان فراتر می رود.

در بیانیه آمده است: «توقف آن به چیزی شبیه یک رژیم نظارت جهانی نیاز دارد، و حتی این کار تضمینی نیست».

با این حال، قوانین مشخص کمی در سراسر جهان وجود دارد که به طور خاص مقررات هوش مصنوعی را هدف قرار می دهد. در اینجا برخی از راه هایی که قانونگذاران در کشورهای مختلف سعی در پاسخگویی به سؤالات پیرامون استفاده از آن دارند، آورده شده است.

برزیل

برزیل پیش نویس قانون هوش مصنوعی دارد که اوج سه سال لوایح پیشنهادی (و متوقف شده) در این زمینه است. این سند – که اواخر سال گذشته به عنوان بخشی از گزارش 900 صفحه‌ای کمیته سنا درباره هوش مصنوعی منتشر شد – به طور دقیق حقوق کاربرانی را که با سیستم‌های هوش مصنوعی در تعامل هستند و دستورالعمل‌هایی را برای دسته‌بندی انواع مختلف هوش مصنوعی بر اساس خطراتی که برای جامعه ایجاد می‌کنند، ارائه می‌کند.

تمرکز قانون بر حقوق کاربران، وظیفه ارائه دهندگان هوش مصنوعی را برای ارائه اطلاعات در مورد محصولات هوش مصنوعی خود به کاربران می گذارد. کاربران حق دارند بدانند که در حال تعامل با هوش مصنوعی هستند – اما همچنین حق دارند توضیحی در مورد اینکه چگونه یک هوش مصنوعی تصمیم یا توصیه خاصی را اتخاذ کرده است. کاربران همچنین می توانند تصمیمات هوش مصنوعی را به چالش بکشند یا مداخله انسانی را درخواست کنند، به ویژه اگر تصمیم هوش مصنوعی احتمالاً تأثیر قابل توجهی بر کاربر داشته باشد، مانند سیستم هایی که با خودروهای خودران، استخدام، ارزیابی اعتبار یا شناسایی بیومتریک مرتبط هستند.

توسعه دهندگان هوش مصنوعی نیز ملزم به انجام ارزیابی ریسک قبل از ارائه محصول هوش مصنوعی به بازار هستند. بالاترین طبقه‌بندی ریسک به هر سیستم هوش مصنوعی اشاره دارد که تکنیک‌های «فرعی» را به کار می‌گیرد یا از کاربران به روش‌هایی که برای سلامت یا ایمنی آنها مضر است بهره‌برداری می‌کند. اینها کاملاً ممنوع است. پیش‌نویس قانون هوش مصنوعی همچنین پیاده‌سازی‌های احتمالی هوش مصنوعی «پرخطر»، از جمله هوش مصنوعی مورد استفاده در مراقبت‌های بهداشتی، شناسایی بیومتریک و امتیازدهی اعتباری و سایر کاربردها را مشخص می‌کند. ارزیابی ریسک برای محصولات هوش مصنوعی “پرخطر” باید در یک پایگاه داده دولتی منتشر شود.

همه توسعه‌دهندگان هوش مصنوعی در قبال آسیب‌های ناشی از سیستم‌های هوش مصنوعی خود مسئول هستند، اگرچه توسعه‌دهندگان محصولات پرخطر با استانداردهای بالاتری مسئولیت دارند.

چین

چین پیش‌نویس مقرراتی را برای هوش مصنوعی مولد منتشر کرده است و به دنبال نظرات عمومی در مورد قوانین جدید است. با این حال، برخلاف بسیاری از کشورها، پیش‌نویس چین اشاره می‌کند که هوش مصنوعی مولد باید «ارزش‌های اصلی سوسیالیستی» را منعکس کند.

طبق ترجمه این سند توسط پروژه DigiChina دانشگاه استنفورد، در تکرار فعلی، پیش‌نویس مقررات می‌گوید توسعه‌دهندگان مسئولیت خروجی ایجاد شده توسط هوش مصنوعی خود را بر عهده دارند. همچنین محدودیت هایی برای منبع داده های آموزشی وجود دارد. اگر داده‌های آموزشی آنها مالکیت معنوی دیگران را نقض کند، توسعه‌دهندگان از نظر قانونی مسئول هستند. این مقررات همچنین تصریح می‌کند که خدمات هوش مصنوعی باید به گونه‌ای طراحی شوند که فقط محتوای «واقعی و دقیق» تولید کنند.

این قوانین پیشنهادی بر اساس قوانین موجود مربوط به دیپ‌فیک‌ها، الگوریتم‌های توصیه و امنیت داده‌ها است و به چین اجازه می‌دهد تا از سایر کشورها که از ابتدا قوانین جدید را تهیه می‌کنند، پیشی بگیرد. رگولاتور اینترنت این کشور نیز در ماه اوت محدودیت هایی را برای فناوری تشخیص چهره اعلام کرد.

چین اهداف چشمگیری را برای صنایع فناوری و هوش مصنوعی خود در نظر گرفته است: در “برنامه توسعه هوش مصنوعی نسل بعدی”، سند بلندپروازانه 2017 که توسط دولت چین منتشر شد، نویسندگان می نویسند که تا سال 2030، “نظریه ها، فناوری ها و برنامه های کاربردی هوش مصنوعی چین باید دستیابی به سطوح پیشرو در جهان.”

اتحادیه اروپا

در ماه ژوئن، پارلمان اروپا به تصویب آنچه «قانون هوش مصنوعی» نامیده شد، رأی داد. مشابه پیش نویس قانون برزیل، قانون هوش مصنوعی هوش مصنوعی را به سه صورت طبقه بندی می کند: غیرقابل قبول، پرخطر و محدود.

سیستم‌های هوش مصنوعی که غیرقابل قبول تلقی می‌شوند، آن‌هایی هستند که برای جامعه «تهدید» تلقی می‌شوند. (پارلمان اروپا «اسباب‌بازی‌های فعال‌شده با صدا که رفتار خطرناک در کودکان را تشویق می‌کند» را به عنوان یک مثال ارائه می‌کند.) این نوع سیستم‌ها بر اساس قانون هوش مصنوعی ممنوع هستند. هوش مصنوعی پرخطر قبل از ورود به بازار و همچنین در طول چرخه عمر محصول باید توسط مقامات اروپایی تایید شود. اینها شامل محصولات هوش مصنوعی است که به اجرای قانون، مدیریت مرزها و غربالگری اشتغال و غیره مربوط می شود.

سیستم‌های هوش مصنوعی که به عنوان یک ریسک محدود تلقی می‌شوند باید به‌طور مناسب برای کاربران برچسب‌گذاری شوند تا درباره تعاملاتشان با هوش مصنوعی تصمیم‌گیری آگاهانه بگیرند. در غیر این صورت، این محصولات عمدتاً از بررسی نظارتی اجتناب می کنند.

این قانون هنوز باید توسط شورای اروپا تصویب شود، اگرچه قانونگذاران پارلمان امیدوارند که این روند در اواخر سال جاری به پایان برسد.

اسرائيل

در سال 2022، وزارت نوآوری، علم و فناوری اسرائیل پیش نویس خط مشی مربوط به مقررات هوش مصنوعی را منتشر کرد. نویسندگان این سند آن را به عنوان «قطب‌نمای اخلاقی و تجاری برای هر شرکت، سازمان یا ارگان دولتی درگیر در زمینه هوش مصنوعی» توصیف می‌کنند و بر تمرکز آن بر «نوآوری مسئولانه» تأکید می‌کنند.

پیش‌نویس سیاست اسرائیل می‌گوید توسعه و استفاده از هوش مصنوعی باید به “حاکمیت قانون، حقوق اساسی و منافع عمومی احترام بگذارد و به ویژه، [maintain] کرامت انسانی و حریم خصوصی.” در جای دیگر، به طور مبهم، بیان می کند که “اقدامات منطقی باید مطابق با مفاهیم حرفه ای پذیرفته شده اتخاذ شود” تا اطمینان حاصل شود که محصولات هوش مصنوعی برای استفاده ایمن هستند.

به طور گسترده تر، پیش نویس خط مشی خودتنظیمی و رویکرد «نرم» را برای مداخله دولت در توسعه هوش مصنوعی تشویق می کند. این سند به جای پیشنهاد قوانین یکنواخت و در سطح صنعت، تنظیم‌کننده‌های بخش خاص را تشویق می‌کند تا در صورت لزوم، مداخلات بسیار مناسب را در نظر بگیرند و دولت تلاش کند با بهترین شیوه‌های هوش مصنوعی جهانی سازگاری داشته باشد.

ایتالیا

در ماه مارس، ایتالیا برای مدت کوتاهی ChatGPT را به دلیل نگرانی در مورد نحوه و میزان جمع آوری داده های کاربران توسط ربات چت ممنوع کرد.

از آن زمان، ایتالیا تقریباً 33 میلیون دلار برای حمایت از کارگرانی که در معرض خطر عقب ماندن از تحول دیجیتال هستند – از جمله هوش مصنوعی، اما نه محدود، اختصاص داده است. حدود یک سوم این مبلغ برای آموزش کارگرانی که ممکن است شغلشان به دلیل اتوماسیون منسوخ شود، استفاده خواهد شد. وجوه باقی‌مانده برای آموزش مهارت‌های دیجیتال به افراد بیکار یا غیرفعال، به امید تشویق ورود آنها به بازار کار، اختصاص می‌یابد.

ژاپن

ژاپن، مانند اسرائیل، رویکرد «قانون نرم» را برای مقررات هوش مصنوعی اتخاذ کرده است: این کشور هیچ مقررات تجویزی ای ندارد که بر روش های خاصی که می تواند و نمی تواند از هوش مصنوعی استفاده شود، حاکم است. در عوض، ژاپن تصمیم گرفته است منتظر بماند و ببیند هوش مصنوعی چگونه توسعه می‌یابد و به این دلیل که می‌خواهد از نوآوری‌ها جلوگیری کند.

در حال حاضر، توسعه دهندگان هوش مصنوعی در ژاپن مجبور شده اند به قوانین مجاور – مانند قوانین مربوط به حفاظت از داده ها – برای ارائه دستورالعمل ها تکیه کنند. به عنوان مثال، در سال 2018، قانون‌گذاران ژاپنی قانون حق نسخه‌برداری این کشور را بازبینی کردند و اجازه استفاده از محتوای دارای حق چاپ را برای تجزیه و تحلیل داده‌ها داد. از آن زمان، قانون‌گذاران تصریح کرده‌اند که این بازنگری در مورد داده‌های آموزشی هوش مصنوعی نیز اعمال می‌شود و مسیری را برای شرکت‌های هوش مصنوعی باز می‌کند تا الگوریتم‌های خود را بر روی مالکیت معنوی دیگر شرکت‌ها آموزش دهند. (اسرائیل نیز همین رویکرد را در پیش گرفته است.)

امارات متحده عربی

مقررات در خط مقدم رویکرد همه کشورها به هوش مصنوعی نیست.

به عنوان مثال، در استراتژی ملی امارات متحده عربی برای هوش مصنوعی، جاه طلبی های نظارتی این کشور تنها چند پاراگراف در نظر گرفته شده است. در مجموع، یک شورای هوش مصنوعی و بلاک چین “رویکردهای ملی در مورد موضوعاتی مانند مدیریت داده، اخلاق و امنیت سایبری را بررسی خواهد کرد” و بهترین شیوه های جهانی در زمینه هوش مصنوعی را مشاهده و ادغام خواهد کرد.

بقیه سند 46 صفحه ای به تشویق توسعه هوش مصنوعی در امارات از طریق جذب استعدادهای هوش مصنوعی و ادغام این فناوری در بخش های کلیدی مانند انرژی، گردشگری و مراقبت های بهداشتی اختصاص دارد. این استراتژی، خلاصه اجرایی سند به خود می بالد، با تلاش های امارات متحده عربی برای تبدیل شدن به “بهترین کشور جهان تا سال 2071” همسو است.