اتحادیه اروپا در مقررات هوش مصنوعی پیشتاز است | دانش مرکز داده

این مقاله در ابتدا در No Jitter منتشر شد.

در اوایل ماه دسامبر، سیاستگذاران اتحادیه اروپا گام‌های مهم و تعیین‌کننده‌ای را در پیشبرد مقررات جهانی هوش مصنوعی برداشتند. این اقدام، اگرچه هنوز برای کدنویسی آماده نیست، تأثیر قابل توجهی بر توسعه و تکامل مقررات هوش مصنوعی در سراسر جهان خواهد داشت. جالب توجه است، طبق مقاله اخیر در MIT Technology Review، یکی از محرک‌های کلیدی در پذیرش و استقرار GDPR، کنترل و/یا مالکیت داده‌های متعلق به شهروندان اتحادیه اروپا توسط نهادهای فناوری آمریکایی و چینی بود.

قانون هوش مصنوعی اتحادیه اروپا (AIA)، دامنه بسیار گسترده تری دارد و احتمالاً تأثیر قابل توجهی بر مقررات جهانی هوش مصنوعی در آینده نسبت به GDPR خواهد داشت. اگرچه هنوز نهایی نشده است، اما AIA همچنین قصد دارد بین آن تعادل ایجاد کند مقررات به منظور محافظت از افراد و داده هایی که در مورد آنها وجود دارد و نوآوری که با دسترسی به مقادیر زیادی داده فعال می شود. پیش بینی می شود که نسخه نهایی تا پایان سال 2024 منتشر شود و تاریخ اجرایی آن در سال 2025 یا 2026 باشد.

به گفته تیری برتون، کمیسر فعلی اتحادیه اروپا برای بازارهای داخلی اتحادیه اروپا، “AIA بسیار بیشتر از یک کتاب قوانین است – این یک سکوی راه اندازی برای استارت آپ ها و تحقیقات اتحادیه اروپا برای رهبری مسابقه جهانی هوش مصنوعی است.” در حالی که ممکن است در اتحادیه اروپا سرچشمه گرفته باشد، انتظار می رود تأثیر آن جهانی باشد.

AIA بر اساس آنچه به عنوان “مدل پایه” شناخته می شود، ساخته شده است، که وبلاگ تحقیقاتی IBM آن را به عنوان “مدل های هوش مصنوعی انعطاف پذیر و قابل استفاده مجدد که می تواند تقریباً برای هر حوزه یا کار صنعتی اعمال شود” تعریف می کند. این تعریف به اندازه کافی عمومی و در مقیاس بزرگ است که بسیاری از املاک و مستغلات مفهومی هوش مصنوعی را پوشش می دهد، اما نگرانی این است که علیرغم گسترده بودن تعریف، چه اتفاقی می افتد زمانی که داده های جمع آوری شده تحت تعریف گسترده برای حل یک کاربرد بسیار خاص استفاده می شود. مورد.

علاوه بر این، زمانی که بر اساس داده‌های جمع‌آوری‌شده از طیف گسترده‌ای از منابع برای تصمیم‌گیری در مورد یک مشکل خاص استفاده می‌شود، چه اتفاقی می‌افتد، و پاسخ نه تنها نادرست است، بلکه منجر به آسیب‌های قابل سنجش نیست، بلکه منجر به مسئولیت نیز می‌شود.

طبق سند رسمی اتحادیه اروپا، با در نظر گرفتن این روند و چالش های قانونی، مذاکره کنندگان اتحادیه اروپا چارچوبی مبتنی بر ریسک ایجاد کردند. این شامل قوانینی است که:

• خطرات ایجاد شده توسط برنامه های کاربردی هوش مصنوعی را برطرف کنید.
• فهرستی از برنامه های پرخطر را پیشنهاد دهید.
• الزامات روشنی را برای سیستم های هوش مصنوعی برای کاربردهای پرخطر تعیین کنید.
• تعریف تعهدات خاص برای کاربران هوش مصنوعی و ارائه دهندگان برنامه های کاربردی پرخطر.
• ارزیابی انطباق را قبلا پیشنهاد دهید [an] سیستم هوش مصنوعی در خدمت قرار می گیرد یا در بازار عرضه می شود.
• پس از عرضه چنین سیستم هوش مصنوعی در بازار، اجرای آن را پیشنهاد دهید. و
• پیشنهاد یک ساختار حکومتی در سطح اروپایی و ملی.

علاوه بر این، این مدل چهار سطح ریسک را در هوش مصنوعی تعریف می‌کند: ریسک حداقل، ریسک محدود، ریسک بالا و ریسک غیرقابل قبول. .

اگرچه AIA هنوز تایید نهایی را از اتحادیه اروپا دریافت نکرده است، با توجه به سرعتی که انتظار می رود برنامه ها و محصولات هوش مصنوعی با آن به بازار برسند، حاوی مقرراتی است که نشان می دهد این قوانین به شدت اجرا خواهند شد. همانطور که در حال حاضر تعریف شده است، این ابزارهای اجرایی تعهدات انطباق بسیار بیشتری نسبت به GDPR ایجاد می کنند و شامل جریمه های مالی سخت برای عدم رعایت بر اساس درصدی از درآمد جهانی سالانه (بله، شما درست خوانده اید!) که بسیار بیشتر است، خواهد بود. شدیدتر از هر چیزی که حتی تحت قوانین GDPR در نظر گرفته شده است. برای شرکت های چند ملیتی، این به معنای پول جدی برای عدم رعایت است، و این پس از پرداخت هزینه های قانونی است (و آن ها بادام زمینی نیز نخواهد بود).

در رده‌های ریسک بالا و غیرقابل قبول، مسائل مرتبط با جمع‌آوری، نگهداری و استفاده (برای خیر یا شر) از اطلاعات بیومتریک گنجانده شده است. اتحادیه اروپا اقدامات خاصی را انجام داده است تا مطمئن شود کسانی که از داده های جمع آوری شده از یک منبع هوش مصنوعی حاوی بیومتریک استفاده می کنند، “خطر غیرقابل قبولی” برای اطلاعات خصوصی شهروندان و ساکنان اتحادیه اروپا ایجاد می کنند، و بنابراین باید چنین داده هایی به عنوان “خطر بالا” تلقی شوند. مشروط به بررسی و نظارت بیشتر. مناطق هدف خاص شامل مکان هایی است که از ابزارهای هوش مصنوعی در شیوه های استخدام و همچنین در “پلیس پیش بینی” استفاده می شود.

به عنوان یک نکته جانبی، افزایش اجرای قوانین حفظ حریم خصوصی و امنیت داده ها به آن نهادهای دولتی در اتحادیه اروپا محدود نمی شود. اخیراً، FCC با چهار ایالت (کانکتیکات، ایلینوی، نیویورک و پنسیلوانیا) برای افزایش حریم خصوصی و حفاظت از داده ها و تحقیقات امنیت سایبری همکاری کرده است. با توجه به اینکه این سه جنبه حفاظت از داده‌ها اهمیت فزاینده‌ای پیدا می‌کنند، زیرا داده‌های شخصی بیشتری «آنجا» وجود دارد.

اتحادیه اروپا موفق شده است چیزی بیش از یک طرح اولیه برای مقررات هوش مصنوعی در آینده ایجاد کند. به شرکت‌ها در سراسر جهان توصیه می‌شود که توجه کنند، زیرا انطباق بسیار مهم و عدم انطباق بسیار بسیار پرهزینه خواهد بود.