این مقاله در ابتدا در وبلاگ Forrester ظاهر شد
طبق دادههای Forrester، تقریباً از هر سه سازمان جهانی، یک سازمان ریسک و حاکمیت را بهعنوان موانعی برای پذیرش هوش مصنوعی مولد تشخیص میدهد، اما اکنون که قانون هوش مصنوعی اتحادیه اروپا در حال تبدیل شدن به واقعیت است، این نگرانیها بیشتر افزایش مییابد.
با توجه به اینکه فضای کمی برای تغییرات بیشتر در متن باقی مانده و روند قانونگذاری رو به پایان است، انتظار داریم اتحادیه اروپا در چند ماه آینده این قانون را به طور رسمی تصویب کند. اگرچه ناقص است، اما نمی توان تأثیر این قانون را نادیده گرفت. قانون هوش مصنوعی اتحادیه اروپا اولین قانون الزام آور در مورد هوش مصنوعی خواهد بود.
چه چیزی باید در مورد آن بدانید؟
در اینجا نکات اصلی من در مورد قانون هوش مصنوعی آمده است:
- این قانون برای اطمینان از ایمن بودن سیستم های هوش مصنوعی مورد استفاده در اتحادیه اروپا طراحی شده است و به حقوق اساسی و ارزش های اتحادیه اروپا، صرف نظر از اینکه از کجا آمده اند، احترام می گذارند. این بدان معناست که صرف نظر از محل دفتر مرکزی شما، اگر سازمان شما بخشی از یک “زنجیره ارزش هوش مصنوعی” است که از هوش مصنوعی برای تولید محصولات و/یا خدمات مرتبط با بازار اتحادیه اروپا استفاده می کند، باید قوانین را رعایت کنید.
- این مقررات مبتنی بر رویکرد “مبتنی بر ریسک” است. این بدان معناست که هدف قوانین کنترل خطرات ناشی از موارد استفاده تجاری است نه فناوری زیربنایی چنین مواردی – هر چه ریسک بالاتر باشد، قوانین سختگیرتر می شود. وقتی صحبت از سیستم های پرخطر می شود، چهار حوزه حیاتی وجود دارد: شفافیت، امنیت فناوری اطلاعات، حاکمیت داده ها و مدیریت ریسک. این رویکرد مبتنی بر ریسک همچنین برای پوشش مدلهای هوش مصنوعی با تأثیر بالا و همه منظوره گسترش مییابد.
مقررات این قانون همه به طور همزمان لازم الاجرا نخواهد بود. سازمان ها باید به دقت به جدول زمانی اجرا نگاه کنند. به طور کلی، این قانون در بیستمین روز پس از انتشار در مجله رسمی اتحادیه اروپا لازمالاجرا خواهد شد و 24 ماه پس از لازمالاجرا شدن قابل اجرا خواهد بود.
اما برخی مقررات را می توان زودتر اجرا کرد، مانند ممنوعیت سیستم های هوش مصنوعی با خطر غیرقابل قبول که تنها شش ماه پس از لازم الاجرا شدن اعمال می شود. سایر مقررات، مانند تعهدات سیستمهای هوش مصنوعی پرخطر، ممکن است به یک بازه زمانی 36 ماهه پس از انتشار قبل از اجرا نیاز داشته باشد.
چه چیزی را باید انتظار داشته باشید؟
این قانون یک نقطه عطف بزرگ است که به طور موثر به یک چالش جهانی در یک محیط تکنولوژیک در حال توسعه که یک حوزه کلیدی برای آینده جوامع و اقتصادهای ما است، می پردازد. اما چیزهای بیشتری وجود دارد که سازمان ها باید برای آن آماده شوند:
- جزییات فنی: با همکاری اتحادیه اروپا، کشورهای عضو ایجاد قوانین هماهنگسازی، آییننامه رفتار و استانداردها را رهبری میکنند که حاوی جزئیات فنی زیادی است و در مجموع تأثیر زیادی بر انطباق با هوش مصنوعی خواهد داشت. اینها همچنین شامل قوانین خاص بخش، به ویژه قوانین با ریسک بالاتر می باشد. از آنجایی که برخی از کشورهای عضو ممکن است جنبههای خاصی از قانون را بر سایر جنبهها اولویت دهند، میتوانیم انتظار داشته باشیم که در طول زمان چندپارگی ظاهر شود.
- اجرا: این قانون همچنین ایجاد شبکه جدیدی از سازمانهای مسئول اجرا را ایجاد میکند. برنامه این است که این شبکه آنچه را که در حال حاضر برای اجرای قوانین حفظ حریم خصوصی داریم، با مقامات مستقل در هر کشور و یک نهاد مرکزی برای ارائه راهنمایی، هدایت و پشتیبانی تکرار کند. علیرغم تمایل شدید برای دستیابی به همگنی، انتظار تفاوتهای بالقوه در سبکها و اولویتهای اجرایی منصفانه است.
- چارچوب قانون هوش مصنوعی زنده خواهد شد: قانون هوش مصنوعی وقتی صحبت از حاکمیت اتحادیه اروپا بر خطرات هوش مصنوعی می شود، نوک کوه یخ است. در آینده ای نزدیک، دستورالعمل های به روز شده در مورد ایمنی محصول آغاز می شود و الزامات مسئولیت جدیدی ظاهر می شود که تأثیر قابل توجهی بر نحوه مدیریت سازمان ها بر هوش مصنوعی و مسئولیت آنها در قبال آن خواهد داشت. اجرای الزامات حفظ حریم خصوصی در پرتو هوش مصنوعی نیز سختتر میشود، زیرا قوانین IP و الزامات حفاظت از مصرفکننده برای رسیدگی بهتر به موارد استفاده مرتبط با هوش مصنوعی به تکامل خود ادامه میدهند.
الان چه کار باید بکنی؟
قبل از پرداختن به جزئیات، سازمان ها باید فهرستی از سیستم های هوش مصنوعی خود را جمع آوری کنند. این یک مرحله ضروری برای شروع فرآیند انطباق است. توانایی طبقهبندی سیستمهای هوش مصنوعی و موارد استفاده از آنها در راستای رویکرد مبتنی بر ریسک قانون یک اقدام اساسی است. این بدان معنی است که سازمان ها باید شروع به طراحی فرآیندهای خود برای ساخت، اجرا و بهینه سازی رویکرد خود برای طبقه بندی سیستم های هوش مصنوعی و ارزیابی خطرات موارد استفاده در خطر کنند. منابعی برای حمایت از شرکتها در این تلاشها، از جمله در خود قانون، وجود دارد، اما نه ابزارها یا رویکردهای رسمی. قبل از اینکه سازمانها بتوانند با رویکردی که فکر میکنند الزامات قانون را برآورده میکند راحت باشند، آزمون و خطاهای زیادی وجود خواهد داشت.
انزا ایانوپولو تحلیلگر اصلی Forrester است.