این مقاله در ابتدا در وبلاگ Forrester ظاهر شد.
با انتظارات فراوان و دو روز قبل از اجلاس ایمنی هوش مصنوعی بریتانیا در هفته گذشته، کاخ سفید برگه اطلاعات و فرمان اجرایی کامل (EO) را در مورد توسعه و استفاده ایمن، ایمن و قابل اعتماد از هوش مصنوعی منتشر کرد که نشان دهنده تعهد دولت به هوش مصنوعی
EO دستور کار دولت را برای تقویت مزیت رقابتی کشور با سرمایه گذاری در فرصت های جدیدی که هوش مصنوعی ایجاد می کند و تقویت کارآفرینی هوش مصنوعی و در عین حال کاهش خطرات تعیین می کند.
دستور اجرایی از نظر دامنه گسترده است، با پیامدهای بزرگ فراتر از شاخه اجرایی
EO بر اساس اقدامات قبلی دولت است تا “ایمن، ایمن و قابل اعتماد توسعه هوش مصنوعی را هدایت کند.” این لحن خوشبینانه است و فرصتهایی را برای به کارگیری هوش مصنوعی در کنار دستورالعملهایی برای کاهش ریسک فرا میخواند و دامنه وسیع آن درک عمیقی از تفاوتهای ظریف و تأثیرات هوش مصنوعی را نشان میدهد.
EO با تعهد خود به توسعه استانداردهای جدید، اتخاذ رویکرد چند سازمانی برای اجرا، و پاسخگویی دولت به همان استانداردها برای استفاده «مسئولانه و مؤثر» از هوش مصنوعی، دندانهایی فراتر از الزامات اجباری برای قوه مجریه دارد. در نهایت، EO تاثیر بزرگ و ماندگاری برای شرکتها و صنایعی خواهد داشت که با بزرگترین کارفرمای کشور یعنی دولت فدرال معامله میکنند.
به این چهار دستورالعمل قابل توجه در EO توجه کنید
EO خواستار “تلاشی در سطح جامعه” از سوی دولت، بخش خصوصی، دانشگاه و جامعه مدنی برای رسیدگی به هشت اولویت هوش مصنوعی است. انتظار داشته باشید که در این چهار زمینه حیاتی بر استراتژی هوش مصنوعی سازمانی شما تأثیر بگذارد:
- استانداردهای جدید برای ایمنی و امنیت هوش مصنوعی. در حال حاضر، هیچ نیاز رسمی برای تیمسازی هوش مصنوعی (تست ساختاریافته برای یافتن نقصها و آسیبپذیریها در یک سیستم هوش مصنوعی) وجود ندارد. این با دستور مؤسسه ملی استاندارد و فناوری (NIST) و وزارت بازرگانی (DOC) برای ایجاد استانداردهای تیم قرمز ظرف 270 روز تغییر می کند. شرکتهایی که مدلهای بنیادی ایجاد میکنند، ملزم خواهند بود نتایج آزمایش تیم قرمز هوش مصنوعی را با دولت فدرال به اشتراک بگذارند و فرصتی را برای شرکتها ایجاد کنند تا در تدارکات خود از آنها درخواست کنند. NIST همچنین وظیفه دارد یک منبع همراه برای چارچوب مدیریت ریسک هوش مصنوعی خود 100-1 ایجاد کند که به هوش مصنوعی (genAI) و چارچوب توسعه نرمافزار امن برای تقویت شیوههای توسعه ایمن برای genAI و دو پایه میپردازد.
- توضیح در مورد مالکیت معنوی یکی از تأثیرات اقتصادی گسترده، قصد EO برای محافظت از سرمایه گذاری های نوآورانه شرکت های آمریکایی – و کارگران است. بخش 5.2 (c) (i–iii) به DOC و اداره ثبت اختراعات ایالات متحده (USPTO) دستور می دهد تا راهنمایی های خاصی را در مورد چگونگی تأثیر genAI بر فرآیند مخترع، واجد شرایط بودن حق ثبت اختراع زمانی که genAI در اختراع دخالت دارد، و هر گونه جداسازی یا به روز رسانی ویژه لازم ارائه دهند. همانطور که هوش مصنوعی در سایر فناوری های حیاتی و نوظهور استفاده می شود. این بخش همچنین این آژانس ها را به ارزیابی پیامدهای استفاده از آثار دارای حق چاپ برای آموزش مدل ها هدایت می کند.
- حفاظت از حریم خصوصی آمریکایی ها. EO تشخیص می دهد که حفاظت از داده های شخصی برای هوش مصنوعی ایمن و قابل اعتماد بسیار مهم است. این قانون بر نیاز به لایحه حریم خصوصی فدرال تأکید می کند، تحقیق و پذیرش فناوری های افزایش دهنده حریم خصوصی (PET) را تشویق می کند و از آژانس ها می خواهد که تدابیری برای جمع آوری اخلاقی و استفاده از داده های شخصی شهروندان برای هوش مصنوعی ایجاد کنند. اما تأثیر این دستورات با توجه به فقدان یک جدول زمانی معقول یا اقداماتی که بتوان فوراً انجام داد نامشخص است.
- مسئول و استفاده ایمن از هوش مصنوعی از طریق نظارت بر ریسک اکوسیستم شخص ثالث. ظرف 180 روز، ارائهدهندگان زیرساخت بهعنوان یک سرویس (IaaS) ایالات متحده که محصولات را در خارج از کشور مجدداً میفروشند، ملزم به تأیید هویت هر شخصی که حساب IaaS را از یک فروشنده خارجی دریافت میکند، خواهند بود. همچنین سازمانهای مستقل خارج از شاخه اجرایی (مانند EPA، CIA، و EEOB) را تشویق میکند تا از “محدوده کامل اختیارات” استفاده کنند تا اطمینان حاصل شود که نهادهای تحت نظارت “بررسی و نظارت بر هر سرویس هوش مصنوعی شخص ثالث” و با الزام یک “ارزیابی مستقل از ادعاهای فروشندگان در مورد اثربخشی و کاهش ریسک پیشنهادات هوش مصنوعی آنها.” شرکت ها در حال حاضر مشتریان خارجی را برای تراشه های نیمه هادی بررسی می کنند. اکنون، آنها باید این کار را برای هوش مصنوعی انجام دهند.
شرکت ها: برای استانداردهای هوش مصنوعی داخلی و بین المللی با مدیریت هوش مصنوعی آماده شوید
دستورات اجرایی معمولاً در جهت هدایت عملیات دولت فدرال هستند، اما این بدان معنا نیست که آنها تأثیر قابل توجهی بر سازمان های بزرگ ندارند. به عنوان مثال، EO نیاز به همکاری گسترده و بین المللی در مورد استانداردهای هوش مصنوعی و همچنین همسویی در کاهش خطر را اعلام می کند. یک چارچوب و استاندارد مشترک و مشترک، برای سازمانهای چندملیتی که از چشمانداز نظارتی پراکنده، گیجکننده و رو به رشد برای هوش مصنوعی چه در ایالات متحده و چه در سراسر جهان عبور میکنند، کمک خوبی خواهد بود.
همچنین، صدور دستورالعمل جدید توسط EO برای دولت فدرال برای سرمایه گذاری در هوش مصنوعی و استفاده از آن برای بازنگری در نحوه تهیه محصولات و خدمات هوش مصنوعی باید درد شرکت هایی را که به فروش، خدمات و حمایت از دولت می پردازند، کاهش دهد. با انجام این کار، رهنمودهای EO از دولت فدرال میخواهد که غذای سگ خود را بخورد، زیرا بخش خصوصی مراقب درسهایی است که چه کارایی دارد و چه چیزی خوب نیست.
شرکتها باید با ارزیابی خطرات موارد استفاده از هوش مصنوعی در برابر چارچوب هوش مصنوعی NIST، راهاندازی یک ابتکار رسمی حاکمیت هوش مصنوعی، و نظارت بر ایجاد اسناد همراه و استانداردهای جدید الزامشده در EO، برای تأثیرات پاییندستی این فرمان اجرایی آماده شوند.