دستور اجرایی بایدن در مورد هوش مصنوعی بر نوآوری متمرکز است | دانش مرکز داده

این مقاله در ابتدا در وبلاگ Forrester ظاهر شد.

با انتظارات فراوان و دو روز قبل از اجلاس ایمنی هوش مصنوعی بریتانیا در هفته گذشته، کاخ سفید برگه اطلاعات و فرمان اجرایی کامل (EO) را در مورد توسعه و استفاده ایمن، ایمن و قابل اعتماد از هوش مصنوعی منتشر کرد که نشان دهنده تعهد دولت به هوش مصنوعی

EO دستور کار دولت را برای تقویت مزیت رقابتی کشور با سرمایه گذاری در فرصت های جدیدی که هوش مصنوعی ایجاد می کند و تقویت کارآفرینی هوش مصنوعی و در عین حال کاهش خطرات تعیین می کند.

دستور اجرایی از نظر دامنه گسترده است، با پیامدهای بزرگ فراتر از شاخه اجرایی

EO بر اساس اقدامات قبلی دولت است تا “ایمن، ایمن و قابل اعتماد توسعه هوش مصنوعی را هدایت کند.” این لحن خوشبینانه است و فرصت‌هایی را برای به کارگیری هوش مصنوعی در کنار دستورالعمل‌هایی برای کاهش ریسک فرا می‌خواند و دامنه وسیع آن درک عمیقی از تفاوت‌های ظریف و تأثیرات هوش مصنوعی را نشان می‌دهد.

EO با تعهد خود به توسعه استانداردهای جدید، اتخاذ رویکرد چند سازمانی برای اجرا، و پاسخگویی دولت به همان استانداردها برای استفاده «مسئولانه و مؤثر» از هوش مصنوعی، دندان‌هایی فراتر از الزامات اجباری برای قوه مجریه دارد. در نهایت، EO تاثیر بزرگ و ماندگاری برای شرکت‌ها و صنایعی خواهد داشت که با بزرگترین کارفرمای کشور یعنی دولت فدرال معامله می‌کنند.

به این چهار دستورالعمل قابل توجه در EO توجه کنید

EO خواستار “تلاشی در سطح جامعه” از سوی دولت، بخش خصوصی، دانشگاه و جامعه مدنی برای رسیدگی به هشت اولویت هوش مصنوعی است. انتظار داشته باشید که در این چهار زمینه حیاتی بر استراتژی هوش مصنوعی سازمانی شما تأثیر بگذارد:

  1. استانداردهای جدید برای ایمنی و امنیت هوش مصنوعی. در حال حاضر، هیچ نیاز رسمی برای تیم‌سازی هوش مصنوعی (تست ساختاریافته برای یافتن نقص‌ها و آسیب‌پذیری‌ها در یک سیستم هوش مصنوعی) وجود ندارد. این با دستور مؤسسه ملی استاندارد و فناوری (NIST) و وزارت بازرگانی (DOC) برای ایجاد استانداردهای تیم قرمز ظرف 270 روز تغییر می کند. شرکت‌هایی که مدل‌های بنیادی ایجاد می‌کنند، ملزم خواهند بود نتایج آزمایش تیم قرمز هوش مصنوعی را با دولت فدرال به اشتراک بگذارند و فرصتی را برای شرکت‌ها ایجاد کنند تا در تدارکات خود از آنها درخواست کنند. NIST همچنین وظیفه دارد یک منبع همراه برای چارچوب مدیریت ریسک هوش مصنوعی خود 100-1 ایجاد کند که به هوش مصنوعی (genAI) و چارچوب توسعه نرم‌افزار امن برای تقویت شیوه‌های توسعه ایمن برای genAI و دو پایه می‌پردازد.
  2. توضیح در مورد مالکیت معنوی یکی از تأثیرات اقتصادی گسترده، قصد EO برای محافظت از سرمایه گذاری های نوآورانه شرکت های آمریکایی – و کارگران است. بخش 5.2 (c) (i–iii) به DOC و اداره ثبت اختراعات ایالات متحده (USPTO) دستور می دهد تا راهنمایی های خاصی را در مورد چگونگی تأثیر genAI بر فرآیند مخترع، واجد شرایط بودن حق ثبت اختراع زمانی که genAI در اختراع دخالت دارد، و هر گونه جداسازی یا به روز رسانی ویژه لازم ارائه دهند. همانطور که هوش مصنوعی در سایر فناوری های حیاتی و نوظهور استفاده می شود. این بخش همچنین این آژانس ها را به ارزیابی پیامدهای استفاده از آثار دارای حق چاپ برای آموزش مدل ها هدایت می کند.
  3. حفاظت از حریم خصوصی آمریکایی ها. EO تشخیص می دهد که حفاظت از داده های شخصی برای هوش مصنوعی ایمن و قابل اعتماد بسیار مهم است. این قانون بر نیاز به لایحه حریم خصوصی فدرال تأکید می کند، تحقیق و پذیرش فناوری های افزایش دهنده حریم خصوصی (PET) را تشویق می کند و از آژانس ها می خواهد که تدابیری برای جمع آوری اخلاقی و استفاده از داده های شخصی شهروندان برای هوش مصنوعی ایجاد کنند. اما تأثیر این دستورات با توجه به فقدان یک جدول زمانی معقول یا اقداماتی که بتوان فوراً انجام داد نامشخص است.
  4. مسئول و استفاده ایمن از هوش مصنوعی از طریق نظارت بر ریسک اکوسیستم شخص ثالث. ظرف 180 روز، ارائه‌دهندگان زیرساخت به‌عنوان یک سرویس (IaaS) ایالات متحده که محصولات را در خارج از کشور مجدداً می‌فروشند، ملزم به تأیید هویت هر شخصی که حساب IaaS را از یک فروشنده خارجی دریافت می‌کند، خواهند بود. همچنین سازمان‌های مستقل خارج از شاخه اجرایی (مانند EPA، CIA، و EEOB) را تشویق می‌کند تا از “محدوده کامل اختیارات” استفاده کنند تا اطمینان حاصل شود که نهادهای تحت نظارت “بررسی و نظارت بر هر سرویس هوش مصنوعی شخص ثالث” و با الزام یک “ارزیابی مستقل از ادعاهای فروشندگان در مورد اثربخشی و کاهش ریسک پیشنهادات هوش مصنوعی آنها.” شرکت ها در حال حاضر مشتریان خارجی را برای تراشه های نیمه هادی بررسی می کنند. اکنون، آنها باید این کار را برای هوش مصنوعی انجام دهند.

شرکت ها: برای استانداردهای هوش مصنوعی داخلی و بین المللی با مدیریت هوش مصنوعی آماده شوید

دستورات اجرایی معمولاً در جهت هدایت عملیات دولت فدرال هستند، اما این بدان معنا نیست که آنها تأثیر قابل توجهی بر سازمان های بزرگ ندارند. به عنوان مثال، EO نیاز به همکاری گسترده و بین المللی در مورد استانداردهای هوش مصنوعی و همچنین همسویی در کاهش خطر را اعلام می کند. یک چارچوب و استاندارد مشترک و مشترک، برای سازمان‌های چندملیتی که از چشم‌انداز نظارتی پراکنده، گیج‌کننده و رو به رشد برای هوش مصنوعی چه در ایالات متحده و چه در سراسر جهان عبور می‌کنند، کمک خوبی خواهد بود.

همچنین، صدور دستورالعمل جدید توسط EO برای دولت فدرال برای سرمایه گذاری در هوش مصنوعی و استفاده از آن برای بازنگری در نحوه تهیه محصولات و خدمات هوش مصنوعی باید درد شرکت هایی را که به فروش، خدمات و حمایت از دولت می پردازند، کاهش دهد. با انجام این کار، رهنمودهای EO از دولت فدرال می‌خواهد که غذای سگ خود را بخورد، زیرا بخش خصوصی مراقب درس‌هایی است که چه کارایی دارد و چه چیزی خوب نیست.

شرکت‌ها باید با ارزیابی خطرات موارد استفاده از هوش مصنوعی در برابر چارچوب هوش مصنوعی NIST، راه‌اندازی یک ابتکار رسمی حاکمیت هوش مصنوعی، و نظارت بر ایجاد اسناد همراه و استانداردهای جدید الزام‌شده در EO، برای تأثیرات پایین‌دستی این فرمان اجرایی آماده شوند.

سئو PBN | خبر های جدید سئو و هک و سرور
مطالب پیشنهادی  مراکز داده در سال 2023: سال نو، پیش بینی های جدید | دانش مرکز داده