دستور کار مشترک برای پیشرفت هوش مصنوعی مسئول

وقتی صحبت از هوش مصنوعی به میان می آید، هم به شیوه های فردی خوب و هم به استانداردهای صنعتی مشترک نیاز داریم. اما جامعه به چیز دیگری نیاز دارد: سیاست‌های صحیح دولتی که در عین کاهش خطرات سوءاستفاده، پیشرفت را ارتقا می‌دهد. و توسعه سیاست خوب مستلزم بحث های عمیق در میان دولت ها، بخش خصوصی، دانشگاه ها و جامعه مدنی است.

همانطور که سال‌ها گفتیم، هوش مصنوعی بسیار مهم است که نمی‌توان آن را تنظیم کرد و آنقدر مهم است که نمی‌توان آن را به خوبی تنظیم کرد. چالش این است که این کار را به گونه‌ای انجام دهیم که خطرات را کاهش داده و برنامه‌های کاربردی قابل اعتمادی را ترویج کند که به وعده‌های هوش مصنوعی در مورد منافع اجتماعی عمل می‌کنند.

در اینجا چند اصل اصلی وجود دارد که می تواند به هدایت این کار کمک کند:

  1. بر اساس مقررات موجود، با اذعان به اینکه بسیاری از مقرراتی که برای حفظ حریم خصوصی، ایمنی یا سایر اهداف عمومی اعمال می شود، در حال حاضر به طور کامل برای برنامه های کاربردی هوش مصنوعی اعمال می شود.
  2. یک چارچوب متناسب و مبتنی بر ریسک با تمرکز بر برنامه‌ها اتخاذ کنید، با توجه به اینکه هوش مصنوعی یک فناوری چند منظوره است که نیازمند رویکردهای سفارشی و پاسخگویی متمایز در میان توسعه دهندگان، توسعه دهندگان و کاربران است.
  3. ترویج یک رویکرد تعاملی به استانداردها و حکمرانی هوش مصنوعی، با درک نیاز به همسویی بین المللی
  4. اطمینان از برابری انتظارات بین سیستم های غیر AI و AI، تشخیص اینکه حتی سیستم‌های هوش مصنوعی ناقص نیز می‌توانند فرآیندهای موجود را بهبود بخشند.
  5. ترویج شفافیت که مسئولیت پذیری را تسهیل می کند، توانمندسازی کاربران و ایجاد اعتماد

نکته مهم این است که در توسعه چارچوب‌های جدید برای هوش مصنوعی، سیاست‌گذاران باید اهداف سیاست متضاد مانند رقابت، تعدیل محتوا، حریم خصوصی و امنیت را با هم تطبیق دهند. آنها همچنین باید مکانیسم هایی را در نظر بگیرند که اجازه می دهد قوانین با پیشرفت فناوری تکامل یابند. هوش مصنوعی همچنان یک حوزه بسیار پویا و سریع است و همه ما از تجربیات جدید خواهیم آموخت.

با تلاش‌های مشترک و چند ذی‌نفعی زیادی که قبلاً در سرتاسر جهان در حال انجام است، هنگام توسعه چارچوب‌های هوش مصنوعی و شیوه‌های مسئولانه، نیازی به شروع از صفر نیست.

چارچوب مدیریت ریسک هوش مصنوعی استانداردها و فناوری ایالات متحده و اصول و رصدخانه سیاست هوش مصنوعی OECD دو نمونه قوی هستند. آنها که از طریق فرآیندهای باز و مشارکتی توسعه یافته اند، دستورالعمل های روشنی را ارائه می دهند که می تواند با برنامه های کاربردی، خطرات و پیشرفت های جدید هوش مصنوعی سازگار شود. و ما همچنان به ارائه بازخورد در مورد پیشنهادهایی مانند قانون هوش مصنوعی در حال انتظار اتحادیه اروپا ادامه می دهیم.

قانون‌گذاران باید ابتدا به نحوه استفاده از مقامات موجود نگاه کنند – مانند قوانینی که ایمنی محصول را تضمین می‌کند و تبعیض غیرقانونی را منع می‌کند – قوانین جدیدی را در جایی که برای مدیریت چالش‌های جدید مورد نیاز است دنبال کنند.