دولت ها به اولین توافق در مورد مهار خطرات هوش مصنوعی رسیدند | دانش مرکز داده

(واشنگتن پست) – دولت‌های شش قاره روز چهارشنبه با یک نقشه راه گسترده برای محدود کردن خطرات و بهره‌برداری از مزایای هوش مصنوعی، در پارک بلچلی، زادگاه نمادین عصر دیجیتال، برای اولین اعلامیه بین‌المللی به توافق رسیدند. بر روی یک فناوری بالقوه در حال تغییر جهان.

در زمانی که کشورها و مناطق در حال اعمال مقررات مختلف در مورد هوش مصنوعی هستند، بیانیه مورد مذاکره – معروف به بیانیه بلچلی – شاهد بود که دشمنان جهانی ایالات متحده و چین مجموعه‌ای از اصول راهنما را با اتحادیه اروپا، بریتانیا و 24 کشور دیگر در هم کوبیدند. . کشورها به طور مشترک خواستار اتخاذ سیاست‌های فرا مرزی برای جلوگیری از خطر شدند، از اطلاعات نادرست تا احتمال ایجاد «آسیب فاجعه‌بار عمدی یا غیرعمدی».

آنها موافقت کردند که از تحقیقات “شامل بین المللی” در مورد پیشرفته ترین مدل های آینده هوش مصنوعی حمایت کنند و از طریق سازمان های بین المللی موجود – از جمله گروه هفت، سازمان همکاری اقتصادی و توسعه، شورای اروپا، سازمان ملل متحد، و مشارکت جهانی، به سمت ایمنی کار کنند. روی هوش مصنوعی آنها همچنین موافقت کردند که از طریق دیگر «ابتکارات مرتبط» کار کنند، که به نظر می رسد به دوئل مؤسسات ایمنی هوش مصنوعی که در روزهای اخیر توسط بریتانیا و ایالات متحده اعلام شده بود، اشاره کنند.

این توافق نزدیک به آغاز اجلاس دو روزه ایمنی هوش مصنوعی صورت گرفت که وزرای دیجیتال، مدیران ارشد فناوری و دانشگاهیان برجسته را به خانه پنهانی رمز شکنان معروف جنگ جهانی دوم که پیام های نازی ها را رمزگشایی می کردند، آورده است. ایلان ماسک، مدیر اجرایی تسلا و مالک X و مقاماتی از چین، ژاپن و کشورهای اروپایی در این مراسم حضور داشتند. انتظار می‌رود که هریس، معاون رئیس‌جمهور پنج‌شنبه، پس از آنکه کاخ سفید مجموعه‌ای از ابتکارات جدید هوش مصنوعی را در یک رویداد رقابتی در لندن ارائه کرد، وارد شود.

این بیانیه بیانیه ای از مأموریت و هدف بود و حاوی جزئیاتی در مورد چگونگی شکل گیری همکاری جهانی نبود. اما برگزارکنندگان نشست دیگری را شش ماه دیگر در کره جنوبی و پس از آن شش ماه پس از آن در فرانسه برگزار کردند.

این بیانیه در حالی منتشر می شود که ایالات متحده، اتحادیه اروپا، چین و بریتانیا رویکردهای متفاوتی را در مورد مقررات هوش مصنوعی اتخاذ می کنند که منجر به مجموعه ای از قوانین فعلی یا پیشنهادی با تفاوت های قابل توجه بین آنها می شود. بیانیه روز چهارشنبه اذعان داشت که “خطرات ناشی از هوش مصنوعی ذاتاً ماهیت بین المللی دارند و بنابراین بهترین راه حل از طریق همکاری بین المللی است. ما تصمیم داریم به شیوه ای فراگیر با هم کار کنیم تا از هوش مصنوعی انسان محور، قابل اعتماد و مسئولانه اطمینان حاصل کنیم.”

با شروع اجلاس، جینا ریموندو، وزیر بازرگانی ایالات متحده و وو ژائوهوی، معاون وزیر علوم و فناوری چین، روی صحنه کنار یکدیگر نشستند و به نوبت در مورد واکنش خود به خطر هوش مصنوعی سخنرانی کردند. این نشست در بحبوحه تشدید تنش‌های اقتصادی و رقابت شدید فناوری، دیداری نادر از مقامات بلندپایه ایالات متحده و چین را رقم زد.

ژائوهویی حکمرانی هوش مصنوعی را “وظیفه مشترکی که بشریت با آن روبروست” خواند و گفت که دولت چین متعهد به گفت‌وگوی تقویت‌شده درباره چگونگی ارزیابی خطرات هوش مصنوعی و اطمینان از اینکه این فناوری تحت کنترل انسان باقی می‌ماند، است.

اما همه نمایندگان از حضور چین در اجلاس راضی نبودند. مایکل کراتسیوس، مدیر عامل Scale AI و رئیس جمهور منصوب شده توسط دونالد ترامپ، مدیر ارشد فناوری ایالات متحده، گفت که از حضور دولت چین “بسیار ناامید” است.

او گفت: «باور کردن به اینکه آنها بازیکن معتبری هستند و آنچه می گویند در نهایت انجام خواهند داد اشتباه بزرگی است.

تصمیم برای صدور بیانیه ای مشترک در آغاز – بر خلاف پایان – اجلاس نشان می دهد که رهبران قبل از این رویداد به مرز توافق توافق شده برای همکاری رسیده اند، در حالی که بعید است که جلسات حضوری به میزان قابل توجهی افزایش یابد.

جاناتان بری، وزیر هوش مصنوعی بریتانیا به واشنگتن پست گفت: متأسفانه ما نمی‌توانیم راحت بنشینیم و استراحت کنیم. اکنون باید به این موضوع بپردازیم: پیامدهای واقعی این موضوع چیست؟

ریشی سوناک، نخست وزیر، اجلاس را بر مخاطره آمیزترین استفاده از هوش مصنوعی متمرکز کرده است، با تاکید ویژه بر سناریوهای روز قیامت، مانند اینکه چگونه می توان از این فناوری برای استقرار سلاح های هسته ای یا ایجاد عوامل بیولوژیکی سوء استفاده کرد. در این رویداد، رهبران جهانی بر قدرت عظیم این فناوری تاکید کردند.

میشل دونلان، وزیر امور علم، نوآوری و فناوری بریتانیا، مراسم را با گفتن به شرکت کنندگان آغاز کرد که آنها «معماران عصر هوش مصنوعی» هستند که قدرت شکل دادن به آینده فناوری و مدیریت نقاط ضعف احتمالی آن را دارند.

پادشاه چارلز سوم در یک بیانیه ویدئویی برای نمایندگان، پیشرفت‌های هوش مصنوعی را با “محور آتش” توسط انسان مقایسه کرد. وی نیاز به همکاری جهانی در زمینه هوش مصنوعی را به مبارزه با تغییرات اقلیمی تشبیه کرد و گفت: ما باید به طور مشابه با خطرات ناشی از هوش مصنوعی با احساس فوریت، اتحاد و قدرت جمعی مقابله کنیم.

داریو گیل، معاون ارشد و مدیر تحقیقات IBM، در رویداد روز چهارشنبه از استفاده از عبارت “مدل مرزی”، اصطلاحی که به معنای سیستم های پیشرفته است، اما مبتنی بر تحقیقات هوش مصنوعی نیست، انتقاد کرد.

او گفت: «هرچه به جلو می رویم، باید علمی تر و دقیق تر با زبان باشیم.

همزمان با آغاز اجلاس سران در روز چهارشنبه، کاخ سفید میزبان برنامه ضدبرنامه خود در حدود 50 مایلی در لندن بود، جایی که هریس در سفارت ایالات متحده در مورد برنامه های دولت بایدن برای رسیدگی به نگرانی های ایمنی هوش مصنوعی سخنرانی کرد. ترزا می، نخست وزیر سابق بریتانیا و آلوندرا نلسون، سرپرست سابق دفتر سیاست علم و فناوری کاخ سفید از جمله شرکت کنندگان بودند.

از آنجایی که سیاست گذاران بین المللی – به ویژه در اتحادیه اروپا – برای تدوین قوانین جدید هوش مصنوعی عجله دارند، کاخ سفید بر ایالات متحده فشار می آورد تا نه تنها در توسعه هوش مصنوعی بلکه در مقررات نیز رهبری جهان را بر عهده بگیرد. در تضاد کامل با دستور کار اجلاس ایمنی، معاون رئیس جمهور از جامعه بین المللی خواست تا به طیف کاملی از خطرات هوش مصنوعی، نه تنها تهدیدات فاجعه بار مانند سلاح، رسیدگی کند.

او گفت: «اجازه دهید واضح بگوییم که تهدیدهای دیگری نیز وجود دارد که ما را نیز می طلبد. تهدیدهایی که در حال حاضر باعث آسیب می شوند و برای بسیاری از مردم نیز وجودی احساس می کنند.”

هریس که در یک سخنرانی با مهر ریاست جمهوری ایالات متحده ایستاده بود، راه هایی را فهرست کرد که هوش مصنوعی در حال حاضر زندگی مردم را به هم می زند. او در مورد اینکه چگونه تشخیص چهره منجر به دستگیری های نادرست می شود یا اینکه چگونه می توان از عکس های صریح ساختگی برای سوء استفاده از زنان استفاده کرد، ابراز نگرانی کرد.

در بلچلی پارک، برخی از حاضران گفتند که در جلسات پانل که به روی رسانه ها بسته بود، انعکاس سخنان معاون رئیس جمهور را شنیدند. الکساندرا ریو گیونز، مدیر عامل مرکز دموکراسی و فناوری، گفت که مقامات دولتی در یکی از پانل های خود بر آسیب های فعلی، از جمله استفاده از سیستم های خودکار در عدالت کیفری و خطر اطلاعات نادرست تمرکز کردند.

او گفت: “به طور کلی، به نظر می رسد وزراء موافق هستند که خطرات مرزی که در ابتدا قرار بود بر روی آن تمرکز شود، واقعا مهم هستند – اما آنها باید در حال حاضر به مسائل مبرم پیرامون هوش مصنوعی که بر زندگی مردم تأثیر می گذارد نیز بپردازند.”

مکس تگمارک، رئیس مؤسسه آینده لایف، گفت: «اجماع شگفت‌انگیزی» وجود دارد که شرکت‌کنندگان می‌توانند به تهدیدات فعلی و وجودی هوش مصنوعی رسیدگی کنند. Future of Life در اوایل سال جاری نامه ای را هدایت کرد که در آن خواستار توقف آموزش سیستم های پیشرفته هوش مصنوعی شد که توسط ماسک و سایر دانشمندان کهنه کار هوش مصنوعی امضا شد.

هریس همچنین یک موسسه جدید ایمنی هوش مصنوعی ایالات متحده را در وزارت بازرگانی تبلیغ کرد که ارزیابی هایی به نام “تیم قرمز” را برای ارزیابی خطرات سیستم های هوش مصنوعی توسعه می دهد، تنها چند روز پس از اینکه Sunak سازمان مشابهی را در بریتانیا اعلام کرد. انتظار می رود موسسه آمریکایی اطلاعات و تحقیقات خود را با همتای بریتانیایی خود به اشتراک بگذارد.

هریس همچنین از پیش‌نویس مقررات جدیدی که بر استفاده کارگران فدرال از هوش مصنوعی نظارت می‌کند، پرده‌برداری کرد که می‌تواند پیامدهای گسترده‌ای در سراسر سیلیکون ولی داشته باشد.

سخنرانی هریس بر اساس دستور اجرایی دولت بایدن در روز دوشنبه بود که از اختیارات اضطراری گسترده برای قرار دادن نرده‌های محافظ جدید بر روی شرکت‌هایی که پیشرفته‌ترین هوش مصنوعی را می‌سازند، استفاده کرد. این دستور مهم‌ترین اقدامی است که دولت فدرال ایالات متحده تاکنون برای مهار استفاده از هوش مصنوعی انجام داده است، در میان نگرانی‌هایی که ممکن است اطلاعات نادرست، تشدید تبعیض و نقض حریم خصوصی را افزایش دهد.

با این حال، محدودیت‌هایی وجود دارد که دولت بایدن تا چه حد می‌تواند بدون تصمیم کنگره به انجام برساند، و دیگر مجالس قانونگذاری در سراسر جهان در حال پیشی گرفتن از ایالات متحده در توسعه لوایح هوش مصنوعی هستند. انتظار می رود اتحادیه اروپا تا پایان سال به توافقی بر سر قانونی موسوم به قانون هوش مصنوعی اتحادیه اروپا دست یابد.

مت کلیفورد، مشاور ارشد بریتانیا در این اجلاس، در پاسخ به سوالی در مورد تمرکز هریس بر خطرات کوتاه مدت هوش مصنوعی – در مقابل تمرکز ظاهری اجلاس روی خطرات بلندمدت – تاکید کرد که این رویداد “روی ریسک بلندمدت متمرکز نیست. اجلاس بر روی مدل های سال آینده متمرکز است.”

کلیفورد با فشار بر تصمیم ایالات متحده برای اعلام موسسه ایمنی هوش مصنوعی خود چند روز پس از اعلام سوناک از ایجاد یک موسسه در بریتانیا، گفت که این دو نهاد از نزدیک با هم همکاری خواهند کرد.

وی گفت: «ایالات متحده نزدیکترین شریک ما در این زمینه بوده است.

سئو PBN | خبر های جدید سئو و هک و سرور