سام آلتمن، مدیر اجرایی OpenAI، در اولین شهادت خود در کنگره، گزارشی هشیارکننده از راههایی ارائه کرد که هوش مصنوعی میتواند “آسیب قابل توجهی به جهان وارد کند” و ابراز تمایل کرد که با قانونگذاران عصبی برای رسیدگی به خطرات ارائه شده توسط ChatGPT و سایر ابزارهای هوش مصنوعی شرکتش همکاری کند.
آلتمن از تعدادی از مقررات، از جمله یک آژانس دولتی جدید که مسئول ایجاد استانداردهای دولتی برای این حوزه است، برای رسیدگی به نگرانی های فزاینده مبنی بر اینکه هوش مصنوعی مولد می تواند واقعیت را تحریف کرده و خطرات ایمنی بی سابقه ای ایجاد کند، حمایت کرد. مدیرعامل فهرستی از رفتارهای “خطرناک” ارائه شده توسط فناوری مانند ChatGPT، از جمله انتشار “اطلاعات نادرست تعاملی یک به یک” و دستکاری عاطفی را فهرست کرد. او در یک مقطع اذعان کرد که می توان از هوش مصنوعی برای هدف قرار دادن حملات هواپیماهای بدون سرنشین استفاده کرد.
آلتمن میگوید: «اگر این فناوری اشتباه پیش برود، ممکن است کاملاً اشتباه شود.
با این حال، طی تقریباً سه ساعت بحث در مورد مضرات بالقوه فاجعهبار هوش مصنوعی، آلتمن تأیید کرد که شرکت او علیرغم خطرات احتمالی، به انتشار این فناوری ادامه خواهد داد. او به جای بی پروایی، استدلال کرد که “استقرار تکراری” مدل های هوش مصنوعی به موسسات زمان می دهد تا آسیب های احتمالی را درک کنند – یک حرکت استراتژیک فناوری “نسبتا ضعیف” و “عمیقا ناقص” را در جهان برای درک خطرات ایمنی مرتبط قرار می دهد.
برای هفتهها، آلتمن در یک تور جهانی حسن نیت بوده و به طور خصوصی با سیاستگذاران – از جمله کاخ سفید بایدن و اعضای کنگره – ملاقات کرده است تا به نگرانیهای فزاینده آنها در مورد گسترش سریع ChatGPT و سایر فناوریها رسیدگی کند. جلسه استماع روز سهشنبه اولین فرصتی بود که عموم مردم پیام او را به سیاستگذاران بشنوند، در لحظهای که واشنگتن به طور فزایندهای با راههایی برای تنظیم فناوریهایی دست و پنجه نرم میکند که در حال حاضر مشاغل را بهم میزند، کلاهبرداریها را تقویت میکند و دروغپردازی میکند.
برخلاف جلسات مشاجرهآمیز با دیگر مدیران عامل فناوری، از جمله شو زی چو TikTok و Mark Zuckerberg از Meta، قانونگذاران هر دو طرف از آلتمن استقبال نسبتاً گرمی کردند. به نظر می رسید که آنها در حالت گوش دادن هستند و تمایل گسترده ای برای گوش دادن به پیشنهادات نظارتی آلتمن و دو شاهد دیگر در جلسه دادرسی، کریستینا مونتگومری، مدیر اجرایی IBM و گری مارکوس، استاد بازنشسته دانشگاه نیویورک، ابراز کردند.
اعضای کمیته فرعی قوه قضائیه سنا نگرانی عمیق خود را در مورد تکامل سریع هوش مصنوعی ابراز کردند و بارها پیشنهاد کردند که پیشرفتهای اخیر میتواند دگرگونکنندهتر از ظهور اینترنت باشد – یا به اندازه بمب اتمی خطرناک باشد.
سناتور جان کندی (R-La.) به شاهدان گفت: “مردم، این فرصت شماست تا به ما بگویید چگونه این موضوع را درست کنیم.” “لطفا از آن استفاده کنید.”
قانونگذاران هر دو حزب نسبت به ایده ایجاد یک آژانس دولتی جدید که وظیفه تنظیم هوش مصنوعی را برعهده دارد ابراز تمایل کردند، اگرچه تلاشهای گذشته برای ایجاد یک آژانس خاص با نظارت بر دره سیلیکون در کنگره در بحبوحه اختلافات حزبی در مورد چگونگی تنظیم این صنعت از بین رفته است. با این حال، مشخص نیست که آیا چنین پیشنهادی می تواند مورد توجه جمهوری خواهان باشد، که عموماً نسبت به گسترش قدرت دولت محتاط هستند. سناتور جاش هاولی (Mo.)، جمهوری خواه ارشد در پانل، هشدار داد که چنین نهادی می تواند “تسخیر منافعی شود که آنها باید تنظیم کنند.”
سناتور ریچارد بلومنتال (D-Conn.) که ریاست کمیته فرعی که جلسه استماع را بر عهده داشت، گفت که شهادت آلتمن با حضور سایر مدیران ارشد اجرایی دره سیلیکون، که قانونگذاران در طول سالها از آنها انتقاد کردهاند، “خیلی فاصله دارد” امتناع از تأیید پیشنهادهای قانونی خاص
بلومنتال پس از جلسه استماع به خبرنگاران گفت: «سام آلتمن در مقایسه با دیگر مدیران عامل، شب و روز است، و نه فقط در کلمات و لفاظی، بلکه در اعمال واقعی و تمایل او برای مشارکت و تعهد به اقدامات خاص».
ظاهر آلتمن در حالی رخ می دهد که سیاست گذاران واشنگتن به طور فزاینده ای از خطر هوش مصنوعی بیدار می شوند، زیرا محبوبیت گسترده ChatGPT و سایر ابزارهای مولد هوش مصنوعی مردم را خیره کرده است اما نگرانی های امنیتی جدیدی ایجاد کرده است. دولت بایدن به طور فزایندهای هوش مصنوعی را یک اولویت کلیدی میداند و قانونگذاران مکرراً میگویند که میخواهند از اشتباهاتی که در رسانههای اجتماعی مرتکب شدهاند اجتناب کنند.
با این حال، علیرغم توافق گسترده دو حزبی مبنی بر اینکه هوش مصنوعی یک تهدید است، به نظر می رسد تا به امروز اتفاق نظر کمی درباره قوانینی که قانونگذاران باید برای تنظیم آن تصویب کنند، وجود دارد. بلومنتال گفت که جلسه استماع روز سه شنبه سوالات سختی را درباره هوش مصنوعی “با موفقیت” مطرح کرد، اما به آنها پاسخی نداد. رهبر اکثریت سنا، چارلز ای. شومر (DN.Y.) در حال توسعه یک چارچوب هوش مصنوعی جدید است که “هوش مصنوعی شفاف و مسئولانه را ارائه می دهد در حالی که نوآوری های حیاتی و پیشرفته را خفه نمی کند.”
استقبال گلگون آلتمن نشان دهنده موفقیت تهاجمی جذاب اخیر اوست، که شامل یک شام با قانونگذاران دوشنبه شب در مورد مقررات هوش مصنوعی و یک جمع خصوصی پس از جلسه سه شنبه با کوین مک کارتی، رئیس مجلس نمایندگان، حکیم جفریس، رهبر اقلیت مجلس نمایندگان (DN) بود. .Y.) و اعضای گروه هوش مصنوعی کنگره.
تندترین انتقادها از آلتمن در طول جلسه، نه از جانب قانونگذاران، بلکه شاهد دیگری بود که در کنار او نشسته بود. گری مارکوس، استاد بازنشسته در دانشگاه نیویورک، به قانونگذاران هشدار داد که آنها با «طوفان بیمسئولیت شرکت، استقرار گسترده، فقدان مقررات و غیرقابل اعتماد بودن ذاتی» مواجه هستند.
مارکوس او به طور خاص از OpenAI انتقاد کرد و با استناد به بیانیه مأموریت اصلی آن برای پیشبرد هوش مصنوعی به منظور “به نفع بشریت به عنوان یک کل” بدون محدودیت توسط فشارهای مالی است. مارکوس گفت، اکنون این شرکت به سرمایه گذار خود مایکروسافت وابسته است و انتشار سریع محصولات آن بر شرکت مادر گوگل، آلفابت فشار می آورد تا محصولات را نیز به سرعت عرضه کند.
مارکوس گفت: «بشریت در عقب نشسته است.
آلتمن علاوه بر ایجاد یک آژانس نظارتی جدید، ایجاد مجموعه جدیدی از استانداردهای ایمنی برای مدلهای هوش مصنوعی را پیشنهاد کرد تا آزمایش کند که آیا آنها میتوانند بهخودی خود عمل کنند یا خیر. او همچنین پیشنهاد کرد که کارشناسان مستقل می توانند ممیزی مستقل انجام دهند و عملکرد مدل ها را بر اساس معیارهای مختلف آزمایش کنند.
با این حال، آلتمن از پیشنهادات دیگر، مانند الزامات شفافیت در داده های آموزشی که مدل های هوش مصنوعی استفاده می کنند، چشم پوشی کرد. OpenAI در مورد داده هایی که برای آموزش مدل های خود استفاده می کند مخفیانه عمل می کند، در حالی که برخی از رقبا در حال ساخت مدل های منبع باز هستند که به محققان امکان می دهد داده های آموزشی را موشکافی کنند.
آلتمن همچنین از تماس سناتور مارشا بلکبرن (R-Tenn.) طفره رفت تا متعهد شود که مدل های OpenAI را در مورد آثار دارای حق چاپ هنرمندان آموزش ندهد، یا از صداها یا شباهت های آنها بدون دریافت رضایت اولیه آنها استفاده نکند. و هنگامی که سناتور کوری بوکر (DN.J.) از او پرسید که آیا OpenAI هرگز تبلیغاتی را در چت باتهای خود قرار میدهد، آلتمن پاسخ داد: “نمیگویم هرگز.”
– گربه زاکرزوسکی، کریستیانو لیما، ویل اورموس، واشنگتن پست