زمانی که سناتور کریس مورفی ویدیوی «معضل هوش مصنوعی» را تماشا کرد، چهره ای آشنا را دید.
تریستان هریس، اخلاقدان فناوری که در میان قانونگذاران به دلیل زنگ خطر در مورد اثرات مضر شبکههای اجتماعی شناخته شده است، اکنون استدلال میکرد که هوش مصنوعی یک پیشرفت بالقوه فاجعهبار را نشان میدهد – شاید برای بقای انسان از ظهور سلاحهای هستهای خطرناکتر باشد.
پیام ویدیو – که توسط برخی از افراد برجسته فناوری مانند استیو وزنیاک، بنیانگذار اپل پذیرفته شده است – با مورفی (D-Conn.) طنین انداز شد که به سرعت توییتی را منتشر کرد.
سناتور هشدار داد: “چیزی در راه است. ما آماده نیستیم.”
هیاهوی هوش مصنوعی و ترس به واشنگتن رسیده است. پس از سال ها دست درازی در مورد آسیب های رسانه های اجتماعی، سیاست گذاران هر دو طرف نگاه خود را به هوش مصنوعی معطوف کرده اند که سیلیکون ولی را تسخیر کرده است. قانونگذاران با نگرانی به مسابقه تسلیحاتی هوش مصنوعی می نگرند که ناشی از انفجار ربات چت OpenAI ChatGPT است. توانایی عجیب این فناوری برای شرکت در مکالمات انسانمانند، نوشتن مقاله و حتی توصیف تصاویر، کاربران آن را متحیر کرده است، اما نگرانیهای جدیدی را در مورد امنیت آنلاین کودکان و اطلاعات نادرست ایجاد کرده است که میتواند انتخابات را مختل کند و کلاهبرداریها را تشدید کند.
اما سیاستگذاران به بحث جدید می رسند که از نبردهای مربوط به نحوه تنظیم صنعت فناوری – بدون تصویب هیچ قانون فناوری جامعی علیرغم سالها جلسات استماع کنگره، تحقیقات تاریخی و پیشنهادات مورد حمایت دو حزب، به بحث جدید می رسند. این بار، برخی امیدوارند به سرعت حرکت کنند تا از خطاهای مشابه جلوگیری کنند.
مورفی در مصاحبه ای گفت: «ما با اعتماد به صنعت فناوری برای خود پلیسی کردن رسانه های اجتماعی اشتباه کردیم. من فقط نمی توانم باور کنم که ما در پرتگاه همان اشتباه هستیم.
حامیان مصرفکننده و غولهای صنعت فناوری در DC همگرا میشوند و امیدوارند که قانونگذاران را در آنچه احتمالاً برای ماهها یا حتی سالهای آینده بحث سیاستهای فناوری تعیینکننده خواهد بود، تحت تأثیر قرار دهند. تنها تعداد انگشت شماری از قانونگذاران واشنگتن دارای تخصص هوش مصنوعی هستند، که فرصتی را برای تقویت کنندگان صنعت و منتقدان ایجاد می کند تا بر بحث ها تأثیر بگذارند.
تد لیو، نماینده کالیفرنیا، یکی از معدود اعضای کنگره با مدرک علوم کامپیوتر، گفت: “هوش مصنوعی جامعه را به روش های عمیق بازسازی می کند، و ما برای آن آماده نیستیم.”
حمله سیلیکون ولی
به گفته چند نفری که به شرط ناشناس ماندن برای توصیف مکالمات خصوصی صحبت کردند، شرکتهای پشت ChatGPT و فناوریهای رقیب، یک حمله پیشگیرانه جذاب را راهاندازی کردهاند و تلاشهای خود برای ایجاد هوش مصنوعی مسئولانه و اخلاقی را برجسته کردهاند. از زمان سرمایه گذاری مایکروسافت در OpenAI – که به آن اجازه می دهد ChatGPT را در محصولات خود بگنجاند – رئیس این شرکت، برد اسمیت، در سفر به واشنگتن درباره هوش مصنوعی صحبت کرده است. مدیران OpenAI که سالها در واشنگتن لابی کردهاند، پس از انتشار ChatGPT با قانونگذارانی که به تازگی به هوش مصنوعی علاقهمند هستند، ملاقات میکنند.
یک هیئت دو حزبی متشکل از 10 قانونگذار از کمیته مجلس نمایندگان که وظیفه به چالش کشیدن حزب حاکم کمونیست چین را بر عهده داشتند، این هفته به سیلیکون ولی سفر کردند تا با مدیران ارشد فناوری و سرمایه گذاران خطرپذیر دیدار کنند. به گفته یکی از افراد نزدیک به پنل مجلس و شرکتهایی که به شرط ناشناس ماندن برای توصیف مکالمات خصوصی صحبت کردند، بحثهای آنها به شدت بر پیشرفتهای اخیر در هوش مصنوعی متمرکز بود.
هنگام صرف ناهار در سالنی در دانشگاه استنفورد، قانونگذاران با اسمیت، رئیس امور جهانی گوگل، کنت واکر، و مدیران Palantir و Scale AI گرد هم آمدند. به گفته مردم، بسیاری از واشنگتن نسبت به تنظیم هوش مصنوعی ابراز تمایل کردند، اما یک مدیر اجرایی همچنین هشدار داد که قوانین ضد انحصار موجود میتواند توانایی این کشور را برای رقابت با چین، جایی که محدودیتهای کمتری برای دستیابی به مقیاس انبوه داده وجود دارد، مختل کند.
کیت فریشمن، سخنگوی مایکروسافت گفت که اسمیت مخالف این است که هوش مصنوعی باید باعث تغییر در قوانین رقابت شود.
آنها همچنین از دولت فدرال – به ویژه پنتاگون – خواستند تا سرمایهگذاریهای خود را در هوش مصنوعی افزایش دهد که یک موهبت بالقوه برای شرکتها است.
اما این شرکتها با کنگرهای بدبین روبهرو میشوند، زیرا هشدارهایی در مورد تهدید بمباران واشنگتن توسط هوش مصنوعی داده میشود. مایک گالاگر (R-Wis.) نماینده مجلس نمایندگان گفت که در طول این جلسات، قانونگذاران یک “بحث قوی” درباره خطرات بالقوه هوش مصنوعی شنیدند. اما او گفت که جلسات را با تردید ترک کرد که ایالات متحده می تواند اقدامات افراطی را که برخی از فناوران پیشنهاد کرده اند، مانند توقف استقرار هوش مصنوعی، بردارد.
او گفت: «ما باید راهی پیدا کنیم تا آن نردههای محافظ را در جای خود قرار دهیم و در عین حال به بخش فناوری خود اجازه دهیم تا نوآوری کند و مطمئن شویم که در حال نوآوری هستیم. من این احساس را ترک کردم که مکث تنها در خدمت منافع حکچ است، نه منافع آمریکا».
بر اساس گزارش ها، این نشست در پردیس استنفورد تنها مایل ها دورتر از جلسات 5000 نفری و مهمانی های خانگی هوش مصنوعی بود که رونق فناوری سانفرانسیسکو را تقویت کرد و سرمایه گذاران سرمایه گذاری خطرپذیر را الهام بخشید تا از ژانویه تا اواسط مارس 3.6 میلیارد دلار در 269 معامله هوش مصنوعی سرمایه گذاری کنند. شرکت تجزیه و تحلیل سرمایه گذاری PitchBook.
در سرتاسر کشور، مقامات واشنگتن درگیر فعالیتهای فراوانی بودند. پرزیدنت بایدن روز سهشنبه جلسهای درباره خطرات و فرصتهای هوش مصنوعی برگزار کرد و در آنجا از کارشناسان مختلفی در شورای مشاوران علم و فناوری، از جمله مدیران مایکروسافت و گوگل شنید.
بایدن که زیر پرتره آبراهام لینکلن نشسته بود، به اعضای شورا گفت که این صنعت مسئولیت دارد “قبل از انتشار عمومی محصولاتشان از ایمن بودن آنها مطمئن شود.”
وقتی از او پرسیده شد که آیا هوش مصنوعی خطرناک است، او گفت که این یک سوال بی پاسخ است. او پاسخ داد: ممکن است.
دو تن از رگولاتورهای برتر کشور در دره سیلیکون – کمیسیون تجارت فدرال و وزارت دادگستری – نشان داده اند که مراقب این حوزه در حال ظهور هستند. FTC اخیراً هشداری صادر کرده و به شرکتها گفته است که در صورت اغراق دروغین در وعده محصولات هوش مصنوعی و ارزیابی خطرات قبل از عرضه، ممکن است با مجازاتهایی روبرو شوند.
جاناتان کانتر، مجری ارشد ضد انحصار وزارت دادگستری، ماه گذشته در South by Southwest گفت که دفتر او ابتکاری به نام “پروژه گرتزکی” را برای جلوتر از منحنی مسائل رقابت در بازارهای هوش مصنوعی راه اندازی کرده است. نام این پروژه اشاره ای است به نقل قول معروف ستاره هاکی وین گرتزکی در مورد اسکیت به «جایی که جن می رود».
علیرغم این تلاش ها برای جلوگیری از تکرار مشکلات مشابه در تنظیم رسانه های اجتماعی، واشنگتن بسیار کندتر از سایر کشورها – به ویژه در اروپا – حرکت می کند.
در حال حاضر، مجریان کشورهای دارای قوانین جامع حریم خصوصی در حال بررسی نحوه اعمال این مقررات در ChatGPT هستند. این هفته، کمیسر حریم خصوصی کانادا گفت که تحقیقاتی در مورد این دستگاه آغاز خواهد کرد. این اعلامیه پس از تصمیم هفته گذشته ایتالیا مبنی بر ممنوعیت چت بات به دلیل نگرانی از نقض قوانینی که برای محافظت از حریم خصوصی شهروندان اتحادیه اروپا اتخاذ شده بود، منتشر شد. آلمان نیز در حال بررسی اقدامی مشابه است.
OpenAI در این هفته در یک پست وبلاگی به بررسی جدید پاسخ داد، جایی که اقداماتی را که برای رسیدگی به ایمنی هوش مصنوعی انجام میداد، از جمله محدود کردن اطلاعات شخصی افراد در مجموعه دادههایی که برای آموزش مدلهای خود استفاده میکند، توضیح داد.
در همین حال، لیو در حال کار بر روی قانونی برای ایجاد یک کمیسیون دولتی برای ارزیابی خطرات هوش مصنوعی و ایجاد یک آژانس فدرال است که بر این فناوری نظارت میکند، مشابه اینکه سازمان غذا و دارو چگونه داروهایی را که وارد بازار میشوند بررسی میکند.
جذب یک آژانس فدرال جدید از مجلس تحت کنترل جمهوری خواهان یک چالش خواهد بود. او هشدار داد که کنگره به تنهایی مجهز نیست که به اندازه کافی سریع برای تدوین قوانین تنظیم کننده هوش مصنوعی اقدام کند. او اضافه کرد که تلاشهای قبلی برای تدوین قوانین مربوط به جنبه محدود هوش مصنوعی – تشخیص چهره – به لیو نشان داد که مجلس محل مناسبی برای انجام این کار نیست.
شکستن شیشه
هریس، کارشناس اخلاق فناوری، در هفتههای اخیر نیز به واشنگتن سفر کرده است و با اعضای دولت بایدن و قانونگذاران قدرتمند هر دو حزب در کاپیتول هیل، از جمله رئیس کمیته اطلاعات سنا، مارک آر. وارنر (D-Va.) و سناتور، ملاقات کرده است. مایکل اف. بنت (D-Colo.).
هریس همراه با آزا راسکین، که با او مرکز فناوری انسانی را تأسیس کرد، یک سازمان غیرانتفاعی متمرکز بر تأثیرات منفی رسانههای اجتماعی، ماه گذشته گروهی از اعضای سنگین وزن دیسی را گرد هم آورد تا درباره بحران قریبالوقوع نوشیدنیها و غذاخوریها در National National صحبت کنند. باشگاه مطبوعات آنها خواستار توقف فوری استقرار هوش مصنوعی شرکتها در برابر مخاطبانی شدند که شامل جراح ژنرال Vivek H. Murthy، نظرسنجی جمهوریخواه فرانک لونتز، کارکنان کنگره و هیئتی از کارکنان FTC، از جمله سام لوین، مدیر دفتر حفاظت از مصرفکننده آژانس بودند.
هریس و راسکین لحظه کنونی را با ظهور تسلیحات هستهای در سال 1944 مقایسه کردند و هریس از سیاستگذاران خواستند تا گامهای افراطی برای کند کردن گسترش هوش مصنوعی، از جمله یک فرمان اجرایی، در نظر بگیرند.
هریس روز جمعه به واشنگتن پست گفت: «زمانی که قانونگذاران تلاش برای تنظیم رسانههای اجتماعی را آغاز کردند، از قبل عمیقاً با اقتصاد، سیاست، رسانه و فرهنگ ما درگیر شده بود. احتمالاً هوش مصنوعی خیلی سریعتر درگیر میشود و با رویارویی با این موضوع هماکنون، قبل از اینکه خیلی دیر شود، میتوانیم از قدرت این فناوری استفاده کرده و مؤسسات خود را به روز کنیم.»
به نظر می رسد که این پیام در میان برخی از قانونگذاران محتاط طنین انداز شده است – به نارضایتی برخی از کارشناسان و اخلاق مداران هوش مصنوعی.
سناتور مایکل اف. بنت (D-Colo.) در نامه ای در ماه مارس به مدیران Open AI، گوگل، اسنپ، مایکروسافت و فیس بوک به توئیت های هریس اشاره کرد و از این شرکت ها خواست تا حفاظت از کودکان و نوجوانان را در برابر چت ربات های مجهز به هوش مصنوعی افشا کنند. . تاپیک توییتر چت ربات هوش مصنوعی اسنپ چت را نشان داد که به یک دختر 13 ساله ساختگی درباره نحوه دروغ گفتن به والدینش در مورد سفر آینده با یک مرد 31 ساله می گوید و توصیه هایی برای از دست دادن باکرگی خود می دهد. (اسنپ روز سه شنبه اعلام کرد که سیستم جدیدی را پیاده سازی کرده است که سن کاربر را در هنگام مکالمه در نظر می گیرد.)
مورفی از ویدئوی هریس و راسکین استفاده کرد و در توییتی نوشت که ChatGPT “به خود آموخت که شیمی پیشرفته ای انجام دهد” و به این معناست که قابلیت های انسانی را توسعه داده است.
تیمنیت گبرو، یکی از رهبران سابق گروه گوگل که بر هوش مصنوعی اخلاقی تمرکز دارد، در پاسخ هشدار داد: “لطفا اطلاعات نادرست را منتشر نکنید.” “کار ما برای مقابله با هیاهو به اندازه کافی سخت است، بدون اینکه سیاستمداران وارد این کار شوند.”
هریس در یک ایمیل گفت که “سیاست گذاران و فناوران همیشه به یک زبان صحبت نمی کنند.” ارائه او نمی گوید که ChatGPT خود شیمی را آموزش داده است، اما به مطالعه ای اشاره می کند که نشان می دهد چت بات دارای قابلیت های شیمی است که هیچ طراح یا برنامه نویس انسانی عمداً به سیستم نداده است.
تعداد زیادی از نمایندگان و کارشناسان صنعت با توییت مورفی مخالفت کردند. او در مصاحبه ای گفت که دفتر او در حال ارائه درخواست برای جلسات توجیهی است. مورفی میگوید او میداند که هوش مصنوعی هوشیار نیست و خودش را آموزش نمیدهد، اما سعی میکرد در مورد چتباتها به روشی قابل دسترس صحبت کند.
او گفت که این انتقاد با کمپین شرمساری گستردهتری سازگار است که صنعت از آن استفاده میکند تا سیاستگذاران را به سکوت وادار کند.
طبقه فناوری فکر میکند که از همه باهوشتر هستند، بنابراین میخواهند قوانینی را برای نحوه گسترش این فناوری ایجاد کنند، اما همچنین میخواهند از منافع اقتصادی بهره ببرند.
–نیتاشا تیکو از واشنگتن پست در این گزارش مشارکت داشت.