واشنگتن متعهد شد که با هوش مصنوعی مقابله کند، همانطور که تیتان های فناوری و منتقدان فرود می آیند | دانش مرکز داده

زمانی که سناتور کریس مورفی ویدیوی «معضل هوش مصنوعی» را تماشا کرد، چهره ای آشنا را دید.

تریستان هریس، اخلاق‌دان فناوری که در میان قانون‌گذاران به دلیل زنگ خطر در مورد اثرات مضر شبکه‌های اجتماعی شناخته شده است، اکنون استدلال می‌کرد که هوش مصنوعی یک پیشرفت بالقوه فاجعه‌بار را نشان می‌دهد – شاید برای بقای انسان از ظهور سلاح‌های هسته‌ای خطرناک‌تر باشد.

پیام ویدیو – که توسط برخی از افراد برجسته فناوری مانند استیو وزنیاک، بنیانگذار اپل پذیرفته شده است – با مورفی (D-Conn.) طنین انداز شد که به سرعت توییتی را منتشر کرد.

سناتور هشدار داد: “چیزی در راه است. ما آماده نیستیم.”

هیاهوی هوش مصنوعی و ترس به واشنگتن رسیده است. پس از سال ها دست درازی در مورد آسیب های رسانه های اجتماعی، سیاست گذاران هر دو طرف نگاه خود را به هوش مصنوعی معطوف کرده اند که سیلیکون ولی را تسخیر کرده است. قانونگذاران با نگرانی به مسابقه تسلیحاتی هوش مصنوعی می نگرند که ناشی از انفجار ربات چت OpenAI ChatGPT است. توانایی عجیب این فناوری برای شرکت در مکالمات انسان‌مانند، نوشتن مقاله و حتی توصیف تصاویر، کاربران آن را متحیر کرده است، اما نگرانی‌های جدیدی را در مورد امنیت آنلاین کودکان و اطلاعات نادرست ایجاد کرده است که می‌تواند انتخابات را مختل کند و کلاهبرداری‌ها را تشدید کند.

اما سیاستگذاران به بحث جدید می رسند که از نبردهای مربوط به نحوه تنظیم صنعت فناوری – بدون تصویب هیچ قانون فناوری جامعی علیرغم سالها جلسات استماع کنگره، تحقیقات تاریخی و پیشنهادات مورد حمایت دو حزب، به بحث جدید می رسند. این بار، برخی امیدوارند به سرعت حرکت کنند تا از خطاهای مشابه جلوگیری کنند.

مورفی در مصاحبه ای گفت: «ما با اعتماد به صنعت فناوری برای خود پلیسی کردن رسانه های اجتماعی اشتباه کردیم. من فقط نمی توانم باور کنم که ما در پرتگاه همان اشتباه هستیم.

حامیان مصرف‌کننده و غول‌های صنعت فناوری در DC همگرا می‌شوند و امیدوارند که قانون‌گذاران را در آنچه احتمالاً برای ماه‌ها یا حتی سال‌های آینده بحث سیاست‌های فناوری تعیین‌کننده خواهد بود، تحت تأثیر قرار دهند. تنها تعداد انگشت شماری از قانونگذاران واشنگتن دارای تخصص هوش مصنوعی هستند، که فرصتی را برای تقویت کنندگان صنعت و منتقدان ایجاد می کند تا بر بحث ها تأثیر بگذارند.

تد لیو، نماینده کالیفرنیا، یکی از معدود اعضای کنگره با مدرک علوم کامپیوتر، گفت: “هوش مصنوعی جامعه را به روش های عمیق بازسازی می کند، و ما برای آن آماده نیستیم.”

حمله سیلیکون ولی

به گفته چند نفری که به شرط ناشناس ماندن برای توصیف مکالمات خصوصی صحبت کردند، شرکت‌های پشت ChatGPT و فناوری‌های رقیب، یک حمله پیشگیرانه جذاب را راه‌اندازی کرده‌اند و تلاش‌های خود برای ایجاد هوش مصنوعی مسئولانه و اخلاقی را برجسته کرده‌اند. از زمان سرمایه گذاری مایکروسافت در OpenAI – که به آن اجازه می دهد ChatGPT را در محصولات خود بگنجاند – رئیس این شرکت، برد اسمیت، در سفر به واشنگتن درباره هوش مصنوعی صحبت کرده است. مدیران OpenAI که سال‌ها در واشنگتن لابی کرده‌اند، پس از انتشار ChatGPT با قانون‌گذارانی که به تازگی به هوش مصنوعی علاقه‌مند هستند، ملاقات می‌کنند.

یک هیئت دو حزبی متشکل از 10 قانونگذار از کمیته مجلس نمایندگان که وظیفه به چالش کشیدن حزب حاکم کمونیست چین را بر عهده داشتند، این هفته به سیلیکون ولی سفر کردند تا با مدیران ارشد فناوری و سرمایه گذاران خطرپذیر دیدار کنند. به گفته یکی از افراد نزدیک به پنل مجلس و شرکت‌هایی که به شرط ناشناس ماندن برای توصیف مکالمات خصوصی صحبت کردند، بحث‌های آن‌ها به شدت بر پیشرفت‌های اخیر در هوش مصنوعی متمرکز بود.

هنگام صرف ناهار در سالنی در دانشگاه استنفورد، قانونگذاران با اسمیت، رئیس امور جهانی گوگل، کنت واکر، و مدیران Palantir و Scale AI گرد هم آمدند. به گفته مردم، بسیاری از واشنگتن نسبت به تنظیم هوش مصنوعی ابراز تمایل کردند، اما یک مدیر اجرایی همچنین هشدار داد که قوانین ضد انحصار موجود می‌تواند توانایی این کشور را برای رقابت با چین، جایی که محدودیت‌های کمتری برای دستیابی به مقیاس انبوه داده وجود دارد، مختل کند.

کیت فریشمن، سخنگوی مایکروسافت گفت که اسمیت مخالف این است که هوش مصنوعی باید باعث تغییر در قوانین رقابت شود.

آنها همچنین از دولت فدرال – به ویژه پنتاگون – خواستند تا سرمایه‌گذاری‌های خود را در هوش مصنوعی افزایش دهد که یک موهبت بالقوه برای شرکت‌ها است.

اما این شرکت‌ها با کنگره‌ای بدبین روبه‌رو می‌شوند، زیرا هشدارهایی در مورد تهدید بمباران واشنگتن توسط هوش مصنوعی داده می‌شود. مایک گالاگر (R-Wis.) نماینده مجلس نمایندگان گفت که در طول این جلسات، قانونگذاران یک “بحث قوی” درباره خطرات بالقوه هوش مصنوعی شنیدند. اما او گفت که جلسات را با تردید ترک کرد که ایالات متحده می تواند اقدامات افراطی را که برخی از فناوران پیشنهاد کرده اند، مانند توقف استقرار هوش مصنوعی، بردارد.

او گفت: «ما باید راهی پیدا کنیم تا آن نرده‌های محافظ را در جای خود قرار دهیم و در عین حال به بخش فناوری خود اجازه دهیم تا نوآوری کند و مطمئن شویم که در حال نوآوری هستیم. من این احساس را ترک کردم که مکث تنها در خدمت منافع ح‌ک‌چ است، نه منافع آمریکا».

بر اساس گزارش ها، این نشست در پردیس استنفورد تنها مایل ها دورتر از جلسات 5000 نفری و مهمانی های خانگی هوش مصنوعی بود که رونق فناوری سانفرانسیسکو را تقویت کرد و سرمایه گذاران سرمایه گذاری خطرپذیر را الهام بخشید تا از ژانویه تا اواسط مارس 3.6 میلیارد دلار در 269 معامله هوش مصنوعی سرمایه گذاری کنند. شرکت تجزیه و تحلیل سرمایه گذاری PitchBook.

در سرتاسر کشور، مقامات واشنگتن درگیر فعالیت‌های فراوانی بودند. پرزیدنت بایدن روز سه‌شنبه جلسه‌ای درباره خطرات و فرصت‌های هوش مصنوعی برگزار کرد و در آنجا از کارشناسان مختلفی در شورای مشاوران علم و فناوری، از جمله مدیران مایکروسافت و گوگل شنید.

بایدن که زیر پرتره آبراهام لینکلن نشسته بود، به اعضای شورا گفت که این صنعت مسئولیت دارد “قبل از انتشار عمومی محصولاتشان از ایمن بودن آنها مطمئن شود.”

وقتی از او پرسیده شد که آیا هوش مصنوعی خطرناک است، او گفت که این یک سوال بی پاسخ است. او پاسخ داد: ممکن است.

دو تن از رگولاتورهای برتر کشور در دره سیلیکون – کمیسیون تجارت فدرال و وزارت دادگستری – نشان داده اند که مراقب این حوزه در حال ظهور هستند. FTC اخیراً هشداری صادر کرده و به شرکت‌ها گفته است که در صورت اغراق دروغین در وعده محصولات هوش مصنوعی و ارزیابی خطرات قبل از عرضه، ممکن است با مجازات‌هایی روبرو شوند.

جاناتان کانتر، مجری ارشد ضد انحصار وزارت دادگستری، ماه گذشته در South by Southwest گفت که دفتر او ابتکاری به نام “پروژه گرتزکی” را برای جلوتر از منحنی مسائل رقابت در بازارهای هوش مصنوعی راه اندازی کرده است. نام این پروژه اشاره ای است به نقل قول معروف ستاره هاکی وین گرتزکی در مورد اسکیت به «جایی که جن می رود».

علیرغم این تلاش ها برای جلوگیری از تکرار مشکلات مشابه در تنظیم رسانه های اجتماعی، واشنگتن بسیار کندتر از سایر کشورها – به ویژه در اروپا – حرکت می کند.

در حال حاضر، مجریان کشورهای دارای قوانین جامع حریم خصوصی در حال بررسی نحوه اعمال این مقررات در ChatGPT هستند. این هفته، کمیسر حریم خصوصی کانادا گفت که تحقیقاتی در مورد این دستگاه آغاز خواهد کرد. این اعلامیه پس از تصمیم هفته گذشته ایتالیا مبنی بر ممنوعیت چت بات به دلیل نگرانی از نقض قوانینی که برای محافظت از حریم خصوصی شهروندان اتحادیه اروپا اتخاذ شده بود، منتشر شد. آلمان نیز در حال بررسی اقدامی مشابه است.

OpenAI در این هفته در یک پست وبلاگی به بررسی جدید پاسخ داد، جایی که اقداماتی را که برای رسیدگی به ایمنی هوش مصنوعی انجام می‌داد، از جمله محدود کردن اطلاعات شخصی افراد در مجموعه داده‌هایی که برای آموزش مدل‌های خود استفاده می‌کند، توضیح داد.

در همین حال، لیو در حال کار بر روی قانونی برای ایجاد یک کمیسیون دولتی برای ارزیابی خطرات هوش مصنوعی و ایجاد یک آژانس فدرال است که بر این فناوری نظارت می‌کند، مشابه اینکه سازمان غذا و دارو چگونه داروهایی را که وارد بازار می‌شوند بررسی می‌کند.

جذب یک آژانس فدرال جدید از مجلس تحت کنترل جمهوری خواهان یک چالش خواهد بود. او هشدار داد که کنگره به تنهایی مجهز نیست که به اندازه کافی سریع برای تدوین قوانین تنظیم کننده هوش مصنوعی اقدام کند. او اضافه کرد که تلاش‌های قبلی برای تدوین قوانین مربوط به جنبه محدود هوش مصنوعی – تشخیص چهره – به لیو نشان داد که مجلس محل مناسبی برای انجام این کار نیست.

شکستن شیشه

هریس، کارشناس اخلاق فناوری، در هفته‌های اخیر نیز به واشنگتن سفر کرده است و با اعضای دولت بایدن و قانون‌گذاران قدرتمند هر دو حزب در کاپیتول هیل، از جمله رئیس کمیته اطلاعات سنا، مارک آر. وارنر (D-Va.) و سناتور، ملاقات کرده است. مایکل اف. بنت (D-Colo.).

هریس همراه با آزا راسکین، که با او مرکز فناوری انسانی را تأسیس کرد، یک سازمان غیرانتفاعی متمرکز بر تأثیرات منفی رسانه‌های اجتماعی، ماه گذشته گروهی از اعضای سنگین وزن دی‌سی را گرد هم آورد تا درباره بحران قریب‌الوقوع نوشیدنی‌ها و غذاخوری‌ها در National National صحبت کنند. باشگاه مطبوعات آنها خواستار توقف فوری استقرار هوش مصنوعی شرکت‌ها در برابر مخاطبانی شدند که شامل جراح ژنرال Vivek H. Murthy، نظرسنجی جمهوری‌خواه فرانک لونتز، کارکنان کنگره و هیئتی از کارکنان FTC، از جمله سام لوین، مدیر دفتر حفاظت از مصرف‌کننده آژانس بودند.

بیل اولری // واشنگتن پستآزا راسکین، از مرکز فناوری انسانی، مقابل دیوار

آزا راسکین، یکی از بنیانگذاران مرکز فناوری انسانی

هریس و راسکین لحظه کنونی را با ظهور تسلیحات هسته‌ای در سال 1944 مقایسه کردند و هریس از سیاست‌گذاران خواستند تا گام‌های افراطی برای کند کردن گسترش هوش مصنوعی، از جمله یک فرمان اجرایی، در نظر بگیرند.

هریس روز جمعه به واشنگتن پست گفت: «زمانی که قانون‌گذاران تلاش برای تنظیم رسانه‌های اجتماعی را آغاز کردند، از قبل عمیقاً با اقتصاد، سیاست، رسانه و فرهنگ ما درگیر شده بود. احتمالاً هوش مصنوعی خیلی سریع‌تر درگیر می‌شود و با رویارویی با این موضوع هم‌اکنون، قبل از اینکه خیلی دیر شود، می‌توانیم از قدرت این فناوری استفاده کرده و مؤسسات خود را به روز کنیم.»

به نظر می رسد که این پیام در میان برخی از قانونگذاران محتاط طنین انداز شده است – به نارضایتی برخی از کارشناسان و اخلاق مداران هوش مصنوعی.

سناتور مایکل اف. بنت (D-Colo.) در نامه ای در ماه مارس به مدیران Open AI، گوگل، اسنپ، مایکروسافت و فیس بوک به توئیت های هریس اشاره کرد و از این شرکت ها خواست تا حفاظت از کودکان و نوجوانان را در برابر چت ربات های مجهز به هوش مصنوعی افشا کنند. . تاپیک توییتر چت ربات هوش مصنوعی اسنپ چت را نشان داد که به یک دختر 13 ساله ساختگی درباره نحوه دروغ گفتن به والدینش در مورد سفر آینده با یک مرد 31 ساله می گوید و توصیه هایی برای از دست دادن باکرگی خود می دهد. (اسنپ روز سه شنبه اعلام کرد که سیستم جدیدی را پیاده سازی کرده است که سن کاربر را در هنگام مکالمه در نظر می گیرد.)

مورفی از ویدئوی هریس و راسکین استفاده کرد و در توییتی نوشت که ChatGPT “به خود آموخت که شیمی پیشرفته ای انجام دهد” و به این معناست که قابلیت های انسانی را توسعه داده است.

تیمنیت گبرو، یکی از رهبران سابق گروه گوگل که بر هوش مصنوعی اخلاقی تمرکز دارد، در پاسخ هشدار داد: “لطفا اطلاعات نادرست را منتشر نکنید.” “کار ما برای مقابله با هیاهو به اندازه کافی سخت است، بدون اینکه سیاستمداران وارد این کار شوند.”

هریس در یک ایمیل گفت که “سیاست گذاران و فناوران همیشه به یک زبان صحبت نمی کنند.” ارائه او نمی گوید که ChatGPT خود شیمی را آموزش داده است، اما به مطالعه ای اشاره می کند که نشان می دهد چت بات دارای قابلیت های شیمی است که هیچ طراح یا برنامه نویس انسانی عمداً به سیستم نداده است.

تعداد زیادی از نمایندگان و کارشناسان صنعت با توییت مورفی مخالفت کردند. او در مصاحبه ای گفت که دفتر او در حال ارائه درخواست برای جلسات توجیهی است. مورفی می‌گوید او می‌داند که هوش مصنوعی هوشیار نیست و خودش را آموزش نمی‌دهد، اما سعی می‌کرد در مورد چت‌بات‌ها به روشی قابل دسترس صحبت کند.

او گفت که این انتقاد با کمپین شرمساری گسترده‌تری سازگار است که صنعت از آن استفاده می‌کند تا سیاستگذاران را به سکوت وادار کند.

طبقه فناوری فکر می‌کند که از همه باهوش‌تر هستند، بنابراین می‌خواهند قوانینی را برای نحوه گسترش این فناوری ایجاد کنند، اما همچنین می‌خواهند از منافع اقتصادی بهره ببرند.

–نیتاشا تیکو از واشنگتن پست در این گزارش مشارکت داشت.

سئو PBN | خبر های جدید سئو و هک و سرور