مدیر عامل ChatGPT هشدار می دهد که هوش مصنوعی کنگره می تواند “به جهان آسیب برساند” | دانش مرکز داده

سام آلتمن، مدیر اجرایی OpenAI، در اولین شهادت خود در کنگره، گزارشی هشیارکننده از راه‌هایی ارائه کرد که هوش مصنوعی می‌تواند “آسیب قابل توجهی به جهان وارد کند” و ابراز تمایل کرد که با قانون‌گذاران عصبی برای رسیدگی به خطرات ارائه شده توسط ChatGPT و سایر ابزارهای هوش مصنوعی شرکتش همکاری کند.

آلتمن از تعدادی از مقررات، از جمله یک آژانس دولتی جدید که مسئول ایجاد استانداردهای دولتی برای این حوزه است، برای رسیدگی به نگرانی های فزاینده مبنی بر اینکه هوش مصنوعی مولد می تواند واقعیت را تحریف کرده و خطرات ایمنی بی سابقه ای ایجاد کند، حمایت کرد. مدیرعامل فهرستی از رفتارهای “خطرناک” ارائه شده توسط فناوری مانند ChatGPT، از جمله انتشار “اطلاعات نادرست تعاملی یک به یک” و دستکاری عاطفی را فهرست کرد. او در یک مقطع اذعان کرد که می توان از هوش مصنوعی برای هدف قرار دادن حملات هواپیماهای بدون سرنشین استفاده کرد.

آلتمن می‌گوید: «اگر این فناوری اشتباه پیش برود، ممکن است کاملاً اشتباه شود.

با این حال، طی تقریباً سه ساعت بحث در مورد مضرات بالقوه فاجعه‌بار هوش مصنوعی، آلتمن تأیید کرد که شرکت او علیرغم خطرات احتمالی، به انتشار این فناوری ادامه خواهد داد. او به جای بی پروایی، استدلال کرد که “استقرار تکراری” مدل های هوش مصنوعی به موسسات زمان می دهد تا آسیب های احتمالی را درک کنند – یک حرکت استراتژیک فناوری “نسبتا ضعیف” و “عمیقا ناقص” را در جهان برای درک خطرات ایمنی مرتبط قرار می دهد.

برای هفته‌ها، آلتمن در یک تور جهانی حسن نیت بوده و به طور خصوصی با سیاست‌گذاران – از جمله کاخ سفید بایدن و اعضای کنگره – ملاقات کرده است تا به نگرانی‌های فزاینده آنها در مورد گسترش سریع ChatGPT و سایر فناوری‌ها رسیدگی کند. جلسه استماع روز سه‌شنبه اولین فرصتی بود که عموم مردم پیام او را به سیاست‌گذاران بشنوند، در لحظه‌ای که واشنگتن به طور فزاینده‌ای با راه‌هایی برای تنظیم فناوری‌هایی دست و پنجه نرم می‌کند که در حال حاضر مشاغل را بهم می‌زند، کلاهبرداری‌ها را تقویت می‌کند و دروغ‌پردازی می‌کند.

برخلاف جلسات مشاجره‌آمیز با دیگر مدیران عامل فناوری، از جمله شو زی چو TikTok و Mark Zuckerberg از Meta، قانون‌گذاران هر دو طرف از آلتمن استقبال نسبتاً گرمی کردند. به نظر می رسید که آنها در حالت گوش دادن هستند و تمایل گسترده ای برای گوش دادن به پیشنهادات نظارتی آلتمن و دو شاهد دیگر در جلسه دادرسی، کریستینا مونتگومری، مدیر اجرایی IBM و گری مارکوس، استاد بازنشسته دانشگاه نیویورک، ابراز کردند.

اعضای کمیته فرعی قوه قضائیه سنا نگرانی عمیق خود را در مورد تکامل سریع هوش مصنوعی ابراز کردند و بارها پیشنهاد کردند که پیشرفت‌های اخیر می‌تواند دگرگون‌کننده‌تر از ظهور اینترنت باشد – یا به اندازه بمب اتمی خطرناک باشد.

سناتور جان کندی (R-La.) به شاهدان گفت: “مردم، این فرصت شماست تا به ما بگویید چگونه این موضوع را درست کنیم.” “لطفا از آن استفاده کنید.”

قانونگذاران هر دو حزب نسبت به ایده ایجاد یک آژانس دولتی جدید که وظیفه تنظیم هوش مصنوعی را برعهده دارد ابراز تمایل کردند، اگرچه تلاش‌های گذشته برای ایجاد یک آژانس خاص با نظارت بر دره سیلیکون در کنگره در بحبوحه اختلافات حزبی در مورد چگونگی تنظیم این صنعت از بین رفته است. با این حال، مشخص نیست که آیا چنین پیشنهادی می تواند مورد توجه جمهوری خواهان باشد، که عموماً نسبت به گسترش قدرت دولت محتاط هستند. سناتور جاش هاولی (Mo.)، جمهوری خواه ارشد در پانل، هشدار داد که چنین نهادی می تواند “تسخیر منافعی شود که آنها باید تنظیم کنند.”

سناتور ریچارد بلومنتال (D-Conn.) که ریاست کمیته فرعی که جلسه استماع را بر عهده داشت، گفت که شهادت آلتمن با حضور سایر مدیران ارشد اجرایی دره سیلیکون، که قانونگذاران در طول سال‌ها از آنها انتقاد کرده‌اند، “خیلی فاصله دارد” امتناع از تأیید پیشنهادهای قانونی خاص

بلومنتال پس از جلسه استماع به خبرنگاران گفت: «سام آلتمن در مقایسه با دیگر مدیران عامل، شب و روز است، و نه فقط در کلمات و لفاظی، بلکه در اعمال واقعی و تمایل او برای مشارکت و تعهد به اقدامات خاص».

ظاهر آلتمن در حالی رخ می دهد که سیاست گذاران واشنگتن به طور فزاینده ای از خطر هوش مصنوعی بیدار می شوند، زیرا محبوبیت گسترده ChatGPT و سایر ابزارهای مولد هوش مصنوعی مردم را خیره کرده است اما نگرانی های امنیتی جدیدی ایجاد کرده است. دولت بایدن به طور فزاینده‌ای هوش مصنوعی را یک اولویت کلیدی می‌داند و قانون‌گذاران مکرراً می‌گویند که می‌خواهند از اشتباهاتی که در رسانه‌های اجتماعی مرتکب شده‌اند اجتناب کنند.

با این حال، علیرغم توافق گسترده دو حزبی مبنی بر اینکه هوش مصنوعی یک تهدید است، به نظر می رسد تا به امروز اتفاق نظر کمی درباره قوانینی که قانونگذاران باید برای تنظیم آن تصویب کنند، وجود دارد. بلومنتال گفت که جلسه استماع روز سه شنبه سوالات سختی را درباره هوش مصنوعی “با موفقیت” مطرح کرد، اما به آنها پاسخی نداد. رهبر اکثریت سنا، چارلز ای. شومر (DN.Y.) در حال توسعه یک چارچوب هوش مصنوعی جدید است که “هوش مصنوعی شفاف و مسئولانه را ارائه می دهد در حالی که نوآوری های حیاتی و پیشرفته را خفه نمی کند.”

استقبال گلگون آلتمن نشان دهنده موفقیت تهاجمی جذاب اخیر اوست، که شامل یک شام با قانونگذاران دوشنبه شب در مورد مقررات هوش مصنوعی و یک جمع خصوصی پس از جلسه سه شنبه با کوین مک کارتی، رئیس مجلس نمایندگان، حکیم جفریس، رهبر اقلیت مجلس نمایندگان (DN) بود. .Y.) و اعضای گروه هوش مصنوعی کنگره.

تندترین انتقادها از آلتمن در طول جلسه، نه از جانب قانونگذاران، بلکه شاهد دیگری بود که در کنار او نشسته بود. گری مارکوس، استاد بازنشسته در دانشگاه نیویورک، به قانونگذاران هشدار داد که آنها با «طوفان بی‌مسئولیت شرکت، استقرار گسترده، فقدان مقررات و غیرقابل اعتماد بودن ذاتی» مواجه هستند.

مارکوس او به طور خاص از OpenAI انتقاد کرد و با استناد به بیانیه مأموریت اصلی آن برای پیشبرد هوش مصنوعی به منظور “به نفع بشریت به عنوان یک کل” بدون محدودیت توسط فشارهای مالی است. مارکوس گفت، اکنون این شرکت به سرمایه گذار خود مایکروسافت وابسته است و انتشار سریع محصولات آن بر شرکت مادر گوگل، آلفابت فشار می آورد تا محصولات را نیز به سرعت عرضه کند.

مارکوس گفت: «بشریت در عقب نشسته است.

آلتمن علاوه بر ایجاد یک آژانس نظارتی جدید، ایجاد مجموعه جدیدی از استانداردهای ایمنی برای مدل‌های هوش مصنوعی را پیشنهاد کرد تا آزمایش کند که آیا آنها می‌توانند به‌خودی خود عمل کنند یا خیر. او همچنین پیشنهاد کرد که کارشناسان مستقل می توانند ممیزی مستقل انجام دهند و عملکرد مدل ها را بر اساس معیارهای مختلف آزمایش کنند.

با این حال، آلتمن از پیشنهادات دیگر، مانند الزامات شفافیت در داده های آموزشی که مدل های هوش مصنوعی استفاده می کنند، چشم پوشی کرد. OpenAI در مورد داده هایی که برای آموزش مدل های خود استفاده می کند مخفیانه عمل می کند، در حالی که برخی از رقبا در حال ساخت مدل های منبع باز هستند که به محققان امکان می دهد داده های آموزشی را موشکافی کنند.

آلتمن همچنین از تماس سناتور مارشا بلکبرن (R-Tenn.) طفره رفت تا متعهد شود که مدل های OpenAI را در مورد آثار دارای حق چاپ هنرمندان آموزش ندهد، یا از صداها یا شباهت های آنها بدون دریافت رضایت اولیه آنها استفاده نکند. و هنگامی که سناتور کوری بوکر (DN.J.) از او پرسید که آیا OpenAI هرگز تبلیغاتی را در چت بات‌های خود قرار می‌دهد، آلتمن پاسخ داد: “نمی‌گویم هرگز.”

– گربه زاکرزوسکی، کریستیانو لیما، ویل اورموس، واشنگتن پست

سئو PBN | خبر های جدید سئو و هک و سرور