کمیسیون تجارت فدرال تحقیقات گسترده ای را در مورد OpenAI آغاز کرده است و بررسی می کند که آیا سازنده ربات محبوب ChatGPT با به خطر انداختن شهرت و داده های شخصی قوانین حمایت از مصرف کننده را نقض کرده است.
بر اساس سندی که بررسی شده است، آژانس این هفته درخواستی 20 صفحه ای به شرکت سانفرانسیسکو ارسال کرد تا سوابق مربوط به نحوه رسیدگی به خطرات مربوط به مدل های هوش مصنوعی خود را داشته باشد. واشنگتن پست. این سالوو نشان دهنده قوی ترین تهدید نظارتی تا به امروز برای کسب و کار OpenAI در ایالات متحده است، زیرا این شرکت برای شکل دادن به آینده خط مشی هوش مصنوعی به یک تهاجمی جذاب جهانی می پردازد.
تحلیلگران ChatGPT OpenAI را سریعترین برنامه مصرفکننده در تاریخ نامیدهاند و موفقیت اولیه آن باعث رقابت تسلیحاتی در میان شرکتهای دره سیلیکون برای راهاندازی رباتهای چت رقیب شد. مدیر اجرایی این شرکت، سام آلتمن، به عنوان یک شخصیت تأثیرگذار در بحث در مورد مقررات هوش مصنوعی ظاهر شده است و در کاپیتول هیل شهادت می دهد، با قانونگذاران شام می خورد و با رئیس جمهور بایدن و معاون رئیس جمهور هریس ملاقات می کند.
اما اکنون این شرکت با یک آزمایش جدید در واشنگتن مواجه است، جایی که FTC هشدارهای متعددی را مبنی بر اعمال قوانین موجود حمایت از مصرف کننده در مورد هوش مصنوعی صادر کرده است، حتی در شرایطی که دولت و کنگره در تلاش برای ترسیم مقررات جدید هستند. رهبر اکثریت سنا، چارلز ای. شومر (DN.Y.) پیش بینی کرده است که قانون جدید هوش مصنوعی چند ماه دیگر باقی مانده است.
خواستههای FTC از OpenAI اولین نشانه از نحوه اجرای این هشدارها است. اگر FTC متوجه شود که یک شرکت قوانین حمایت از مصرف کننده را نقض می کند، می تواند جریمه هایی وضع کند یا یک کسب و کار را تحت یک حکم رضایت قرار دهد، که می تواند نحوه مدیریت داده ها را دیکته کند. FTC به عنوان پلیس ارشد دولت فدرال در دره سیلیکون ظاهر شده است و جریمه های زیادی را علیه متا، آمازون و توییتر به اتهام نقض قوانین حمایت از مصرف کننده اعمال می کند.
FTC از OpenAI خواست تا شرح مفصلی از تمام شکایاتی که از محصولات خود دریافت کرده است و اظهارات “کاذب، گمراه کننده، تحقیرآمیز یا مضر” در مورد افراد دریافت کرده است، ارائه دهد. طبق این سند، FTC در حال بررسی است که آیا این شرکت در اعمال ناعادلانه یا فریبنده ای که منجر به “آسیب به شهرت” مصرف کنندگان شده است یا خیر.
FTC همچنین از این شرکت خواست تا سوابق مربوط به یک حادثه امنیتی را ارائه دهد که این شرکت در ماه مارس فاش کرد، زیرا یک اشکال در سیستم های آن به برخی از کاربران اجازه می داد اطلاعات مربوط به پرداخت و همچنین برخی از داده های تاریخچه چت سایر کاربران را مشاهده کنند. FTC در حال بررسی است که آیا اقدامات امنیت داده های این شرکت قوانین حمایت از مصرف کننده را نقض می کند یا خیر. OpenAI در یک پست وبلاگی اعلام کرد که تعداد کاربرانی که اطلاعات آنها به شخص دیگری فاش شده است “بسیار کم” است.
FTC از اظهار نظر خودداری کرد. سام آلتمن، مدیر عامل OpenAI، عصر پنجشنبه در توییتی گفت که این شرکت “البته” با آژانس همکاری خواهد کرد.
او در توییتی نوشت: «بسیار ناامیدکننده است که میبینیم درخواست FTC با افشای اطلاعات شروع میشود و به اعتمادسازی کمک نمیکند». او گفت: “این برای ما بسیار مهم است [sic] فناوری ایمن و طرفدار مصرف کننده است و ما مطمئن هستیم که از قانون پیروی می کنیم.”
آلتمن همچنین گفت که این شرکت از حریم خصوصی کاربران محافظت می کند و سیستم های خود را “برای یادگیری در مورد جهان، نه افراد خصوصی” طراحی می کند.
اخبار مربوط به تحقیقات اندکی قبل از اینکه لینا خان، رئیس FTC، روز پنجشنبه در برابر کمیته قضایی مجلس نمایندگان با یک جلسه استماع مبارزاتی روبرو شود، منتشر شد، جایی که قانونگذاران جمهوریخواه سوابق اجرای او را تجزیه و تحلیل کردند و او را به سوء مدیریت آژانس متهم کردند. برنامه های بلندپروازانه خان برای مهار دره سیلیکون در دادگاه متحمل ضررهای اساسی شده است. روز سه شنبه، یک قاضی فدرال تلاش FTC برای جلوگیری از معامله 69 میلیارد دلاری مایکروسافت برای خرید شرکت بازی های ویدیویی Activision را رد کرد.
در طول جلسه استماع، نماینده دن بیشاپ (RN.C.) از خان پرسید که چه مرجع قانونی به FTC اجازه می دهد تا چنین خواسته هایی را از شرکتی مانند OpenAI مطرح کند، به عنوان بخشی از یک خط تحقیقات گسترده تر در مورد اینکه آیا FTC خان از اختیارات خود تجاوز می کند یا خیر. او خاطرنشان کرد که افترا و افترا معمولاً تحت قوانین ایالتی تحت پیگرد قانونی قرار می گیرند، که اشاره ای به سؤالات FTC به OpenAI در مورد تحقیر افراد است.
خان پاسخ داد که افترا و افترا موضوع اصلی اجرای FTC نیست، اما سوء استفاده از اطلاعات خصوصی افراد در آموزش هوش مصنوعی می تواند نوعی کلاهبرداری یا فریب تحت قانون FTC باشد. ما روی این موضوع تمرکز کردهایم که آیا صدمات قابل توجهی به مردم وارد شده است؟ صدمه می تواند شبیه همه چیز باشد.”
این آژانس بارها در سخنرانی ها، پست های وبلاگ، مقالات و کنفرانس های خبری هشدار داده است که اقداماتی در مورد هوش مصنوعی انجام می شود. در یک سخنرانی در دانشکده حقوق هاروارد در ماه آوریل، ساموئل لوین، مدیر دفتر حمایت از مصرف کننده این آژانس، گفت که آژانس آماده است تا برای پیشی گرفتن از تهدیدهای نوظهور “چابک” باشد.
لوین گفت: “FTC از نوآوری استقبال می کند، اما نوآور بودن مجوزی برای بی پروایی نیست.” ما آمادهایم تا از همه ابزارهای خود، از جمله اجرای قانون، برای به چالش کشیدن اقدامات مضر در این زمینه استفاده کنیم.»
FTC همچنین چندین پست وبلاگ رنگارنگ در مورد رویکرد خود برای تنظیم هوش مصنوعی منتشر کرده است و در برخی مواقع از فیلم های علمی تخیلی پرطرفدار برای هشدار به صنعت در مورد نقض قانون استفاده می کند. این آژانس نسبت به کلاهبرداری های هوش مصنوعی، استفاده از هوش مصنوعی مولد برای دستکاری مشتریان بالقوه و اغراق کاذب در قابلیت های محصولات هوش مصنوعی هشدار داده است. خان همچنین در یک کنفرانس خبری با مقامات دولت بایدن در ماه آوریل در مورد خطر تبعیض هوش مصنوعی شرکت کرد.
خان در آن مراسم گفت: «هیچ استثنایی از قوانین مربوط به کتابها برای هوش مصنوعی وجود ندارد.
فشار FTC با واکنش سریع صنعت فناوری مواجه شد. آدام کواچویچ، بنیانگذار و مدیر عامل اتاق بازرگانی ائتلاف صنعتی، گفت واضح است که FTC بر امنیت داده ها و ارائه اطلاعات نادرست نظارت دارد. اما او گفت که مشخص نیست آیا آژانس صلاحیت “افترا پلیس یا محتوای نتایج ChatGPT” را دارد یا خیر.
او گفت: “هوش مصنوعی در حال حاضر خبرساز شده است و FTC به بررسی موارد زرق و برق دار برای تضمین نتایج ادامه می دهد.”
در میان اطلاعاتی که FTC از OpenAI به دنبال آن است، هرگونه تحقیق، آزمایش یا نظرسنجی است که ارزیابی میکند مصرفکنندگان تا چه اندازه «دقت یا قابلیت اطمینان خروجیها» تولید شده توسط ابزارهای هوش مصنوعی را درک میکنند. این آژانس درخواستهای گستردهای در مورد سوابق مرتبط با روشهایی که محصولات OpenAI میتوانند بیانیههای تحقیرآمیز ایجاد کنند، مطرح کرد و از این شرکت خواست که سوابق شکایاتی را که مردم درباره اظهارات نادرست ربات چت خود ارسال میکنند ارائه کند.
تمرکز آژانس بر روی چنین ساختگیهایی پس از گزارشهای پرمخاطب متعددی مبنی بر تولید اطلاعات نادرست توسط ربات چت انجام میشود که میتواند به شهرت افراد آسیب برساند. مارک والترز، مجری برنامه گفتگوی رادیویی در جورجیا، از OpenAI به دلیل افترا شکایت کرد و مدعی شد که چابوت ادعاهای قانونی علیه او داشته است. در این دادخواست ادعا شده است که ChatGPT به دروغ ادعا کرده است که والترز، مجری برنامه “رادیو آمریکایی مسلح” به کلاهبرداری و اختلاس وجوه از بنیاد متمم دوم متهم شده است. این پاسخ در پاسخ به سوالی در مورد دعوی حقوقی در مورد بنیادی که والترز طبق این شکایت طرف آن نیست، ارائه شد.
ChatGPT همچنین گفت که یک وکیل با استناد به مقاله ای که گفته می شود در آلاسکا آمده بود، اظهارات تلقین آمیز جنسی داده و سعی کرده دانش آموزی را در یک سفر کلاسی به آلاسکا لمس کند. واشنگتن پست. اما چنین ماده ای وجود نداشت، سفر کلاسی هرگز اتفاق نیفتاد و وکیل گفت که او هرگز متهم به آزار و اذیت دانش آموز نشده است. پست قبلا گزارش شده است.
FTC همچنین در درخواست خود از این شرکت خواسته است تا جزئیات گسترده ای در مورد محصولات خود و نحوه تبلیغ آنها ارائه دهد. همچنین خواستار جزئیاتی در مورد سیاستها و رویههایی بود که OpenAI قبل از انتشار هر محصول جدیدی برای عموم انجام میدهد، از جمله فهرستی از زمانهایی که OpenAI یک مدل زبان بزرگ را به دلیل خطرات ایمنی عقب نگه داشته است.
این آژانس همچنین خواستار توضیح دقیق دادههایی است که OpenAI برای آموزش محصولات خود استفاده میکند، که گفتار انسانمانند را با مصرف متن تقلید میکند، که عمدتاً از ویکیپدیا، Scribd و سایر سایتها در سراسر وب باز نوشته شده است. این آژانس همچنین از OpenAI خواست توضیح دهد که چگونه مدل های خود را برای رسیدگی به تمایل آنها به “توهم” اصلاح می کند و زمانی که مدل ها پاسخ یک سوال را نمی دانند، پاسخ هایی را ایجاد می کند.
OpenAI همچنین باید جزئیات مربوط به تعداد افرادی را که تحت تأثیر حادثه امنیتی ماه مارس قرار گرفتهاند و اطلاعاتی در مورد تمام مراحلی که برای پاسخگویی انجام داده است، ارائه دهد.
درخواست سوابق FTC، که درخواست تحقیقاتی مدنی نامیده میشود، در درجه اول بر سوءاستفادههای احتمالی از حمایت از مصرفکننده تمرکز دارد، اما از OpenAI نیز میخواهد تا جزئیاتی در مورد نحوه مجوز مدلهای خود به شرکتهای دیگر ارائه دهد.
ایالات متحده در تهیه پیش نویس قوانین هوش مصنوعی و تنظیم خطرات حریم خصوصی مرتبط با این فناوری از سایر دولت ها عقب نشینی کرده است. کشورهای اتحادیه اروپا اقداماتی را برای محدود کردن چت باتهای شرکتهای آمریکایی بر اساس قانون حفظ حریم خصوصی این اتحادیه، مقررات عمومی حفاظت از داده، انجام دادهاند. ایتالیا بهدلیل نگرانیهای مربوط به حفظ حریم خصوصی دادهها، موقتاً ChatGPT را از فعالیت در آنجا مسدود کرد و گوگل پس از دریافت درخواستهایی برای ارزیابی حریم خصوصی از کمیسیون حفاظت از دادههای ایرلند، راهاندازی ربات چت Bard خود را به تعویق انداخت. همچنین انتظار می رود اتحادیه اروپا تا پایان سال قانون هوش مصنوعی را تصویب کند.
در واشنگتن فعالیت های زیادی برای جبران وجود دارد. روز سهشنبه، شومر میزبان یک جلسه توجیهی تمام سناتورها با مقامات پنتاگون و جامعه اطلاعاتی بود تا در مورد خطرات امنیت ملی هوش مصنوعی بحث کند، زیرا او با گروهی از سناتورهای دو حزبی برای تدوین قوانین جدید هوش مصنوعی کار میکند. شومر پس از جلسه به خبرنگاران گفت که تنظیم کردن هوش مصنوعی «بسیار سخت» خواهد بود، زیرا قانونگذاران سعی میکنند نیاز به نوآوری را با اطمینان از وجود پادمانهای مناسب برای این فناوری متعادل کنند.
روز چهارشنبه، معاون رئیسجمهور هریس میزبان گروهی از حامیان حمایت از مصرفکننده و رهبران آزادیهای مدنی در کاخ سفید بود تا در مورد خطرات ایمنی و امنیتی هوش مصنوعی گفتگو کنند.
هریس گفت: «این یک انتخاب نادرست است که بگوییم یا می توانیم نوآوری را پیش ببریم یا از مصرف کنندگان محافظت کنیم. “ما می توانیم هر دو را انجام دهیم.”
– گربه زاکرزوسکی، واشنگتن پست