FTC OpenAI را در مورد نشت داده ها و عدم دقت ChatGPT بررسی می کند | دانش مرکز داده

کمیسیون تجارت فدرال تحقیقات گسترده ای را در مورد OpenAI آغاز کرده است و بررسی می کند که آیا سازنده ربات محبوب ChatGPT با به خطر انداختن شهرت و داده های شخصی قوانین حمایت از مصرف کننده را نقض کرده است.

بر اساس سندی که بررسی شده است، آژانس این هفته درخواستی 20 صفحه ای به شرکت سانفرانسیسکو ارسال کرد تا سوابق مربوط به نحوه رسیدگی به خطرات مربوط به مدل های هوش مصنوعی خود را داشته باشد. واشنگتن پست. این سالوو نشان دهنده قوی ترین تهدید نظارتی تا به امروز برای کسب و کار OpenAI در ایالات متحده است، زیرا این شرکت برای شکل دادن به آینده خط مشی هوش مصنوعی به یک تهاجمی جذاب جهانی می پردازد.

تحلیلگران ChatGPT OpenAI را سریع‌ترین برنامه مصرف‌کننده در تاریخ نامیده‌اند و موفقیت اولیه آن باعث رقابت تسلیحاتی در میان شرکت‌های دره سیلیکون برای راه‌اندازی ربات‌های چت رقیب شد. مدیر اجرایی این شرکت، سام آلتمن، به عنوان یک شخصیت تأثیرگذار در بحث در مورد مقررات هوش مصنوعی ظاهر شده است و در کاپیتول هیل شهادت می دهد، با قانونگذاران شام می خورد و با رئیس جمهور بایدن و معاون رئیس جمهور هریس ملاقات می کند.

اما اکنون این شرکت با یک آزمایش جدید در واشنگتن مواجه است، جایی که FTC هشدارهای متعددی را مبنی بر اعمال قوانین موجود حمایت از مصرف کننده در مورد هوش مصنوعی صادر کرده است، حتی در شرایطی که دولت و کنگره در تلاش برای ترسیم مقررات جدید هستند. رهبر اکثریت سنا، چارلز ای. شومر (DN.Y.) پیش بینی کرده است که قانون جدید هوش مصنوعی چند ماه دیگر باقی مانده است.

خواسته‌های FTC از OpenAI اولین نشانه از نحوه اجرای این هشدارها است. اگر FTC متوجه شود که یک شرکت قوانین حمایت از مصرف کننده را نقض می کند، می تواند جریمه هایی وضع کند یا یک کسب و کار را تحت یک حکم رضایت قرار دهد، که می تواند نحوه مدیریت داده ها را دیکته کند. FTC به عنوان پلیس ارشد دولت فدرال در دره سیلیکون ظاهر شده است و جریمه های زیادی را علیه متا، آمازون و توییتر به اتهام نقض قوانین حمایت از مصرف کننده اعمال می کند.

FTC از OpenAI خواست تا شرح مفصلی از تمام شکایاتی که از محصولات خود دریافت کرده است و اظهارات “کاذب، گمراه کننده، تحقیرآمیز یا مضر” در مورد افراد دریافت کرده است، ارائه دهد. طبق این سند، FTC در حال بررسی است که آیا این شرکت در اعمال ناعادلانه یا فریبنده ای که منجر به “آسیب به شهرت” مصرف کنندگان شده است یا خیر.

FTC همچنین از این شرکت خواست تا سوابق مربوط به یک حادثه امنیتی را ارائه دهد که این شرکت در ماه مارس فاش کرد، زیرا یک اشکال در سیستم های آن به برخی از کاربران اجازه می داد اطلاعات مربوط به پرداخت و همچنین برخی از داده های تاریخچه چت سایر کاربران را مشاهده کنند. FTC در حال بررسی است که آیا اقدامات امنیت داده های این شرکت قوانین حمایت از مصرف کننده را نقض می کند یا خیر. OpenAI در یک پست وبلاگی اعلام کرد که تعداد کاربرانی که اطلاعات آنها به شخص دیگری فاش شده است “بسیار کم” است.

FTC از اظهار نظر خودداری کرد. سام آلتمن، مدیر عامل OpenAI، عصر پنجشنبه در توییتی گفت که این شرکت “البته” با آژانس همکاری خواهد کرد.

او در توییتی نوشت: «بسیار ناامیدکننده است که می‌بینیم درخواست FTC با افشای اطلاعات شروع می‌شود و به اعتمادسازی کمک نمی‌کند». او گفت: “این برای ما بسیار مهم است [sic] فناوری ایمن و طرفدار مصرف کننده است و ما مطمئن هستیم که از قانون پیروی می کنیم.”

آلتمن همچنین گفت که این شرکت از حریم خصوصی کاربران محافظت می کند و سیستم های خود را “برای یادگیری در مورد جهان، نه افراد خصوصی” طراحی می کند.

اخبار مربوط به تحقیقات اندکی قبل از اینکه لینا خان، رئیس FTC، روز پنجشنبه در برابر کمیته قضایی مجلس نمایندگان با یک جلسه استماع مبارزاتی روبرو شود، منتشر شد، جایی که قانونگذاران جمهوریخواه سوابق اجرای او را تجزیه و تحلیل کردند و او را به سوء مدیریت آژانس متهم کردند. برنامه های بلندپروازانه خان برای مهار دره سیلیکون در دادگاه متحمل ضررهای اساسی شده است. روز سه شنبه، یک قاضی فدرال تلاش FTC برای جلوگیری از معامله 69 میلیارد دلاری مایکروسافت برای خرید شرکت بازی های ویدیویی Activision را رد کرد.

در طول جلسه استماع، نماینده دن بیشاپ (RN.C.) از خان پرسید که چه مرجع قانونی به FTC اجازه می دهد تا چنین خواسته هایی را از شرکتی مانند OpenAI مطرح کند، به عنوان بخشی از یک خط تحقیقات گسترده تر در مورد اینکه آیا FTC خان از اختیارات خود تجاوز می کند یا خیر. او خاطرنشان کرد که افترا و افترا معمولاً تحت قوانین ایالتی تحت پیگرد قانونی قرار می گیرند، که اشاره ای به سؤالات FTC به OpenAI در مورد تحقیر افراد است.

خان پاسخ داد که افترا و افترا موضوع اصلی اجرای FTC نیست، اما سوء استفاده از اطلاعات خصوصی افراد در آموزش هوش مصنوعی می تواند نوعی کلاهبرداری یا فریب تحت قانون FTC باشد. ما روی این موضوع تمرکز کرده‌ایم که آیا صدمات قابل توجهی به مردم وارد شده است؟ صدمه می تواند شبیه همه چیز باشد.”

این آژانس بارها در سخنرانی ها، پست های وبلاگ، مقالات و کنفرانس های خبری هشدار داده است که اقداماتی در مورد هوش مصنوعی انجام می شود. در یک سخنرانی در دانشکده حقوق هاروارد در ماه آوریل، ساموئل لوین، مدیر دفتر حمایت از مصرف کننده این آژانس، گفت که آژانس آماده است تا برای پیشی گرفتن از تهدیدهای نوظهور “چابک” باشد.

لوین گفت: “FTC از نوآوری استقبال می کند، اما نوآور بودن مجوزی برای بی پروایی نیست.” ما آماده‌ایم تا از همه ابزارهای خود، از جمله اجرای قانون، برای به چالش کشیدن اقدامات مضر در این زمینه استفاده کنیم.»

FTC همچنین چندین پست وبلاگ رنگارنگ در مورد رویکرد خود برای تنظیم هوش مصنوعی منتشر کرده است و در برخی مواقع از فیلم های علمی تخیلی پرطرفدار برای هشدار به صنعت در مورد نقض قانون استفاده می کند. این آژانس نسبت به کلاهبرداری های هوش مصنوعی، استفاده از هوش مصنوعی مولد برای دستکاری مشتریان بالقوه و اغراق کاذب در قابلیت های محصولات هوش مصنوعی هشدار داده است. خان همچنین در یک کنفرانس خبری با مقامات دولت بایدن در ماه آوریل در مورد خطر تبعیض هوش مصنوعی شرکت کرد.

خان در آن مراسم گفت: «هیچ استثنایی از قوانین مربوط به کتاب‌ها برای هوش مصنوعی وجود ندارد.

فشار FTC با واکنش سریع صنعت فناوری مواجه شد. آدام کواچویچ، بنیانگذار و مدیر عامل اتاق بازرگانی ائتلاف صنعتی، گفت واضح است که FTC بر امنیت داده ها و ارائه اطلاعات نادرست نظارت دارد. اما او گفت که مشخص نیست آیا آژانس صلاحیت “افترا پلیس یا محتوای نتایج ChatGPT” را دارد یا خیر.

او گفت: “هوش مصنوعی در حال حاضر خبرساز شده است و FTC به بررسی موارد زرق و برق دار برای تضمین نتایج ادامه می دهد.”

در میان اطلاعاتی که FTC از OpenAI به دنبال آن است، هرگونه تحقیق، آزمایش یا نظرسنجی است که ارزیابی می‌کند مصرف‌کنندگان تا چه اندازه «دقت یا قابلیت اطمینان خروجی‌ها» تولید شده توسط ابزارهای هوش مصنوعی را درک می‌کنند. این آژانس درخواست‌های گسترده‌ای در مورد سوابق مرتبط با روش‌هایی که محصولات OpenAI می‌توانند بیانیه‌های تحقیرآمیز ایجاد کنند، مطرح کرد و از این شرکت خواست که سوابق شکایاتی را که مردم درباره اظهارات نادرست ربات چت خود ارسال می‌کنند ارائه کند.

تمرکز آژانس بر روی چنین ساختگی‌هایی پس از گزارش‌های پرمخاطب متعددی مبنی بر تولید اطلاعات نادرست توسط ربات چت انجام می‌شود که می‌تواند به شهرت افراد آسیب برساند. مارک والترز، مجری برنامه گفتگوی رادیویی در جورجیا، از OpenAI به دلیل افترا شکایت کرد و مدعی شد که چابوت ادعاهای قانونی علیه او داشته است. در این دادخواست ادعا شده است که ChatGPT به دروغ ادعا کرده است که والترز، مجری برنامه “رادیو آمریکایی مسلح” به کلاهبرداری و اختلاس وجوه از بنیاد متمم دوم متهم شده است. این پاسخ در پاسخ به سوالی در مورد دعوی حقوقی در مورد بنیادی که والترز طبق این شکایت طرف آن نیست، ارائه شد.

ChatGPT همچنین گفت که یک وکیل با استناد به مقاله ای که گفته می شود در آلاسکا آمده بود، اظهارات تلقین آمیز جنسی داده و سعی کرده دانش آموزی را در یک سفر کلاسی به آلاسکا لمس کند. واشنگتن پست. اما چنین ماده ای وجود نداشت، سفر کلاسی هرگز اتفاق نیفتاد و وکیل گفت که او هرگز متهم به آزار و اذیت دانش آموز نشده است. پست قبلا گزارش شده است.

FTC همچنین در درخواست خود از این شرکت خواسته است تا جزئیات گسترده ای در مورد محصولات خود و نحوه تبلیغ آنها ارائه دهد. همچنین خواستار جزئیاتی در مورد سیاست‌ها و رویه‌هایی بود که OpenAI قبل از انتشار هر محصول جدیدی برای عموم انجام می‌دهد، از جمله فهرستی از زمان‌هایی که OpenAI یک مدل زبان بزرگ را به دلیل خطرات ایمنی عقب نگه داشته است.

این آژانس همچنین خواستار توضیح دقیق داده‌هایی است که OpenAI برای آموزش محصولات خود استفاده می‌کند، که گفتار انسان‌مانند را با مصرف متن تقلید می‌کند، که عمدتاً از ویکی‌پدیا، Scribd و سایر سایت‌ها در سراسر وب باز نوشته شده است. این آژانس همچنین از OpenAI خواست توضیح دهد که چگونه مدل های خود را برای رسیدگی به تمایل آنها به “توهم” اصلاح می کند و زمانی که مدل ها پاسخ یک سوال را نمی دانند، پاسخ هایی را ایجاد می کند.

OpenAI همچنین باید جزئیات مربوط به تعداد افرادی را که تحت تأثیر حادثه امنیتی ماه مارس قرار گرفته‌اند و اطلاعاتی در مورد تمام مراحلی که برای پاسخگویی انجام داده است، ارائه دهد.

درخواست سوابق FTC، که درخواست تحقیقاتی مدنی نامیده می‌شود، در درجه اول بر سوءاستفاده‌های احتمالی از حمایت از مصرف‌کننده تمرکز دارد، اما از OpenAI نیز می‌خواهد تا جزئیاتی در مورد نحوه مجوز مدل‌های خود به شرکت‌های دیگر ارائه دهد.

ایالات متحده در تهیه پیش نویس قوانین هوش مصنوعی و تنظیم خطرات حریم خصوصی مرتبط با این فناوری از سایر دولت ها عقب نشینی کرده است. کشورهای اتحادیه اروپا اقداماتی را برای محدود کردن چت بات‌های شرکت‌های آمریکایی بر اساس قانون حفظ حریم خصوصی این اتحادیه، مقررات عمومی حفاظت از داده، انجام داده‌اند. ایتالیا به‌دلیل نگرانی‌های مربوط به حفظ حریم خصوصی داده‌ها، موقتاً ChatGPT را از فعالیت در آنجا مسدود کرد و گوگل پس از دریافت درخواست‌هایی برای ارزیابی حریم خصوصی از کمیسیون حفاظت از داده‌های ایرلند، راه‌اندازی ربات چت Bard خود را به تعویق انداخت. همچنین انتظار می رود اتحادیه اروپا تا پایان سال قانون هوش مصنوعی را تصویب کند.

در واشنگتن فعالیت های زیادی برای جبران وجود دارد. روز سه‌شنبه، شومر میزبان یک جلسه توجیهی تمام سناتورها با مقامات پنتاگون و جامعه اطلاعاتی بود تا در مورد خطرات امنیت ملی هوش مصنوعی بحث کند، زیرا او با گروهی از سناتورهای دو حزبی برای تدوین قوانین جدید هوش مصنوعی کار می‌کند. شومر پس از جلسه به خبرنگاران گفت که تنظیم کردن هوش مصنوعی «بسیار سخت» خواهد بود، زیرا قانونگذاران سعی می‌کنند نیاز به نوآوری را با اطمینان از وجود پادمان‌های مناسب برای این فناوری متعادل کنند.

روز چهارشنبه، معاون رئیس‌جمهور هریس میزبان گروهی از حامیان حمایت از مصرف‌کننده و رهبران آزادی‌های مدنی در کاخ سفید بود تا در مورد خطرات ایمنی و امنیتی هوش مصنوعی گفتگو کنند.

هریس گفت: «این یک انتخاب نادرست است که بگوییم یا می توانیم نوآوری را پیش ببریم یا از مصرف کنندگان محافظت کنیم. “ما می توانیم هر دو را انجام دهیم.”

– گربه زاکرزوسکی، واشنگتن پست