تصور کنید وقتی به محل کار میرسید وارد با ارزشترین ابزار کسبوکارتان شدهاید، فقط با این مورد استقبال میشوید:
«ChatGPT برای کاربران در ایتالیا غیرفعال شد
مشتری گرامی ChatGPT،
متأسفانه به اطلاع شما میرسانیم که به درخواست گارانتی ایتالیا، ChatGPT را برای کاربران ایتالیایی غیرفعال کردهایم.
OpenAI به کاربران ایتالیایی این پیام را در نتیجه تحقیقات Garante per la protezione dei dati personali (ضمانت کننده حفاظت از داده های شخصی) داد. Garante موارد نقض خاصی را به شرح زیر ذکر می کند:
- OpenAI به درستی به کاربران اطلاع نداد که داده های شخصی را جمع آوری کرده است.
- OpenAI دلیل قانونی برای جمع آوری اطلاعات شخصی برای آموزش الگوریتم خود ارائه نکرده است.
- ChatGPT اطلاعات شخصی را به صورت نادرست و بدون استفاده از حقایق واقعی پردازش می کند.
- OpenAI کاربران را ملزم به تأیید سن خود نکرده است، حتی اگر محتوای ChatGPT برای کاربران بالای 13 سال در نظر گرفته شده است و برای افراد زیر 18 سال به رضایت والدین نیاز دارد.
در واقع، کل کشور دسترسی به یک فناوری بسیار پرکاربرد را از دست داد، زیرا دولت آن نگران است که دادههای شخصی توسط کشور دیگری بهطور نادرست مدیریت شود – و اینکه این فناوری برای مخاطبان جوانتر ناامن است.
Diletta De Cicco، مشاور مستقر در میلان در خصوص حریم خصوصی داده ها، امنیت سایبری، و دارایی های دیجیتال با Squire Patton Boggs، خاطرنشان کرد:
جای تعجب نیست که تصمیم Garante درست پس از نقض دادهها بر مکالمات کاربران و دادههای ارائه شده به OpenAI صادر شد.
همچنین در زمانی اتفاق میافتد که هوش مصنوعیهای مولد با سرعتی سریع به عموم مردم راه مییابند (و نه تنها توسط کاربران باهوش فناوری پذیرفته میشوند).
تا حدودی تعجب آورتر است، در حالی که بیانیه مطبوعاتی ایتالیا به رخداد نقض اخیر اشاره می کند، در تصمیم ایتالیا برای توجیه ممنوعیت موقت هیچ اشاره ای به آن وجود ندارد، که بر اساس موارد زیر است: نادرست بودن داده ها، عدم اطلاع رسانی به کاربران و افراد در به طور کلی، عدم تأیید سن برای کودکان، و فقدان مبنای قانونی برای داده های آموزشی.
اگرچه OpenAI LLC در ایالات متحده فعالیت می کند، اما باید از کد حفاظت از داده های شخصی ایتالیا پیروی کند زیرا اطلاعات شخصی کاربران در ایتالیا را مدیریت و ذخیره می کند.
کد حفاظت از دادههای شخصی، قانون اصلی ایتالیا در مورد حفاظت از دادههای خصوصی بود تا اینکه اتحادیه اروپا مقررات حفاظت از دادههای عمومی (GDPR) را در سال ۲۰۱۸ تصویب کرد. قانون ایتالیا برای مطابقت با GDPR بهروزرسانی شد.
GDPR چیست؟
GDPR در تلاشی برای محافظت از حریم خصوصی اطلاعات شخصی در اتحادیه اروپا معرفی شد. سازمانها و کسبوکارهایی که در اتحادیه اروپا فعالیت میکنند باید از مقررات GDPR در مورد مدیریت، ذخیرهسازی و استفاده از دادههای شخصی پیروی کنند.
اگر یک سازمان یا کسب و کار نیاز به رسیدگی به اطلاعات شخصی یک کاربر ایتالیایی داشته باشد، باید با کد حفاظت از داده های شخصی ایتالیا و GDPR مطابقت داشته باشد.
چگونه ChatGPT می تواند قوانین GDPR را زیر پا بگذارد؟
اگر OpenAI نتواند ادعای خود را در برابر Garante ایتالیایی اثبات کند، ممکن است جرقهای برای بررسیهای بیشتر برای نقض دستورالعملهای GDPR مربوط به موارد زیر باشد:
- ChatGPT ورودی کاربر را ذخیره می کند – که ممکن است حاوی اطلاعات شخصی کاربران اتحادیه اروپا باشد (به عنوان بخشی از فرآیند آموزشی آن).
- OpenAI به مربیان اجازه می دهد تا مکالمات ChatGPT را مشاهده کنند.
- OpenAI به کاربران اجازه می دهد تا حساب های خود را حذف کنند اما می گوید که نمی توانند درخواست های خاصی را حذف کنند. اشاره می کند که کاربران نباید اطلاعات شخصی حساس را در مکالمات ChatGPT به اشتراک بگذارند.
OpenAI دلایل قانونی را برای پردازش اطلاعات شخصی از منطقه اقتصادی اروپا (که شامل کشورهای اتحادیه اروپا می شود)، بریتانیا و کاربران سوئیسی در بخش نهم سیاست حفظ حریم خصوصی ارائه می دهد.
صفحه «شرایط استفاده» محتوا را بهعنوان ورودی (پیشنهاد شما) و خروجی (پاسخ هوش مصنوعی مولد) تعریف میکند. هر کاربر ChatGPT حق دارد از محتوای تولید شده با استفاده از ابزار OpenAI به صورت شخصی و تجاری استفاده کند.
OpenAI به کاربران OpenAI API اطلاع میدهد که سرویسهایی که از دادههای شخصی ساکنان اتحادیه اروپا استفاده میکنند باید از GDPR، CCPA و قوانین مربوط به حریم خصوصی محلی برای کاربرانش پیروی کنند.
همانطور که هر هوش مصنوعی تکامل می یابد، محتوای AI تولیدی ممکن است حاوی ورودی های کاربر به عنوان بخشی از داده های آموزشی آن باشد، که ممکن است شامل اطلاعات حساس شخصی کاربران در سراسر جهان باشد.
رفیع عظیم خان، رئیس جهانی قانون حفظ حریم خصوصی و بازاریابی برای Pillsbury Winthrop Shaw Pittman LLP، اظهار داشت:
قوانین اخیر پیشنهاد شده در اروپا (قانون AI) توجه را به خود جلب کرده است، اما اغلب نادیده گرفتن قوانین دیگری که در حال حاضر در حال اجرا هستند و می توانند اعمال شوند، مانند GDPR، اشتباه است.
اقدام اجرایی رگولاتور ایتالیایی علیه OpenAI و ChatGPT در این هفته به همه یادآوری کرد که قوانینی مانند GDPR بر استفاده از هوش مصنوعی تأثیر می گذارد.
عظیم خان همچنین به مشکلات احتمالی منابع اطلاعات و داده های مورد استفاده برای تولید پاسخ های ChatGPT اشاره کرد.
وی خاطرنشان کرد: «برخی از نتایج هوش مصنوعی خطاهایی را نشان میدهند، بنابراین نگرانیهایی در مورد کیفیت دادههای خراششده از اینترنت و/یا استفاده برای آموزش فناوری وجود دارد». GDPR به افراد حق تصحیح خطاها را می دهد (همانطور که CCPA/CPRA در کالیفرنیا انجام می دهد).
به هر حال در مورد CCPA چطور؟
OpenAI در بخش پنج سیاست حفظ حریم خصوصی خود به مسائل مربوط به حریم خصوصی کاربران کالیفرنیا می پردازد.
این اطلاعات به اشتراک گذاشته شده با اشخاص ثالث، از جمله شرکت های وابسته، فروشندگان، ارائه دهندگان خدمات، مجریان قانون، و طرف های درگیر در معاملات با محصولات OpenAI را فاش می کند.
این اطلاعات شامل جزئیات تماس و ورود به سیستم کاربر، فعالیت شبکه، محتوا و داده های موقعیت جغرافیایی است.
این چگونه می تواند بر استفاده مایکروسافت در ایتالیا و اتحادیه اروپا تأثیر بگذارد؟
مایکروسافت برای رفع نگرانی های مربوط به حریم خصوصی داده ها و GDPR، مرکز اعتماد را ایجاد کرد.
کاربران مایکروسافت میتوانند درباره نحوه استفاده از دادههایشان در سرویسهای مایکروسافت، از جمله Bing و Microsoft Copilot که بر روی فناوری OpenAI اجرا میشوند، اطلاعات بیشتری کسب کنند.
آیا کاربران هوش مصنوعی مولد باید نگران باشند؟
«نکته آخر این است [the Italian Garante case] عظیم خان میگوید که میتواند نوک کوه یخ باشد زیرا دیگر مجریان نگاه دقیقتری به مدلهای هوش مصنوعی دارند.
دی سیکو میافزاید: «جالب است ببینیم که سایر مقامات اروپایی حفاظت از دادهها چه خواهند کرد»، آیا آنها فوراً از Garante پیروی میکنند یا بهتر است رویکردی منتظر بمانند. می توان امیدوار بود که واکنش مشترک اتحادیه اروپا به چنین موضوع حساس اجتماعی را ببیند.
اگر گارانته ایتالیایی پیروز شود، دولتهای دیگر ممکن است به بررسی فناوریهای بیشتری – از جمله همتایان و رقبای ChatGPT، مانند Google Bard – بپردازند تا ببینند آیا دستورالعملهای مشابهی را برای ایمنی دادههای شخصی و مخاطبان جوانتر نقض میکنند یا خیر.
عظیم خان می گوید: «ممکن است ممنوعیت های بیشتری به دنبال تحریم ایتالیایی باشد. حداقل ممکن است شاهد باشیم که توسعه دهندگان هوش مصنوعی مجبور به حذف مجموعه های عظیم داده و آموزش مجدد ربات های خود هستند.
تصویر ویژه: pcruciatti/Shutterstock