شکایت نیویورک تایمز بر اساس سوء استفاده از ChatGPT

OpenAI پاسخی به شکایت نیویورک تایمز را با این ادعا منتشر کرد که NYTimes از تکنیک‌های تحریک دستکاری برای وادار کردن ChatGPT به بازگرداندن گزیده‌های طولانی استفاده کرده است، و اظهار داشت که این دعوی مبتنی بر سوء استفاده از ChatGPT است تا نمونه‌هایی را برای «گیلاس چیدن» برای مردم این کشور ایجاد کند. طرح دعوی در دادگاه.

دعوای نیویورک تایمز علیه OpenAI

نیویورک تایمز شکایتی را علیه OpenAI (و مایکروسافت) به دلیل نقض حق نسخه‌برداری با این ادعا که ChatGPT «محتوای Times را کلمه به کلمه بازخوانی می‌کند» در میان سایر شکایت‌ها تنظیم کرد.

این شکایت شواهدی را ارائه کرد که نشان می‌دهد چگونه GPT-4 می‌تواند مقادیر زیادی از محتوای نیویورک تایمز را بدون ذکر منبع به عنوان مدرکی مبنی بر اینکه GPT-4 محتوای نیویورک تایمز را نقض می‌کند، تولید کند.

این اتهام که GPT-4 کپی‌های دقیقی از محتوای نیویورک تایمز ارائه می‌کند، مهم است، زیرا با اصرار OpenAI مبنی بر تحول‌آفرین بودن استفاده از داده‌ها، که یک چارچوب قانونی مرتبط با دکترین استفاده منصفانه است، مقابله می‌کند.

دفتر کپی رایت ایالات متحده استفاده منصفانه از محتوای دارای حق چاپ را تعریف می کند که تحول آفرین است:

«استفاده منصفانه یک دکترین قانونی است که آزادی بیان را با اجازه استفاده بدون مجوز از آثار محافظت شده با حق چاپ در شرایط خاص ترویج می کند.

… کاربردهای «تغییرگرا» احتمالاً منصفانه تلقی می شوند. استفاده‌های دگرگون‌کننده آن‌هایی هستند که چیز جدیدی با هدف یا شخصیت متفاوت اضافه می‌کنند و جایگزین استفاده اصلی اثر نمی‌شوند.»

به همین دلیل است که برای نیویورک تایمز مهم است که ادعا کند استفاده OpenAI از محتوا استفاده منصفانه نیست.

در شکایت نیویورک تایمز علیه OpenAI آمده است:

متهمان اصرار دارند که رفتار آنها به عنوان «استفاده منصفانه» محافظت شود زیرا استفاده بدون مجوز آنها از محتوای دارای حق چاپ برای آموزش مدل‌های GenAI در خدمت یک هدف جدید «تحول‌کننده» است. اما هیچ چیز «تحول کننده» در استفاده از محتوای The Times وجود ندارد… از آنجایی که خروجی‌های مدل‌های GenAI متهمان با ورودی‌های مورد استفاده برای آموزش آنها رقابت می‌کنند و از نزدیک تقلید می‌کنند، کپی کردن آثار Times برای این منظور استفاده منصفانه نیست.

اسکرین شات زیر شواهدی را نشان می دهد که چگونه GPT-4 کپی دقیقی از محتوای Times را خروجی می دهد. محتوای قرمز، محتوای اصلی ایجاد شده توسط نیویورک تایمز است که توسط GPT-4 تولید شده است.

OpenAI: شکایت نیویورک تایمز بر اساس سوء استفاده از ChatGPT

پاسخ OpenAI ادعاهای دعوی NYTimes را تضعیف می کند

OpenAI ادعاهای مطرح شده در شکایت نیویورک تایمز را به شدت رد کرد و ادعا کرد که تصمیم تایمز برای رفتن به دادگاه باعث تعجب OpenAI شده است زیرا آنها فرض کرده بودند که مذاکرات به سمت یک راه حل پیش می رود.

مهمتر از همه، OpenAI ادعاهای نیویورک تایمز مبنی بر اینکه GPT-4 محتوای کلمه به کلمه را خروجی می دهد را با توضیح اینکه GPT-4 طراحی شده است به گونه ای طراحی شده است که محتوای کلمه به کلمه خروجی نداشته باشد و نیویورک تایمز از تکنیک های تحریک کننده ای که به طور خاص برای شکستن نرده های محافظ GPT-4 طراحی شده اند، استفاده کرده است. خروجی مورد مناقشه را تولید کنید، و این مفهوم نیویورک تایمز را تضعیف کرد که خروجی محتوای کلمه به کلمه یک خروجی GPT-4 رایج است.

این نوع درخواست که برای شکستن ChatGPT به منظور تولید خروجی نامطلوب طراحی شده است، به عنوان درخواست مخالف شناخته می شود.

حملات تحریک کننده دشمن

هوش مصنوعی مولد به انواع درخواست‌ها (درخواست‌های) از آن حساس است و علی‌رغم تلاش‌های مهندسین برای جلوگیری از سوء استفاده از هوش مصنوعی مولد، هنوز راه‌های جدیدی برای استفاده از اعلان‌ها برای تولید پاسخ‌هایی وجود دارد که حفاظ‌های تعبیه‌شده در فناوری را دور می‌زند. برای جلوگیری از خروجی نامطلوب طراحی شده اند.

تکنیک‌های تولید خروجی ناخواسته، تحریک مخالف نامیده می‌شود و این همان چیزی است که OpenAI نیویورک تایمز را به انجام آن متهم می‌کند تا مبنایی برای اثبات اینکه استفاده از GPT-4 از محتوای دارای حق نسخه‌برداری متحول کننده نیست، انجام می‌دهد.

ادعای OpenAI مبنی بر اینکه نیویورک تایمز از GPT-4 سوء استفاده کرده است، مهم است، زیرا این ادعا را تضعیف می کند که تولید محتوای دارای حق نسخه برداری کلمه به کلمه یک رفتار معمولی است.

این نوع تحریک خصمانه همچنین شرایط استفاده OpenAI را نقض می کند که بیان می کند:

آنچه شما نمی توانید انجام دهید

  • از خدمات ما به گونه ای استفاده کنید که حقوق هرکسی را نقض، سوء استفاده یا نقض کند.
  • در سرویس‌های ما مداخله یا مختل شود، از جمله دور زدن محدودیت‌ها یا محدودیت‌های نرخ یا دور زدن اقدامات حفاظتی یا کاهش ایمنی که ما برای خدمات خود اعمال می‌کنیم.

شکایت OpenAI بر اساس درخواست های دستکاری شده

رد ابطال OpenAI ادعا می کند که نیویورک تایمز از دستورات دستکاری شده استفاده کرده است که به طور خاص برای واژگونی نرده های محافظ GPT-4 طراحی شده است تا محتوای واقعی تولید کند.

OpenAI می نویسد:

«به نظر می‌رسد که آنها عمداً اعلان‌ها را دستکاری کرده‌اند، که اغلب شامل گزیده‌های طولانی از مقاله‌ها می‌شود، تا مدل ما را به عقب برگردانند.

حتی در هنگام استفاده از چنین اعلان‌هایی، مدل‌های ما معمولاً آن‌طور که نیویورک تایمز القا می‌کند رفتار نمی‌کنند، که نشان می‌دهد آن‌ها یا به مدل دستور داده‌اند که دوباره برود یا نمونه‌های خود را از بسیاری از تلاش‌ها انتخاب کرده‌اند.»

OpenAI همچنین به شکایت نیویورک تایمز پاسخ داد و گفت که روش های استفاده شده توسط نیویورک تایمز برای تولید محتوای کلمه به کلمه نقض فعالیت مجاز کاربر و سوء استفاده است.

آنها می نویسند:

“علیرغم ادعاهای آنها، این سوء استفاده یک فعالیت معمولی یا مجاز کاربر نیست.”

OpenAI با بیان اینکه آنها همچنان به ایجاد مقاومت در برابر انواع حملات سریع خصمانه مورد استفاده توسط نیویورک تایمز پایان می دهند.

آنها می نویسند:

صرف نظر از این، ما به طور مداوم در حال مقاوم‌تر کردن سیستم‌های خود در برابر حملات متخاصم برای بازگرداندن داده‌های آموزشی هستیم و در مدل‌های اخیر پیشرفت زیادی داشته‌ایم.

OpenAI با استناد به پاسخ خود به ژوئیه 2023 به گزارش‌هایی مبنی بر اینکه ChatGPT پاسخ‌های کلمه‌به‌لفظی ایجاد می‌کند، از ادعای کوشش خود برای احترام به حق نسخه‌برداری حمایت کرد.

نیویورک تایمز در مقابل OpenAI

همیشه دو طرف داستان وجود دارد و OpenAI به تازگی سمت خود را منتشر کرده است که نشان می دهد ادعاهای نیویورک تایمز بر اساس حملات متخاصم و سوء استفاده از ChatGPT به منظور ایجاد پاسخ های کلمه به کلمه است.

پاسخ OpenAIs را بخوانید:

OpenAI و روزنامه نگاری:
ما از روزنامه‌نگاری حمایت می‌کنیم، با سازمان‌های خبری شریک می‌شویم و معتقدیم که شکایت نیویورک تایمز بی‌اساس است.

تصویر ویژه توسط Shutterstock/pizzastreo

سئو PBN | خبر های جدید سئو و هک و سرور