OpenAI ردیاب هوش مصنوعی معیوب را خاموش می کند

OpenAI طبقه‌بندی‌کننده هوش مصنوعی خود را متوقف کرده است، ابزاری که برای شناسایی متن تولید شده توسط هوش مصنوعی طراحی شده است، پس از انتقادهایی که در مورد دقت آن وجود دارد.

خاتمه به طور ماهرانه از طریق به روز رسانی یک پست وبلاگ موجود اعلام شد.

در اطلاعیه OpenAI آمده است:

از 20 ژوئیه 2023، طبقه‌بندی‌کننده هوش مصنوعی به دلیل میزان دقت پایین آن دیگر در دسترس نیست. ما در حال کار برای ترکیب بازخورد هستیم و در حال حاضر در حال تحقیق در مورد تکنیک‌های منشأ مؤثرتری برای متن هستیم. ما متعهد به توسعه و استقرار مکانیسم‌هایی هستیم که کاربران را قادر می‌سازد بفهمند که آیا محتوای صوتی یا بصری توسط هوش مصنوعی تولید شده است یا خیر.

ظهور و سقوط طبقه بندی کننده OpenAI

این ابزار در مارس 2023 به عنوان بخشی از تلاش های OpenAI برای توسعه ابزارهای طبقه بندی کننده هوش مصنوعی راه اندازی شد که به مردم کمک می کند بفهمند محتوای صوتی یا بصری توسط هوش مصنوعی تولید شده است یا خیر.

هدف آن این بود که با تجزیه و تحلیل ویژگی‌های زبانی و تخصیص «رده‌بندی احتمال»، متون متنی را تشخیص دهد که آیا متن توسط انسان نوشته شده است یا هوش مصنوعی.

این ابزار محبوبیت پیدا کرد اما در نهایت به دلیل نقص در توانایی آن در تمایز بین نوشتن انسان و ماشین متوقف شد.

دردهای رشد برای فناوری تشخیص هوش مصنوعی

خاموش شدن ناگهانی طبقه‌بندی‌کننده متن OpenAI، چالش‌های مداوم توسعه سیستم‌های تشخیص هوش مصنوعی قابل اعتماد را برجسته می‌کند.

محققان هشدار می دهند که نتایج نادرست در صورت استقرار غیرمسئولانه می تواند منجر به عواقب ناخواسته شود.

کریستی هاینز از ژورنال موتورهای جستجو اخیراً چندین مطالعه اخیر را بررسی کرده است که ضعف ها و سوگیری ها را در سیستم های تشخیص هوش مصنوعی کشف کرده است.

محققان دریافتند که این ابزارها اغلب متن نوشته شده توسط انسان را به‌عنوان تولید شده توسط هوش مصنوعی، به‌ویژه برای افرادی که انگلیسی زبان نیستند، اشتباه می‌نویسند.

آنها تاکید می کنند که پیشرفت مداوم هوش مصنوعی مستلزم پیشرفت موازی در روش های تشخیص برای اطمینان از عدالت، پاسخگویی و شفافیت است.

با این حال، منتقدان می گویند که توسعه هوش مصنوعی مولد به سرعت از ابزارهای تشخیص پیشی می گیرد و امکان فرار آسان تر را فراهم می کند.

خطرات بالقوه تشخیص هوش مصنوعی غیرقابل اعتماد

کارشناسان نسبت به اتکای بیش از حد به طبقه‌بندی‌کننده‌های فعلی برای تصمیم‌گیری‌های پرمخاطره مانند تشخیص سرقت علمی دانشگاهی هشدار می‌دهند.

پیامدهای بالقوه تکیه بر سیستم های تشخیص هوش مصنوعی نادرست:

  • متهم کردن غیرمنصفانه نویسندگان انسانی به سرقت ادبی یا تقلب در صورتی که سیستم به اشتباه کار اصلی آنها را به‌عنوان تولیدشده توسط هوش مصنوعی پرچم‌گذاری کند.
  • در صورتی که سیستم نتواند متن غیر انسانی را به درستی شناسایی کند، اجازه می دهد محتوای سرقت شده یا تولید شده توسط هوش مصنوعی شناسایی نشود.
  • اگر هوش مصنوعی سبک‌های نوشتاری گروه‌های خاصی را به‌عنوان غیرانسانی طبقه‌بندی کند، تعصبات را تقویت می‌کند.
  • انتشار اطلاعات نادرست در صورتی که محتوای ساختگی یا دستکاری شده توسط یک سیستم معیوب شناسایی نشود.

به طور خلاصه

از آنجایی که محتوای تولید شده توسط هوش مصنوعی گسترده تر می شود، ادامه بهبود سیستم های طبقه بندی برای ایجاد اعتماد بسیار مهم است.

OpenAI اعلام کرده است که همچنان به توسعه تکنیک های قوی تر برای شناسایی محتوای هوش مصنوعی اختصاص دارد. با این حال، شکست سریع طبقه‌بندی‌کننده آن نشان می‌دهد که تکمیل چنین فناوری نیازمند پیشرفت قابل توجهی است.


تصویر ویژه: photosince/Shutterstock

سئو PBN | خبر های جدید سئو و هک و سرور