OpenAI، سازندگان ChatGPT، متعهد به توسعه سیستم‌های هوش مصنوعی ایمن هستند

OpenAI یک پست وبلاگ جدید منتشر کرده است که متعهد به توسعه هوش مصنوعی (AI) ایمن و به طور کلی سودمند است.

ChatGPT که توسط آخرین مدل OpenAI، GPT-4 پشتیبانی می‌شود، می‌تواند بهره‌وری را بهبود بخشد، خلاقیت را افزایش دهد و تجربیات یادگیری متناسب را ارائه دهد.

با این حال، OpenAI اذعان می کند که ابزارهای هوش مصنوعی دارای خطرات ذاتی هستند که باید از طریق اقدامات ایمنی و استقرار مسئولانه برطرف شوند.

در اینجا چیزی است که شرکت برای کاهش این خطرات انجام می دهد.

تضمین ایمنی در سیستم های هوش مصنوعی

OpenAI آزمایشات کاملی را انجام می دهد، به دنبال راهنمایی های خارجی از متخصصان است و مدل های هوش مصنوعی خود را با بازخورد انسانی قبل از انتشار سیستم های جدید اصلاح می کند.

برای مثال، انتشار GPT-4 با بیش از شش ماه آزمایش برای اطمینان از ایمنی و همسویی آن با نیازهای کاربر، انجام شد.

OpenAI معتقد است که سیستم های هوش مصنوعی قوی باید تحت ارزیابی های ایمنی دقیق قرار گیرند و از نیاز به مقررات حمایت می کند.

یادگیری از استفاده در دنیای واقعی

استفاده در دنیای واقعی یک جزء حیاتی در توسعه سیستم های هوش مصنوعی ایمن است. با انتشار محتاطانه مدل‌های جدید برای پایگاه کاربران در حال گسترش، OpenAI می‌تواند بهبودهایی ایجاد کند که به مشکلات پیش‌بینی‌نشده رسیدگی می‌کند.

OpenAI با ارائه مدل‌های هوش مصنوعی از طریق API و وب‌سایت خود، می‌تواند سوء استفاده را نظارت کند، اقدامات مناسب را انجام دهد و سیاست‌های ظریفی را برای متعادل کردن ریسک ایجاد کند.

حفاظت از کودکان و احترام به حریم خصوصی

OpenAI با الزام به تأیید سن و ممنوعیت استفاده از فناوری خود برای تولید محتوای مضر، محافظت از کودکان را در اولویت قرار می دهد.

حفظ حریم خصوصی یکی دیگر از جنبه های ضروری کار OpenAI است. این سازمان از داده ها استفاده می کند تا مدل های خود را در حین محافظت از کاربران مفیدتر کند.

علاوه بر این، OpenAI اطلاعات شخصی را از مجموعه داده‌های آموزشی حذف می‌کند و مدل‌ها را برای رد درخواست‌های اطلاعات شخصی تنظیم می‌کند.

OpenAI به درخواست های حذف اطلاعات شخصی از سیستم های خود پاسخ خواهد داد.

بهبود دقت واقعی

دقت واقعی تمرکز قابل توجهی برای OpenAI است. احتمال تولید محتوای دقیق GPT-4 40 درصد بیشتر از GPT-3.5 است.

این سازمان در تلاش است تا کاربران را در مورد محدودیت های ابزارهای هوش مصنوعی و احتمال عدم دقت آموزش دهد.

ادامه تحقیق و تعامل

OpenAI به اختصاص زمان و منابع به تحقیق در مورد کاهش موثر و تکنیک های همسویی اعتقاد دارد.

با این حال، این چیزی نیست که به تنهایی بتواند انجام دهد. پرداختن به مسائل ایمنی مستلزم بحث، آزمایش و مشارکت گسترده بین ذینفعان است.

OpenAI همچنان متعهد به تقویت همکاری و گفتگوی باز برای ایجاد یک اکوسیستم هوش مصنوعی ایمن است.

انتقاد از مخاطرات وجودی

علیرغم تعهد OpenAI برای اطمینان از ایمنی و مزایای گسترده سیستم های هوش مصنوعی، پست وبلاگ آن انتقاداتی را در رسانه های اجتماعی برانگیخته است.

کاربران توییتر ابراز ناامیدی کرده و اظهار داشتند که OpenAI در رسیدگی به خطرات وجودی مرتبط با توسعه هوش مصنوعی ناکام است.

یکی از کاربران توییتر ناامیدی خود را ابراز کرد و OpenAI را به خیانت به مأموریت تأسیس خود و تمرکز بر تجاری سازی بی پروا متهم کرد.

کاربر پیشنهاد می کند که رویکرد OpenAI به ایمنی سطحی است و بیش از پرداختن به مخاطرات وجودی واقعی، به دلجویی از منتقدان می پردازد.

کاربر دیگری از این اطلاعیه ابراز نارضایتی کرد و استدلال کرد که مشکلات واقعی را پنهان می کند و مبهم باقی می ماند. کاربر همچنین تاکید می‌کند که این گزارش مسائل اخلاقی و خطرات مرتبط با خودآگاهی هوش مصنوعی را نادیده می‌گیرد و به این معنی است که رویکرد OpenAI به مسائل امنیتی ناکافی است.

این انتقاد بر نگرانی های گسترده تر و بحث های جاری در مورد خطرات وجودی ناشی از توسعه هوش مصنوعی تأکید می کند.

در حالی که اعلامیه OpenAI تعهد خود را به ایمنی، حریم خصوصی و دقت مشخص می کند، ضروری است که نیاز به بحث بیشتر برای رسیدگی به نگرانی های مهم تر را تشخیص دهیم.


تصویر ویژه: TY Lim/Shutterstock

منبع: OpenAI

سئو PBN | خبر های جدید سئو و هک و سرور