اکنون در ChatGPT و Bing موجود است

OpenAI به تازگی آخرین مدل هوش مصنوعی خود، GPT-4 را منتشر کرده است که عملکردی در سطح انسانی در معیارهای مختلف حرفه ای و آکادمیک نشان می دهد.

GPT-4 یک مدل چندوجهی بزرگ است که می تواند ورودی های تصویر و متن را بپذیرد و خروجی متن تولید کند.

در این مقاله به قابلیت ها، محدودیت ها و خطرات استفاده از GPT-4 خواهیم پرداخت.

در پایان، تاثیر بالقوه GPT-4 و توانایی های آن را بهتر درک خواهید کرد.

توانایی ها

قابلیت‌های GPT-4 نسبت به مدل قبلی، GPT-3.5، از نظر قابلیت اطمینان، خلاقیت و مدیریت دستورالعمل‌های ظریف، بهبود یافته است.

OpenAI مدل را بر روی معیارهای مختلف، از جمله آزمون های شبیه سازی شده طراحی شده برای انسان، آزمایش کرد و دریافت که GPT-4 از مدل های زبان بزرگ موجود بهتر عمل می کند.

همچنین در زبان‌هایی غیر از انگلیسی، از جمله زبان‌های کم منبع مانند لتونی، ولزی و سواحیلی عملکرد خوبی دارد.

ورودی های بصری

GPT-4 می تواند هم متن و هم عکس را به عنوان ورودی بپذیرد و این باعث می شود که قادر به تولید خروجی متن بر اساس ورودی های متشکل از متن و تصویر باشد.

در حالی که قابلیت ورودی تصویری مدل هنوز در مرحله پیش‌نمایش تحقیق است، قابلیت‌های مشابهی را با ورودی‌های متنی نشان داده است.

فرمان پذیری

OpenAI روی هر جنبه ای از طرحی که در پست خود در مورد تعریف رفتار هوش مصنوعی از جمله قابلیت هدایت ارائه شده است، کار کرده است.

توسعه دهندگان اکنون می توانند سبک و وظیفه هوش مصنوعی خود را با توصیف مسیرها در پیام “سیستم” تجویز کنند.

کاربران API می توانند تجربه کاربران خود را در محدوده شخصی سازی کنند و امکان شخصی سازی قابل توجهی را فراهم کنند.

محدودیت ها

GPT-4 کامل نیست و محدودیت هایی مشابه مدل های قبلی GPT دارد.

هنوز هم می تواند حقایق را “توهم” کند و خطاهای استدلالی ایجاد کند، بنابراین هنگام استفاده از خروجی های مدل زبان، به ویژه در زمینه های پرمخاطب، باید احتیاط کرد.

GPT-4 از رویدادهای بعد از سپتامبر 2021 اطلاعی ندارد، که می تواند باعث شود خطاهای استدلالی ساده ای داشته باشد و گزاره های نادرست را درست بپذیرد.

همچنین ممکن است در مشکلات چالش برانگیز مانند انسان، مانند معرفی مسائل امنیتی در کد خود، شکست بخورد.

GPT-4 می تواند پیش بینی های مطمئن اما نادرست داشته باشد و همیشه کار خود را به دقت بررسی نمی کند.

جالب اینجاست که مدل پایه در پیش بینی دقت پاسخ های خود خوب است، اما این توانایی پس از آموزش کاهش می یابد.

خطرات و اقدامات کاهشی

در حالی که قابلیت‌های GPT-4 قابل توجه است، خطرات جدیدی مانند ایجاد توصیه‌های مضر، کد باگ یا اطلاعات نادرست را به همراه دارد.

OpenAI برای کاهش این خطرات کار کرده است و با بیش از 50 کارشناس برای آزمایش خصمانه مدل و جمع آوری داده های اضافی برای بهبود توانایی GPT-4 در رد درخواست های خطرناک کار می کند.

در نتیجه، OpenAI بهبودهای زیادی در GPT-4 ایجاد کرده است تا آن را ایمن تر از GPT-3.5 کند.

GPT-4 نسبت به نسخه قبلی 82 درصد کمتر احتمال دارد محتوای نامناسب ارائه دهد و از سیاست‌های مربوط به موضوعات حساس مانند توصیه‌های پزشکی و آسیب رساندن به خود بهتر پیروی می‌کند.

در حالی که OpenAI مدل را در برابر رفتار بد مقاوم‌تر کرد، تولید محتوای مغایر با قوانین استفاده همچنان امکان‌پذیر است.

OpenAI می‌گوید GPT-4 می‌تواند برای جامعه مفید یا مضر باشد، بنابراین برای درک تأثیرات احتمالی با سایر محققان همکاری می‌کند.

فرآیند آموزش

مانند مدل‌های قبلی GPT، مدل پایه GPT-4 برای پیش‌بینی کلمه بعدی در یک سند با استفاده از داده‌های در دسترس عموم و داده‌های دارای مجوز OpenAI آموزش دیده بود.

تنظیم دقیق رفتار مدل با استفاده از یادگیری تقویتی با بازخورد انسانی (RLHF) آن را با هدف کاربر در داخل نرده‌های محافظ هماهنگ می‌کند.

مقیاس بندی قابل پیش بینی

تمرکز قابل توجه پروژه GPT-4 ایجاد یک پشته یادگیری عمیق است که به طور قابل پیش بینی مقیاس می شود.

OpenAI زیرساخت و بهینه‌سازی را با رفتار قابل پیش‌بینی در مقیاس‌های مختلف توسعه داده است و می‌تواند به‌طور دقیق ضرر نهایی GPT-4 را در طول آموزش پیش‌بینی کند.

دسترسی

مایکروسافت تأیید می کند که تجربه جدید جستجوی Bing اکنون روی GPT-4 اجرا می شود.

اگرچه محدودیت استفاده دارد، اما می‌توانید با اشتراک ChatGPT Plus به GPT-4 نیز دسترسی داشته باشید.

OpenAI ممکن است سقف استفاده را بر اساس تقاضا و عملکرد سیستم تنظیم کند. این شرکت در حال بررسی اضافه کردن یک ردیف اشتراک دیگر برای امکان استفاده بیشتر از GPT-4 است.

برای دسترسی به GPT-4 API، باید در لیست انتظار ثبت نام کنید.

نتیجه

ایجاد GPT-4 نقطه عطف مهمی در تلاش های OpenAI برای افزایش مقیاس یادگیری عمیق است.

در حالی که ناقص است، عملکردی در سطح انسانی در معیارهای مختلف آکادمیک و حرفه ای نشان داده است، و آن را به یک ابزار قدرتمند تبدیل کرده است.

با این حال، هنگام استفاده از خروجی های مدل زبان در زمینه های پرمخاطب باید احتیاط کرد.

OpenAI برای کاهش خطرات و ایجاد یک پشته یادگیری عمیق کار می کند که به طور قابل پیش بینی مقیاس بندی می شود، که برای سیستم های هوش مصنوعی آینده بسیار مهم خواهد بود.


تصویر ویژه: محمد S0hail/Shutterstock

منبع: OpenAI