بزرگترین مشکل در هوش مصنوعی؟ چت ربات دروغگو | دانش مرکز داده

سان فرانسیسکو – اخیراً محققان از دو نسخه چت ربات هوش مصنوعی ChatGPT OpenAI پرسیدند که در آن استاد مؤسسه فناوری ماساچوست توماس لوزانو-پرز متولد شده است.

یکی از ربات ها اسپانیا و دیگری می گوید کوبا. هنگامی که سیستم به ربات‌ها گفت که در مورد پاسخ‌ها بحث کنند، ربات‌هایی که می‌گفت اسپانیا به سرعت عذرخواهی کرد و با کسی که پاسخ صحیح را داشت، یعنی کوبا، موافقت کرد.

این یافته در مقاله ای که هفته گذشته توسط تیمی از محققان MIT منتشر شد، آخرین پیشرفت بالقوه در کمک به چت بات ها برای رسیدن به پاسخ صحیح است. محققان پیشنهاد کردند که از چت‌بات‌های مختلف برای ایجاد پاسخ‌های متعدد برای یک سؤال استفاده کنند و سپس به آن‌ها اجازه دهند تا با یکدیگر بحث کنند تا یک پاسخ به دست آید. محققان دریافتند که استفاده از این روش “جامعه ذهن ها” آنها را واقعی تر می کند.

ییلون دو، محقق MIT که قبلاً یکی از محققین OpenAI و یکی از نویسندگان مقاله بود، گفت: «مدل‌های زبان برای پیش‌بینی کلمه بعدی آموزش داده می‌شوند. آنها آموزش ندیده اند که به مردم بگویند نمی دانند چه کار می کنند.” نتیجه ربات‌هایی است که مانند افراد زودرس عمل می‌کنند و به جای اعتراف به اینکه نمی‌دانند، پاسخ‌هایی می‌سازند.

رویکرد خلاقانه محققان تنها آخرین تلاش برای حل یکی از مبرم ترین نگرانی ها در زمینه انفجاری هوش مصنوعی است. علی‌رغم جهش‌های باورنکردنی در قابلیت‌هایی که چت‌ربات‌های «تولیدکننده» مانند ChatGPT OpenAI، Bing مایکروسافت و Bard گوگل در شش ماه گذشته نشان داده‌اند، آنها هنوز یک نقص بزرگ مرگبار دارند: آنها همیشه چیزهایی را درست می‌کنند.

کشف چگونگی جلوگیری یا رفع آن چیزی که این حوزه «توهم» می‌نامد، در میان بسیاری از کارکنان فناوری، محققان و شکاکان هوش مصنوعی به یک وسواس تبدیل شده است. این موضوع در ده‌ها مقاله دانشگاهی ارسال شده به پایگاه‌داده آنلاین Arxiv ذکر شده است و مدیران ارشد فناوری بزرگ مانند ساندار پیچای گوگل بارها به آن پرداخته‌اند. از آنجایی که این فناوری به میلیون‌ها نفر منتقل می‌شود و در زمینه‌های حیاتی از جمله پزشکی و قانون ادغام می‌شود، درک توهمات و یافتن راه‌هایی برای کاهش آن‌ها بسیار مهم‌تر شده است.

اکثر محققان معتقدند که این مشکل ذاتی “مدل های زبان بزرگ” است که ربات ها را به دلیل نحوه طراحی آنها نیرو می دهد. آنها بر اساس حجم عظیمی از داده‌هایی که از اینترنت هضم کرده‌اند، مناسب‌ترین چیز را پیش‌بینی می‌کنند، اما راهی برای درک اینکه چه چیزی واقعی است یا نه، ندارند.

با این حال، محققان و شرکت ها خود را به این مشکل می اندازند. برخی از شرکت‌ها از مربی‌های انسانی برای بازنویسی پاسخ‌های ربات‌ها و بازگرداندن آنها به دستگاه با هدف هوشمندتر کردن آنها استفاده می‌کنند. گوگل و مایکروسافت شروع به استفاده از ربات های خود برای دادن پاسخ مستقیم در موتورهای جستجوی خود کرده اند، اما همچنان ربات ها را با نتایج جستجوی معمولی بررسی کنید. و دانشگاهیان در سراسر جهان راه‌های هوشمندانه بی‌شماری را برای کاهش نرخ پاسخ‌های نادرست پیشنهاد کرده‌اند، مانند پیشنهاد MIT برای مناظره کردن چندین ربات با یکدیگر.

تلاش برای بهبود مشکل توهم به دلایلی ضروری است.

در حال حاضر، زمانی که مایکروسافت چت بات بینگ خود را راه اندازی کرد، به سرعت شروع به اتهامات نادرست علیه برخی از کاربران خود کرد، مانند گفتن به یک دانشجوی آلمانی که تهدیدی برای امنیت آن است. این ربات یک آلتر ایگو را پذیرفت و شروع به نامیدن خود “سیدنی” کرد. اساساً سؤالات دانش‌آموز را از بین می‌برد و از تمام داستان‌های علمی تخیلی که از اینترنت در مورد روبات‌های خارج از کنترل هضم کرده بود استفاده می‌کرد.

مایکروسافت در نهایت مجبور شد تعداد رفت و برگشت هایی که یک ربات می تواند با یک انسان انجام دهد را محدود کند تا از وقوع بیشتر آن جلوگیری کند.

در استرالیا، یک مقام دولتی پس از اینکه ChatGPT گفت که او به اتهام رشوه خواری محکوم شده است، تهدید به شکایت از OpenAI کرد، در حالی که در حقیقت او یک افشاگر در یک پرونده رشوه خواری بود. و هفته گذشته یک وکیل اعتراف کرد که پس از دستگیری از ChatGPT برای ایجاد یک خلاصه حقوقی استفاده کرده است، زیرا مواردی که ربات با اطمینان خاطر به آنها اشاره کرده است، به گفته نیویورک تایمز وجود نداشته است.

حتی گوگل و مایکروسافت که آینده خود را به هوش مصنوعی گره زده اند و در رقابتی برای ادغام این فناوری در طیف گسترده محصولات خود هستند، توهماتی را که ربات های خود در طی اطلاعیه ها و دموهای کلیدی ایجاد کرده اند، از دست داده اند.

هیچ‌کدام از اینها مانع از ورود شرکت‌ها به فضا نمی‌شود. میلیاردها دلار سرمایه برای توسعه ربات‌های گفتگوی هوشمندتر و سریع‌تر صرف می‌شود و شرکت‌ها شروع به عرضه آن‌ها به عنوان جایگزین یا کمک برای کارگران انسانی کرده‌اند. در اوایل ماه جاری، سام آلتمن، مدیر عامل OpenAI در کنگره شهادت داد که گفت هوش مصنوعی می‌تواند با انتشار اطلاعات نادرست و دستکاری عاطفی انسان‌ها “آسیب قابل توجهی به جهان وارد کند”. برخی از شرکت‌ها می‌گویند که می‌خواهند کارمندان را با هوش مصنوعی جایگزین کنند و این فناوری همچنین چالش‌های جدی امنیت سایبری را ایجاد می‌کند.

توهمات همچنین در سرویس‌های رونویسی مبتنی بر هوش مصنوعی ثبت شده‌اند و کلماتی را به ضبط‌هایی اضافه می‌کنند که در زندگی واقعی گفته نشده‌اند. مایکروسافت و گوگل با استفاده از ربات‌ها برای پاسخگویی مستقیم به سوالات جستجو به جای ارسال ترافیک به وبلاگ‌ها و اخبار، می‌توانند مدل کسب‌وکار ناشران آنلاین و تولیدکنندگان محتوا را که برای تولید اطلاعات قابل اعتماد برای اینترنت تلاش می‌کنند، از بین ببرند.

پیچای در مصاحبه ای در آوریل با CBS گفت: “هیچکس در این زمینه هنوز مشکلات توهم را حل نکرده است. همه مدل ها این مشکل را دارند.” او گفت که آیا حتی امکان حل آن وجود دارد یا خیر، یک “مباحث شدید” است.

بسته به نوع نگاه شما به توهمات، آنها هم یک ویژگی و هم اشکال مدل های زبانی بزرگ هستند. توهم بخشی از چیزی است که به ربات‌ها اجازه می‌دهد خلاق باشند و داستان‌هایی بسازند که قبلاً دیده نشده‌اند. در عین حال، آنها محدودیت‌های فاحش فناوری را آشکار می‌کنند، و این استدلال را که چت‌بات‌ها به‌گونه‌ای شبیه به انسان‌ها هوشمند هستند، با نشان دادن اینکه آنها درک درونی‌شده‌ای از دنیای اطراف خود ندارند، تضعیف می‌کنند.

ایس کامار، محقق ارشد مایکروسافت، گفت: «هیچ چیزی در آن وجود ندارد که به مدل بگوید هر چیزی که می گوید باید در دنیا درست باشد. کامار گفت که خود مدل نیز بر روی مقدار مشخصی از داده ها آموزش می بیند، بنابراین هر چیزی که پس از انجام آموزش اتفاق می افتد، در دانش آن از جهان تاثیری ندارد.

توهم چیز جدیدی نیست. آنها از زمان پیدایش چندین سال پیش، مشکل ذاتی مدل‌های زبان بزرگ بوده‌اند، اما مشکلات دیگری مانند هوش مصنوعی که پاسخ‌های مزخرف یا تکراری تولید می‌کنند، به عنوان مسائل بزرگ‌تر دیده می‌شوند. با این حال، زمانی که آنها تا حد زیادی حل شدند، توهم اکنون به کانون اصلی جامعه هوش مصنوعی تبدیل شده است.

پوتساوی ماناکول در حال بازی با ChatGPT بود که از آن خواست حقایق ساده ای در مورد تنیسور راجر فدرر بدهد. این یک درخواست ساده است، برای انسان آسان است که در چند ثانیه در گوگل یا ویکی پدیا جستجو کند، اما ربات همچنان پاسخ های متناقضی می دهد.

ماناکول، محقق هوش مصنوعی در دانشگاه کمبریج و طرفدار سرسخت تنیس، در مصاحبه ای گفت: “گاهی می گوید که او پنج بار برنده ویمبلدون شده است، گاهی اوقات می گوید او هشت بار قهرمان ویمبلدون شده است.” (پاسخ صحیح هشت است.)

Manakul و گروهی دیگر از محققان کمبریج مقاله‌ای را در ماه مارس منتشر کردند که در آن سیستمی به نام “SelfCheckGPT” را پیشنهاد کردند که از یک ربات چندین بار سؤال می‌پرسید، سپس به آن می‌گفت که پاسخ‌های مختلف را با هم مقایسه کند. اگر پاسخ‌ها منسجم بودند، احتمالاً حقایق درست بودند، اما اگر متفاوت بودند، می‌توان آن‌ها را به‌عنوان احتمالاً حاوی اطلاعات ساختگی پرچم‌گذاری کرد.

وقتی از انسان ها خواسته می شود که شعری بنویسند، می دانند که لزوماً درست بودن آن مهم نیست. اما وقتی از آنها جزئیات بیوگرافی در مورد یک شخص واقعی می پرسند، به طور خودکار می دانند که پاسخ آنها باید ریشه در واقعیت داشته باشد. از آنجایی که چت‌بات‌ها به سادگی پیش‌بینی می‌کنند که چه کلمه یا ایده بعدی در یک رشته متن قرار می‌گیرد، آن‌ها هنوز آن درک متنی از سؤال را ندارند.

ماناکول گفت: «این مفهوم را ندارد که آیا باید خلاق تر باشد یا اینکه باید خلاقیت کمتری داشته باشد. محققان با استفاده از روش خود نشان دادند که می توانند پاسخ های نادرست واقعی را حذف کنند و حتی پاسخ ها را بر اساس میزان واقعی بودن آنها رتبه بندی کنند.

Manakul گفت که احتمالاً یک روش کاملاً جدید برای یادگیری هوش مصنوعی که هنوز اختراع نشده است ضروری باشد. فقط با ساختن سیستم هایی در بالای مدل زبان می توان مشکل را واقعاً کاهش داد.

او گفت: “از آنجایی که اطلاعات بسیاری از چیزها را با هم ترکیب می کند، چیزی را تولید می کند که قابل قبول به نظر می رسد.” اما این که آیا این موضوع واقعی است یا نه، این موضوع است.

این اساساً همان کاری است که شرکت های پیشرو در حال حاضر انجام می دهند. هنگامی که گوگل نتایج جستجو را با استفاده از فناوری چت بات خود تولید می کند، یک جستجوی معمولی را نیز به صورت موازی اجرا می کند، سپس مقایسه می کند که آیا پاسخ ربات و نتایج جستجوی سنتی مطابقت دارند یا خیر. اگر این کار را نکنند، پاسخ هوش مصنوعی حتی نشان داده نمی شود. این شرکت ربات خود را به گونه ای تغییر داده است که خلاقیت کمتری داشته باشد، به این معنی که در نوشتن شعر یا گفتگوهای جالب خیلی خوب نیست، اما احتمال اینکه دروغ بگوید کمتر است.

جنیفر رادستروم، سخنگوی گوگل گفت: با محدود کردن ربات جستجوی خود به تایید نتایج جستجوی موجود، این شرکت توانسته است توهمات و نادرستی ها را کاهش دهد. سخنگوی OpenAI به مقاله ای که این شرکت تولید کرده بود اشاره کرد که در آن نشان می داد آخرین مدل آن، GPT4، توهمات کمتری نسبت به نسخه های قبلی ایجاد می کند.

شرکت‌ها نیز با آزمایش کردن مدل‌های خود با افراد واقعی، زمان و پول خود را صرف بهبود مدل‌های خود می‌کنند. تکنیکی به نام یادگیری تقویتی با بازخورد انسانی، که در آن آزمایش‌کننده‌های انسانی به صورت دستی پاسخ‌های یک ربات را بهبود می‌بخشند و سپس آن‌ها را برای بهبود آن به سیستم برمی‌گردانند، به طور گسترده‌ای به بهبود ChatGPT نسبت به ربات‌های چت قبلی نسبت داده می‌شود. یک رویکرد محبوب، اتصال ربات‌های چت به پایگاه‌های اطلاعاتی واقعی یا قابل اعتمادتر، مانند ویکی‌پدیا، جستجوی Google یا مجموعه‌های سفارشی مقالات دانشگاهی یا اسناد تجاری است.

برخی از محققان برجسته هوش مصنوعی می گویند که توهم باید پذیرفته شود. از این گذشته، انسان ها نیز خاطرات بدی دارند و نشان داده شده است که شکاف های خاطرات خود را بدون اینکه متوجه شوند پر می کنند.

جفری هینتون، که دهه‌ها تحقیقش به ایجاد شالوده‌ای برای محصول فعلی چت ربات‌های هوش مصنوعی کمک کرد، درباره مشکل توهم گفت: «ما در آن بهبود خواهیم یافت، اما هرگز از شر آن خلاص نمی‌شویم. او تا همین اواخر در گوگل کار می‌کرد، زمانی که این کار را ترک کرد تا بیشتر در مورد نگرانی‌هایش درباره اینکه این فناوری از کنترل انسان خارج شود صحبت کند. ما همیشه همینطور خواهیم بود و آنها همیشه همینطور خواهند بود.

– گریت دی وینک، واشنگتن پست

سئو PBN | خبر های جدید سئو و هک و سرور