سان فرانسیسکو – اخیراً محققان از دو نسخه چت ربات هوش مصنوعی ChatGPT OpenAI پرسیدند که در آن استاد مؤسسه فناوری ماساچوست توماس لوزانو-پرز متولد شده است.
یکی از ربات ها اسپانیا و دیگری می گوید کوبا. هنگامی که سیستم به رباتها گفت که در مورد پاسخها بحث کنند، رباتهایی که میگفت اسپانیا به سرعت عذرخواهی کرد و با کسی که پاسخ صحیح را داشت، یعنی کوبا، موافقت کرد.
این یافته در مقاله ای که هفته گذشته توسط تیمی از محققان MIT منتشر شد، آخرین پیشرفت بالقوه در کمک به چت بات ها برای رسیدن به پاسخ صحیح است. محققان پیشنهاد کردند که از چتباتهای مختلف برای ایجاد پاسخهای متعدد برای یک سؤال استفاده کنند و سپس به آنها اجازه دهند تا با یکدیگر بحث کنند تا یک پاسخ به دست آید. محققان دریافتند که استفاده از این روش “جامعه ذهن ها” آنها را واقعی تر می کند.
ییلون دو، محقق MIT که قبلاً یکی از محققین OpenAI و یکی از نویسندگان مقاله بود، گفت: «مدلهای زبان برای پیشبینی کلمه بعدی آموزش داده میشوند. آنها آموزش ندیده اند که به مردم بگویند نمی دانند چه کار می کنند.” نتیجه رباتهایی است که مانند افراد زودرس عمل میکنند و به جای اعتراف به اینکه نمیدانند، پاسخهایی میسازند.
رویکرد خلاقانه محققان تنها آخرین تلاش برای حل یکی از مبرم ترین نگرانی ها در زمینه انفجاری هوش مصنوعی است. علیرغم جهشهای باورنکردنی در قابلیتهایی که چترباتهای «تولیدکننده» مانند ChatGPT OpenAI، Bing مایکروسافت و Bard گوگل در شش ماه گذشته نشان دادهاند، آنها هنوز یک نقص بزرگ مرگبار دارند: آنها همیشه چیزهایی را درست میکنند.
کشف چگونگی جلوگیری یا رفع آن چیزی که این حوزه «توهم» مینامد، در میان بسیاری از کارکنان فناوری، محققان و شکاکان هوش مصنوعی به یک وسواس تبدیل شده است. این موضوع در دهها مقاله دانشگاهی ارسال شده به پایگاهداده آنلاین Arxiv ذکر شده است و مدیران ارشد فناوری بزرگ مانند ساندار پیچای گوگل بارها به آن پرداختهاند. از آنجایی که این فناوری به میلیونها نفر منتقل میشود و در زمینههای حیاتی از جمله پزشکی و قانون ادغام میشود، درک توهمات و یافتن راههایی برای کاهش آنها بسیار مهمتر شده است.
اکثر محققان معتقدند که این مشکل ذاتی “مدل های زبان بزرگ” است که ربات ها را به دلیل نحوه طراحی آنها نیرو می دهد. آنها بر اساس حجم عظیمی از دادههایی که از اینترنت هضم کردهاند، مناسبترین چیز را پیشبینی میکنند، اما راهی برای درک اینکه چه چیزی واقعی است یا نه، ندارند.
با این حال، محققان و شرکت ها خود را به این مشکل می اندازند. برخی از شرکتها از مربیهای انسانی برای بازنویسی پاسخهای رباتها و بازگرداندن آنها به دستگاه با هدف هوشمندتر کردن آنها استفاده میکنند. گوگل و مایکروسافت شروع به استفاده از ربات های خود برای دادن پاسخ مستقیم در موتورهای جستجوی خود کرده اند، اما همچنان ربات ها را با نتایج جستجوی معمولی بررسی کنید. و دانشگاهیان در سراسر جهان راههای هوشمندانه بیشماری را برای کاهش نرخ پاسخهای نادرست پیشنهاد کردهاند، مانند پیشنهاد MIT برای مناظره کردن چندین ربات با یکدیگر.
تلاش برای بهبود مشکل توهم به دلایلی ضروری است.
در حال حاضر، زمانی که مایکروسافت چت بات بینگ خود را راه اندازی کرد، به سرعت شروع به اتهامات نادرست علیه برخی از کاربران خود کرد، مانند گفتن به یک دانشجوی آلمانی که تهدیدی برای امنیت آن است. این ربات یک آلتر ایگو را پذیرفت و شروع به نامیدن خود “سیدنی” کرد. اساساً سؤالات دانشآموز را از بین میبرد و از تمام داستانهای علمی تخیلی که از اینترنت در مورد روباتهای خارج از کنترل هضم کرده بود استفاده میکرد.
مایکروسافت در نهایت مجبور شد تعداد رفت و برگشت هایی که یک ربات می تواند با یک انسان انجام دهد را محدود کند تا از وقوع بیشتر آن جلوگیری کند.
در استرالیا، یک مقام دولتی پس از اینکه ChatGPT گفت که او به اتهام رشوه خواری محکوم شده است، تهدید به شکایت از OpenAI کرد، در حالی که در حقیقت او یک افشاگر در یک پرونده رشوه خواری بود. و هفته گذشته یک وکیل اعتراف کرد که پس از دستگیری از ChatGPT برای ایجاد یک خلاصه حقوقی استفاده کرده است، زیرا مواردی که ربات با اطمینان خاطر به آنها اشاره کرده است، به گفته نیویورک تایمز وجود نداشته است.
حتی گوگل و مایکروسافت که آینده خود را به هوش مصنوعی گره زده اند و در رقابتی برای ادغام این فناوری در طیف گسترده محصولات خود هستند، توهماتی را که ربات های خود در طی اطلاعیه ها و دموهای کلیدی ایجاد کرده اند، از دست داده اند.
هیچکدام از اینها مانع از ورود شرکتها به فضا نمیشود. میلیاردها دلار سرمایه برای توسعه رباتهای گفتگوی هوشمندتر و سریعتر صرف میشود و شرکتها شروع به عرضه آنها به عنوان جایگزین یا کمک برای کارگران انسانی کردهاند. در اوایل ماه جاری، سام آلتمن، مدیر عامل OpenAI در کنگره شهادت داد که گفت هوش مصنوعی میتواند با انتشار اطلاعات نادرست و دستکاری عاطفی انسانها “آسیب قابل توجهی به جهان وارد کند”. برخی از شرکتها میگویند که میخواهند کارمندان را با هوش مصنوعی جایگزین کنند و این فناوری همچنین چالشهای جدی امنیت سایبری را ایجاد میکند.
توهمات همچنین در سرویسهای رونویسی مبتنی بر هوش مصنوعی ثبت شدهاند و کلماتی را به ضبطهایی اضافه میکنند که در زندگی واقعی گفته نشدهاند. مایکروسافت و گوگل با استفاده از رباتها برای پاسخگویی مستقیم به سوالات جستجو به جای ارسال ترافیک به وبلاگها و اخبار، میتوانند مدل کسبوکار ناشران آنلاین و تولیدکنندگان محتوا را که برای تولید اطلاعات قابل اعتماد برای اینترنت تلاش میکنند، از بین ببرند.
پیچای در مصاحبه ای در آوریل با CBS گفت: “هیچکس در این زمینه هنوز مشکلات توهم را حل نکرده است. همه مدل ها این مشکل را دارند.” او گفت که آیا حتی امکان حل آن وجود دارد یا خیر، یک “مباحث شدید” است.
بسته به نوع نگاه شما به توهمات، آنها هم یک ویژگی و هم اشکال مدل های زبانی بزرگ هستند. توهم بخشی از چیزی است که به رباتها اجازه میدهد خلاق باشند و داستانهایی بسازند که قبلاً دیده نشدهاند. در عین حال، آنها محدودیتهای فاحش فناوری را آشکار میکنند، و این استدلال را که چتباتها بهگونهای شبیه به انسانها هوشمند هستند، با نشان دادن اینکه آنها درک درونیشدهای از دنیای اطراف خود ندارند، تضعیف میکنند.
ایس کامار، محقق ارشد مایکروسافت، گفت: «هیچ چیزی در آن وجود ندارد که به مدل بگوید هر چیزی که می گوید باید در دنیا درست باشد. کامار گفت که خود مدل نیز بر روی مقدار مشخصی از داده ها آموزش می بیند، بنابراین هر چیزی که پس از انجام آموزش اتفاق می افتد، در دانش آن از جهان تاثیری ندارد.
توهم چیز جدیدی نیست. آنها از زمان پیدایش چندین سال پیش، مشکل ذاتی مدلهای زبان بزرگ بودهاند، اما مشکلات دیگری مانند هوش مصنوعی که پاسخهای مزخرف یا تکراری تولید میکنند، به عنوان مسائل بزرگتر دیده میشوند. با این حال، زمانی که آنها تا حد زیادی حل شدند، توهم اکنون به کانون اصلی جامعه هوش مصنوعی تبدیل شده است.
پوتساوی ماناکول در حال بازی با ChatGPT بود که از آن خواست حقایق ساده ای در مورد تنیسور راجر فدرر بدهد. این یک درخواست ساده است، برای انسان آسان است که در چند ثانیه در گوگل یا ویکی پدیا جستجو کند، اما ربات همچنان پاسخ های متناقضی می دهد.
ماناکول، محقق هوش مصنوعی در دانشگاه کمبریج و طرفدار سرسخت تنیس، در مصاحبه ای گفت: “گاهی می گوید که او پنج بار برنده ویمبلدون شده است، گاهی اوقات می گوید او هشت بار قهرمان ویمبلدون شده است.” (پاسخ صحیح هشت است.)
Manakul و گروهی دیگر از محققان کمبریج مقالهای را در ماه مارس منتشر کردند که در آن سیستمی به نام “SelfCheckGPT” را پیشنهاد کردند که از یک ربات چندین بار سؤال میپرسید، سپس به آن میگفت که پاسخهای مختلف را با هم مقایسه کند. اگر پاسخها منسجم بودند، احتمالاً حقایق درست بودند، اما اگر متفاوت بودند، میتوان آنها را بهعنوان احتمالاً حاوی اطلاعات ساختگی پرچمگذاری کرد.
وقتی از انسان ها خواسته می شود که شعری بنویسند، می دانند که لزوماً درست بودن آن مهم نیست. اما وقتی از آنها جزئیات بیوگرافی در مورد یک شخص واقعی می پرسند، به طور خودکار می دانند که پاسخ آنها باید ریشه در واقعیت داشته باشد. از آنجایی که چتباتها به سادگی پیشبینی میکنند که چه کلمه یا ایده بعدی در یک رشته متن قرار میگیرد، آنها هنوز آن درک متنی از سؤال را ندارند.
ماناکول گفت: «این مفهوم را ندارد که آیا باید خلاق تر باشد یا اینکه باید خلاقیت کمتری داشته باشد. محققان با استفاده از روش خود نشان دادند که می توانند پاسخ های نادرست واقعی را حذف کنند و حتی پاسخ ها را بر اساس میزان واقعی بودن آنها رتبه بندی کنند.
Manakul گفت که احتمالاً یک روش کاملاً جدید برای یادگیری هوش مصنوعی که هنوز اختراع نشده است ضروری باشد. فقط با ساختن سیستم هایی در بالای مدل زبان می توان مشکل را واقعاً کاهش داد.
او گفت: “از آنجایی که اطلاعات بسیاری از چیزها را با هم ترکیب می کند، چیزی را تولید می کند که قابل قبول به نظر می رسد.” اما این که آیا این موضوع واقعی است یا نه، این موضوع است.
این اساساً همان کاری است که شرکت های پیشرو در حال حاضر انجام می دهند. هنگامی که گوگل نتایج جستجو را با استفاده از فناوری چت بات خود تولید می کند، یک جستجوی معمولی را نیز به صورت موازی اجرا می کند، سپس مقایسه می کند که آیا پاسخ ربات و نتایج جستجوی سنتی مطابقت دارند یا خیر. اگر این کار را نکنند، پاسخ هوش مصنوعی حتی نشان داده نمی شود. این شرکت ربات خود را به گونه ای تغییر داده است که خلاقیت کمتری داشته باشد، به این معنی که در نوشتن شعر یا گفتگوهای جالب خیلی خوب نیست، اما احتمال اینکه دروغ بگوید کمتر است.
جنیفر رادستروم، سخنگوی گوگل گفت: با محدود کردن ربات جستجوی خود به تایید نتایج جستجوی موجود، این شرکت توانسته است توهمات و نادرستی ها را کاهش دهد. سخنگوی OpenAI به مقاله ای که این شرکت تولید کرده بود اشاره کرد که در آن نشان می داد آخرین مدل آن، GPT4، توهمات کمتری نسبت به نسخه های قبلی ایجاد می کند.
شرکتها نیز با آزمایش کردن مدلهای خود با افراد واقعی، زمان و پول خود را صرف بهبود مدلهای خود میکنند. تکنیکی به نام یادگیری تقویتی با بازخورد انسانی، که در آن آزمایشکنندههای انسانی به صورت دستی پاسخهای یک ربات را بهبود میبخشند و سپس آنها را برای بهبود آن به سیستم برمیگردانند، به طور گستردهای به بهبود ChatGPT نسبت به رباتهای چت قبلی نسبت داده میشود. یک رویکرد محبوب، اتصال رباتهای چت به پایگاههای اطلاعاتی واقعی یا قابل اعتمادتر، مانند ویکیپدیا، جستجوی Google یا مجموعههای سفارشی مقالات دانشگاهی یا اسناد تجاری است.
برخی از محققان برجسته هوش مصنوعی می گویند که توهم باید پذیرفته شود. از این گذشته، انسان ها نیز خاطرات بدی دارند و نشان داده شده است که شکاف های خاطرات خود را بدون اینکه متوجه شوند پر می کنند.
جفری هینتون، که دههها تحقیقش به ایجاد شالودهای برای محصول فعلی چت رباتهای هوش مصنوعی کمک کرد، درباره مشکل توهم گفت: «ما در آن بهبود خواهیم یافت، اما هرگز از شر آن خلاص نمیشویم. او تا همین اواخر در گوگل کار میکرد، زمانی که این کار را ترک کرد تا بیشتر در مورد نگرانیهایش درباره اینکه این فناوری از کنترل انسان خارج شود صحبت کند. ما همیشه همینطور خواهیم بود و آنها همیشه همینطور خواهند بود.
– گریت دی وینک، واشنگتن پست