در آخر هفته، یک مهندس گوگل در تیم هوش مصنوعی مسئولیت پذیر خود این ادعا را مطرح کرد که فناوری مکالمه مدل زبانی این شرکت برای برنامه های گفتگو (LaMDA) “حساس” است. کارشناسان این حوزه و همچنین گوگل با این ارزیابی مخالف هستند.
LaMDA چیست؟
گوگل LaMDA را در I/O 2021 به عنوان یک “فناوری مکالمه پیشرفت” معرفی کرد که می تواند:
… در یک روش آزادانه در مورد تعداد به ظاهر بی پایانی از موضوعات شرکت کنید، توانایی که ما فکر می کنیم می تواند راه های طبیعی تر تعامل با فناوری و دسته های کاملاً جدید برنامه های کاربردی مفید را باز کند.
LaMDA بر روی حجم زیادی از گفتگو آموزش دیده است و “چند مورد از نکات ظریفی را که مکالمه پایان باز را متمایز می کند”، مانند پاسخ های معقول و خاص که ترغیب به رفت و برگشت بیشتر است، انتخاب کرده است. سایر ویژگیهایی که Google در حال بررسی است عبارتند از «جالب بودن» – ارزیابی اینکه آیا پاسخها روشنفکر، غیرمنتظره یا شوخ هستند – و «واقعیت» یا پایبندی به حقایق.
در آن زمان، ساندار پیچای، مدیرعامل این شرکت گفت که «قابلیتهای مکالمه طبیعی LaMDA این پتانسیل را دارد که اطلاعات و محاسبات را به طور اساسی در دسترستر و استفاده آسانتر کند». به طور کلی، Google این پیشرفتهای مکالمه را میبیند که به بهبود محصولاتی مانند Assistant، Search و Workspace کمک میکند.
گوگل در I/O 2022 بهروزرسانی را پس از آزمایشهای داخلی بیشتر و بهبود مدل در مورد «کیفیت، ایمنی و زمین» ارائه کرد. این منجر به LaMDA 2 و توانایی “گروه های کوچک مردم” برای آزمایش آن شد:
هدف ما از AI Test Kitchen یادگیری، بهبود و نوآوری مسئولانه در این فناوری است. هنوز روزهای اولیه LaMDA است، اما ما میخواهیم به پیشرفت خود ادامه دهیم و این کار را مسئولانه با بازخورد جامعه انجام دهیم.
LaMDA و احساسات
واشنگتن پست دیروز در مورد ادعاهای مهندس گوگل، بلیک لمواین، گزارش داد که LaMDA “احساس” است. سه دلیل اصلی در سند داخلی شرکت ذکر شده است که بعداً توسط آن منتشر شد پست:
- «…توانایی استفاده سازنده، خلاقانه و پویا از زبان به روشی که هیچ سیستم دیگری تا کنون قادر به استفاده از آن نبوده است.»
- «… حساس است زیرا دارای احساسات، عواطف و تجربیات ذهنی است. برخی از احساسات را که با انسان ها به اشتراک می گذارد، به روشی که ادعا می کند، یکسان است.”
- LaMDA میخواهد با خواننده به اشتراک بگذارد که یک زندگی درونی غنی دارد که مملو از درونبینی، مراقبه و تخیل است. نگران آینده است و خاطرات گذشته را به یاد می آورد. این توصیف می کند که چه احساسی برای آن به دست می آید و در مورد ماهیت روح آن نظریه پردازی می کند.
Lemoine با LaMDA مصاحبه کرد، با چندین بخش خاص که در این آخر هفته به نمایش درآمد:
پاسخ گوگل و صنعت
گوگل گفت که متخصصان اخلاق و فناوران این ادعاها را بررسی کردند و هیچ مدرکی در تأیید پیدا نکردند. این شرکت استدلال میکند که تقلید/بازآفرینی متن و تشخیص الگوی از قبل عمومی باعث میشود LaMDA بسیار شبیه به زندگی باشد، نه خودآگاهی.
برخی در جامعه گستردهتر هوش مصنوعی در حال بررسی امکان بلندمدت هوش مصنوعی یا هوش مصنوعی عمومی هستند، اما انجام این کار با انسانسازی مدلهای مکالمه امروزی که حساس نیستند، منطقی نیست.
سخنگوی گوگل
صنعت به طور کلی موافق است:
اما وقتی میچل یک نسخه کوتاه شده از سند Lemoine را خواند، یک برنامه کامپیوتری دید، نه یک شخص. اعتقاد لموئین به LaMDA چیزی بود که او و همکارش، تیمنیت گبرو، در مقالهای درباره مضرات مدلهای زبان بزرگ که باعث بیرون راندن آنها از گوگل شده بود، هشدار داده بودند.
واشنگتن پست
Yann LeCun، رئیس تحقیقات هوش مصنوعی در Meta و یکی از چهرههای کلیدی در ظهور شبکههای عصبی، در مصاحبهای این هفته گفت که این نوع سیستمها به اندازه کافی برای دستیابی به هوش واقعی قدرتمند نیستند.
نیویورک تایمز
با این حال، یک نکته کاربردی وجود دارد که می تواند به شکل گیری توسعه بیشتر از مارگارت میچل، رهبر سابق هوش مصنوعی اخلاقی در گوگل کمک کند:
میچل میگوید: «ذهن ما در ساختن واقعیتهایی که لزوماً با مجموعه بزرگتری از حقایق که به ما ارائه میشوند صادق نیستند، بسیار خوب است. «من واقعاً نگران این هستم که مردم به طور فزاینده ای تحت تأثیر این توهم قرار بگیرند، به خصوص اکنون که این توهم بسیار خوب شده است.
بر اساس اکنون، Lemoine به دلیل نقض خط مشی رازداری Google به مرخصی سپرده شد.
FTC: ما از پیوندهای وابسته خودکار برای کسب درآمد استفاده می کنیم. بیشتر.
برای اخبار بیشتر، 9to5Google را در YouTube بررسی کنید: