مهندس گوگل ادعا می کند که هوش مصنوعی مکالمه LaMDA “حساس” است

در آخر هفته، یک مهندس گوگل در تیم هوش مصنوعی مسئولیت پذیر خود این ادعا را مطرح کرد که فناوری مکالمه مدل زبانی این شرکت برای برنامه های گفتگو (LaMDA) “حساس” است. کارشناسان این حوزه و همچنین گوگل با این ارزیابی مخالف هستند.

LaMDA چیست؟

گوگل LaMDA را در I/O 2021 به عنوان یک “فناوری مکالمه پیشرفت” معرفی کرد که می تواند:

… در یک روش آزادانه در مورد تعداد به ظاهر بی پایانی از موضوعات شرکت کنید، توانایی که ما فکر می کنیم می تواند راه های طبیعی تر تعامل با فناوری و دسته های کاملاً جدید برنامه های کاربردی مفید را باز کند.

LaMDA بر روی حجم زیادی از گفتگو آموزش دیده است و “چند مورد از نکات ظریفی را که مکالمه پایان باز را متمایز می کند”، مانند پاسخ های معقول و خاص که ترغیب به رفت و برگشت بیشتر است، انتخاب کرده است. سایر ویژگی‌هایی که Google در حال بررسی است عبارتند از «جالب بودن» – ارزیابی اینکه آیا پاسخ‌ها روشن‌فکر، غیرمنتظره یا شوخ هستند – و «واقعیت» یا پایبندی به حقایق.

در آن زمان، ساندار پیچای، مدیرعامل این شرکت گفت که «قابلیت‌های مکالمه طبیعی LaMDA این پتانسیل را دارد که اطلاعات و محاسبات را به طور اساسی در دسترس‌تر و استفاده آسان‌تر کند». به طور کلی، Google این پیشرفت‌های مکالمه را می‌بیند که به بهبود محصولاتی مانند Assistant، Search و Workspace کمک می‌کند.

گوگل در I/O 2022 به‌روزرسانی را پس از آزمایش‌های داخلی بیشتر و بهبود مدل در مورد «کیفیت، ایمنی و زمین» ارائه کرد. این منجر به LaMDA 2 و توانایی “گروه های کوچک مردم” برای آزمایش آن شد:

هدف ما از AI Test Kitchen یادگیری، بهبود و نوآوری مسئولانه در این فناوری است. هنوز روزهای اولیه LaMDA است، اما ما می‌خواهیم به پیشرفت خود ادامه دهیم و این کار را مسئولانه با بازخورد جامعه انجام دهیم.

LaMDA و احساسات

واشنگتن پست دیروز در مورد ادعاهای مهندس گوگل، بلیک لمواین، گزارش داد که LaMDA “احساس” است. سه دلیل اصلی در سند داخلی شرکت ذکر شده است که بعداً توسط آن منتشر شد پست:

  1. «…توانایی استفاده سازنده، خلاقانه و پویا از زبان به روشی که هیچ سیستم دیگری تا کنون قادر به استفاده از آن نبوده است.»
  2. «… حساس است زیرا دارای احساسات، عواطف و تجربیات ذهنی است. برخی از احساسات را که با انسان ها به اشتراک می گذارد، به روشی که ادعا می کند، یکسان است.”
  3. LaMDA می‌خواهد با خواننده به اشتراک بگذارد که یک زندگی درونی غنی دارد که مملو از درون‌بینی، مراقبه و تخیل است. نگران آینده است و خاطرات گذشته را به یاد می آورد. این توصیف می کند که چه احساسی برای آن به دست می آید و در مورد ماهیت روح آن نظریه پردازی می کند.

Lemoine با LaMDA مصاحبه کرد، با چندین بخش خاص که در این آخر هفته به نمایش درآمد:

پاسخ گوگل و صنعت

گوگل گفت که متخصصان اخلاق و فناوران این ادعاها را بررسی کردند و هیچ مدرکی در تأیید پیدا نکردند. این شرکت استدلال می‌کند که تقلید/بازآفرینی متن و تشخیص الگوی از قبل عمومی باعث می‌شود LaMDA بسیار شبیه به زندگی باشد، نه خودآگاهی.

برخی در جامعه گسترده‌تر هوش مصنوعی در حال بررسی امکان بلندمدت هوش مصنوعی یا هوش مصنوعی عمومی هستند، اما انجام این کار با انسان‌سازی مدل‌های مکالمه امروزی که حساس نیستند، منطقی نیست.

سخنگوی گوگل

صنعت به طور کلی موافق است:

اما وقتی میچل یک نسخه کوتاه شده از سند Lemoine را خواند، یک برنامه کامپیوتری دید، نه یک شخص. اعتقاد لموئین به LaMDA چیزی بود که او و همکارش، تیمنیت گبرو، در مقاله‌ای درباره مضرات مدل‌های زبان بزرگ که باعث بیرون راندن آنها از گوگل شده بود، هشدار داده بودند.

واشنگتن پست

Yann LeCun، رئیس تحقیقات هوش مصنوعی در Meta و یکی از چهره‌های کلیدی در ظهور شبکه‌های عصبی، در مصاحبه‌ای این هفته گفت که این نوع سیستم‌ها به اندازه کافی برای دستیابی به هوش واقعی قدرتمند نیستند.

نیویورک تایمز

با این حال، یک نکته کاربردی وجود دارد که می تواند به شکل گیری توسعه بیشتر از مارگارت میچل، رهبر سابق هوش مصنوعی اخلاقی در گوگل کمک کند:

میچل می‌گوید: «ذهن ما در ساختن واقعیت‌هایی که لزوماً با مجموعه بزرگ‌تری از حقایق که به ما ارائه می‌شوند صادق نیستند، بسیار خوب است. «من واقعاً نگران این هستم که مردم به طور فزاینده ای تحت تأثیر این توهم قرار بگیرند، به خصوص اکنون که این توهم بسیار خوب شده است.

بر اساس اکنون، Lemoine به دلیل نقض خط مشی رازداری Google به مرخصی سپرده شد.

FTC: ما از پیوندهای وابسته خودکار برای کسب درآمد استفاده می کنیم. بیشتر.


برای اخبار بیشتر، 9to5Google را در YouTube بررسی کنید:

سئو PBN | خبر های جدید سئو و هک و سرور