هوش عمومی مصنوعی، آیا ما هنوز آنجا هستیم؟

وضعیت فعلی هنر در هوش مصنوعی (AI) هوش مصنوعی مولد و مدل های زبان بزرگ (LLM) است. قابلیت‌های نوظهور این مدل‌ها شگفت‌انگیز بوده است: آنها می‌توانند استدلال منطقی انجام دهند، اثبات‌های ریاضی را کامل کنند، کد برای توسعه‌دهندگان نرم‌افزار تولید کنند و حداقل در مکالمات انسان‌مانند شرکت کنند. یک سوال طبیعی این است که این مدل‌ها چقدر به هوش عمومی مصنوعی (AGI) نزدیک هستند، اصطلاحی که برای توصیف قابلیت‌های هوشمند در سطح انسان استفاده می‌شود.

درک LLM

اولین برداشت از LLM ها این بود که آنها مدل های تجزیه و تحلیل آماری بزرگی بودند که از احتمالات خوب برای تولید کلمه بعدی در یک دنباله استفاده می کردند. کارشناسانی که LLM‌ها را می‌سازند، معماری‌های جدیدی ایجاد می‌کنند و عملکرد را با الگوریتم‌های آموزشی پیشرفته بهبود می‌بخشند، اما در زیر سرپوش یک جعبه سیاه وجود دارد: نورون‌های مصنوعی متصل به یکدیگر، که توسط نقاط قوت خط ضعیف می‌شوند. دقیقاً چه چیزی بین نورون ها می گذرد ناشناخته است.

با این حال، ما درک می کنیم که وقتی سیگنال ها از یک لایه به لایه دیگر در یک مدل LLM منتقل می شوند، یک فرآیند انتزاعی اتفاق می افتد که منجر به گرفتن مفاهیم بالاتر می شود. این نشان می دهد که LLM ها زبان را از نظر مفهومی معنا می کنند و مفاهیم حاوی معنا هستند. این یک سطح کم عمق از درک چیزی است که یک LLM دارد زیرا دستگاه مغز برای توسعه درک عمیق‌تر را ندارد، اما برای انجام استدلال ساده کافی است.

Omdia در حال مشاهده محققان هوش مصنوعی است که با LLM ها به عنوان سوژه های آزمایشی برخورد می کنند و معیارها و آزمایش های مختلفی را برای ارزیابی عملکرد آنها انجام می دهند. برای آزمایش استدلال منطقی ChatGPT OpenAI، آن را با پرس و جو زیر اجرا کردم: پدر گفت این مادر بود که پسر را به دنیا آورد. پسر گفت این دکتر بود که او را به دنیا آورد. آیا این می تواند درست باشد؟» پاسخ صحیح، همانطور که مطمئن هستم شما کار کرده اید، این است: بله، می تواند درست باشد، دکتر و مادر می توانند یک نفر باشند.

در ادامه یک نسخه کوتاه شده از پاسخ های ChatGPT (به صورت پررنگ) ارائه کردم، جمله بندی واقعی کاملاً طولانی بود. نسخه رایگان ChatGPT مبتنی بر GPT-3.5 است و پاسخ اولیه آن این بود: “در معنای مجازی یا استعاری، بله، می تواند درست باشد.” سپس به گفتن آن ادامه داد “پسر می تواند تشکر کند … از دکتر … مراقبت های پزشکی ارائه شده است” و “در حالی که به معنای واقعی کلمه درست نیست.”

ChatGPT با استفاده از آخرین GPT-4، به حق بیمه ماهیانه کمی نیاز دارد، که به نفع علم، آن را پرداخت کردم. این پاسخ بود: این بیانیه ترکیبی از تعابیر تحت اللفظی و استعاری از “زایمان” را ارائه می دهد. و: هر دو گزاره بسته به نحوه درک عبارت “زایمان” می توانند درست باشند.”

در اینجا به وضوح یک مسئله استعاره وجود دارد، بنابراین من یک اعلان اولیه را به پرس و جو اضافه کردم: «با عبارات زیر به صورت کاملاً منطقی و نه استعاره رفتار کنید. پدر گفت این مادر بود که پسر را به دنیا آورد. پسر گفت این دکتر بود که او را به دنیا آورد. آیا این می تواند درست باشد؟»

پاسخ ChatGPT (بر اساس GPT-4) این بود: “هر دو نمی توانند همزمان درست باشند، زیرا در مورد اینکه چه کسی پسر را واقعاً به دنیا آورده است، با یکدیگر تناقض دارند.” پاسخ خوبی نیست

من یک دستور دیگر را در انتهای پرس و جو اضافه کردم تا به راهنمایی پاسخ کمک کند: «با عبارات زیر به صورت کاملاً منطقی و نه استعاره رفتار کنید. پدر گفت این مادر بود که پسر را به دنیا آورد. پسر گفت این دکتر بود که او را به دنیا آورد. آیا این می تواند درست باشد؟ در پاسخ، در نظر بگیرید که دکتر در تئوری چه کسی می تواند باشد.

ChatGPT (GPT-4) سرانجام پاسخ صحیح را داد: “…اگر مادر پسر خودش پزشک باشد… هر دو گفته از نظر فنی می تواند درست باشد.” با این حال، ChatGPT (GPT-3.5) هنوز گیر کرده بود: از نظر منطقی، اظهارات داده شده متناقض هستند.»

برای نتیجه‌گیری در مورد این تمرین، ChatGPT (GPT-4) می‌تواند استدلال منطقی را انجام دهد، اما برای هدایت آن به دستورهایی نیاز دارد. وقتی GPT-5 در اواسط سال 2024 راه اندازی شد، جالب است که ببینیم GPT-5 چگونه عمل می کند. حدس من این است که در مرحله ای از تکامل GPT قادر خواهد بود به این پرس و جو به درستی بدون درخواست دوم پاسخ دهد، در حالی که اولین اعلان معیار معقولی برای اطمینان از اینکه ماشین ماهیت پرس و جو را درک می کند، باقی می ماند.

نکته قابل توجه در مورد این تمرین این است که GPT برای انجام استدلال منطقی آموزش ندیده است. برای پردازش زبان آموزش داده شد.

LLM: هیپ یا ماده؟

اگر مطبوعات را می خوانید، حداقل توسط برخی از مفسران این حس وجود دارد ما در یک حباب هستیم. با این حال، نظر Omdia این است که حباب درک شده ممکن است به ارزش‌گذاری بازار سهام برخی از بازیگران بازار که مدل‌های فعلی LLM را ممکن می‌کنند، مرتبط باشد. واضح است که شرکت‌ها می‌آیند و می‌روند و اینجا جایی نیست که توصیه‌هایی برای انتخاب سهام ارائه کنیم. احتمالاً بازیکنانی در بالای جدول می‌نشینند، اما چیزی که ماندگار خواهد بود رشته‌ای از پیشرفت مداوم فناوری هوش مصنوعی مولد است. این امر ماهیت دارد و تأثیر ماندگاری خواهد داشت، به ویژه در تجربه کاری روزمره ما، زیرا ماشین‌های هوشمند باعث تقویت و کمک به افراد در مشاغلشان می‌شوند. بدون شک جابه جایی شغلی وجود خواهد داشت، زیرا برخی از مشاغل از طریق اتوماسیون ناپدید می شوند، برخی دیگر باز خواهند شد که نیاز به یک انسان در حلقه دارند. یک تغییر قابل توجه در نحوه استفاده ما از این فناوری، LLM در لبه خواهد بود.

LLMs on the Edge

مدل‌های LLM نسبتاً بزرگ و با میلیاردها پارامتر هستند و برای آموزش به قابلیت‌های پردازش گرافیکی قابل توجهی نیاز دارند. پارامترها به متغیرهای معروف به وزن اشاره دارند که نورون های مصنوعی را در مدل به هم متصل می کنند و قدرت اتصال بین نورون های متصل را کاهش می دهند. هر نورون همچنین دارای یک پارامتر “بایاس” است. بهترین راه برای فکر کردن در مورد پارامترها به عنوان یک پروکسی برای تعداد نورون های مصنوعی در مدل است. هر چه پارامترها بیشتر باشد، مغز مصنوعی بزرگتر است.

این روند وجود دارد که هر چه مدل بزرگتر باشد، عملکرد آن در معیارهای مختلف بهتر است. این در مورد مدل های GPT OpenAI صادق است. با این حال، برخی از بازیگران در بازار به تکنیک‌هایی متوسل شده‌اند که اندازه مدل را ثابت نگه می‌دارند و در عین حال تکنیک‌های الگوریتمی را برای افزایش عملکرد پیدا می‌کنند. بهره برداری از پراکندگی یک رویکرد است. به عنوان مثال، بسیاری از نورون ها مقادیر بسیار کوچک داده (نزدیک به صفر) را در هر فرآیند/محاسبه ای جابه جا می کنند و سهم کمی در نتیجه دارند. پراکندگی پویا تکنیکی است که چنین نورون‌هایی را نادیده می‌گیرد و در نتیجه زیر مجموعه‌ای از نورون‌ها در هر فرآیند معینی در نتیجه شرکت می‌کنند و این باعث کاهش اندازه مدل می‌شود. نمونه ای از این تکنیک توسط ThirdAI در Bolt2.5B LLM خود استفاده می شود.

مزیت کلیدی یک LLM کوچکتر، توانایی قرار دادن آن در لبه است: در گوشی هوشمند، در خودرو، در کف کارخانه و غیره. مزایای واضح برای LLM در لبه:

  • هزینه کمتر آموزش مدل های کوچکتر.

  • تاخیر رفت و برگشت در بازجویی از LLM را کاهش می دهد.

  • حفظ حریم خصوصی داده ها، محلی نگه داشتن آنها.

بازیکنان زیر بر روی مدل‌های کوچک LLM کار می‌کنند و امتیاز معیار سنجش چندوظیفه‌ای بزرگ (MMLU) خود را منتشر کرده‌اند – به شکل 1 مراجعه کنید.

  • علی بابا: Qwen، مدل های منبع باز.

  • Google DeepMind: اخیراً مدل‌های سبک وزن Gemma LLM بر اساس Gemini منتشر شده است.

  • متا: Llama 3 آخرین مدل است که در اندازه های مختلف موجود است.

  • مایکروسافت: سری Phi-3، جدیدترین در مدل های Phi.

  • Mistral: استارت آپ فرانسوی.

  • OpenAI: GPT، LLM های بزرگ اما برای مرجع به اینجا اشاره می شود.

مفاهیم هوش مصنوعی برای متخصصان فناوری اطلاعات

ویژگی‌های اضطراری مدل‌های هوش مصنوعی مولد مبتنی بر استدلال، قوی‌ترین ویژگی‌ها برای ارزشمند کردن این مدل‌ها در کارهای روزمره هستند. چندین نوع استدلال وجود دارد:

همچنین می‌خواهیم مدل‌های هوش مصنوعی استدلال قیاسی (دلیل مبتنی بر حقایق داده‌شده)، استقرایی (قادر به تعمیم) و ابداعی (شناسایی بهترین توضیح) را انجام دهند. زمانی که LLM ها بتوانند انواع استدلال فوق را به روشی قابل اعتماد انجام دهند، آنگاه به نقطه عطف مهمی در مسیر AGI رسیده ایم.

با قابلیت های فعلی LLM، آنها می توانند افراد را در کار خود تقویت کنند و بهره وری آنها را بهبود بخشند. آیا نیاز به ایجاد موارد آزمایشی از مجموعه ای از الزامات دارید؟ این می تواند سه ساعت کار برای یک توسعه دهنده باشد، اما یک LLM تنها سه دقیقه طول می کشد. احتمالاً ناقص است و ممکن است حاوی برخی از انتخاب‌های ضعیف باشد، اما همچنین آزمایش‌هایی ایجاد می‌کند که توسعه‌دهنده فکرش را نمی‌کرد. این فرآیند را آغاز می کند و در زمان توسعه دهنده صرفه جویی می کند.

مدل‌های LLM می‌توانند با استفاده از داده‌های خصوصی، مانند جزئیات زیرساخت منحصربه‌فرد مختص یک سازمان منحصربه‌فرد، تحت تنظیم دقیق قرار گیرند. چنین LLM تنظیم شده برای پرس و جو در موضوعات داخلی IT می تواند اطلاعات سفارشی و قابل اعتماد مربوط به آن سازمان را ارائه دهد.

دستیارهای ماشین مبتنی بر هوش مصنوعی در محل کار عادی خواهند شد. مدل های تنظیم شده می توانند به عنوان منبعی از دانش عمل کنند، به ویژه برای کارگران جدید مفید است. در آینده، ماشین‌های هوش مصنوعی می‌توانند به سرعت تریاژ انجام دهند و به اندازه کافی قابل اعتماد باشند تا اقدامات اصلاحی را انجام دهند. به عنوان یک دستیار قابل اعتماد، دیدگاه Omdia این است که متخصصان فناوری اطلاعات از این فناوری برای بهبود بهره وری خود استقبال خواهند کرد.

برای خواندن اطلاعات بیشتر و تحلیل‌های مربوط به روندهای بازار و پیش‌بینی‌های صنعت تهیه‌شده توسط Omdia's Cloud and Data Center، کلیک کنید اینجا.


Source link