تأیید قیاسی استدلال زنجیره‌ای از فکر در LLM

نویسندگان:

(1) ژان لینگ، UC سن دیگو و سهم برابر.

(2) Yunhao Fang، UC San Diego و سهم برابر.

(3) Xuanlin Li، UC San Diego;

(4) Zhiao Huang، UC San Diego;

(5) Mingu Lee، Qualcomm AI Research و Qualcomm AI Research

(6) Roland Memisevic، Qualcomm AI Research.

(7) هائو سو، UC سن دیگو.

چکیده و مقدمه

کار مرتبط

انگیزه و فرمول مسئله

استدلال زنجیره‌ای فکری قابل تأیید قیاسی

آزمایش ها

محدودیت ها

نتیجه گیری، قدردانی و مراجع

یک تأیید قیاسی با مدل‌های Vicuna

B بحث بیشتر در مورد بهبود دقت تأیید قیاسی در مقابل بهبود در مورد درستی پاسخ نهایی

C جزئیات بیشتر در مورد استخراج پاسخ

D درخواست می کند

E بیشتر نمونه های تایید قیاسی

چکیده

مدل‌های زبان بزرگ (LLM) به طور قابل‌توجهی از تحریک زنجیره‌ای فکر (CoT) در انجام وظایف استدلالی مختلف سود می‌برند. در حالی که CoT به مدل ها اجازه می دهد تا فرآیندهای استدلال جامع تری تولید کنند، تاکید آن بر مراحل استدلال میانی می تواند ناخواسته توهمات و خطاهای انباشته را ایجاد کند، در نتیجه توانایی مدل ها را برای حل وظایف استدلالی پیچیده محدود می کند. با الهام از اینکه چگونه انسان ها درگیر فرآیندهای استدلال منطقی قیاسی دقیق و دقیق برای حل تکالیف می شوند، به دنبال فعال کردن زبان هستیم…

Source link