نویسندگان:
(1) ژان لینگ، UC سن دیگو و سهم برابر.
(2) Yunhao Fang، UC San Diego و سهم برابر.
(3) Xuanlin Li، UC San Diego;
(4) Zhiao Huang، UC San Diego;
(5) Mingu Lee، Qualcomm AI Research و Qualcomm AI Research
(6) Roland Memisevic، Qualcomm AI Research.
(7) هائو سو، UC سن دیگو.
جدول پیوندها
چکیده و مقدمه
کار مرتبط
انگیزه و فرمول مسئله
استدلال زنجیرهای فکری قابل تأیید قیاسی
آزمایش ها
محدودیت ها
نتیجه گیری، قدردانی و مراجع
یک تأیید قیاسی با مدلهای Vicuna
B بحث بیشتر در مورد بهبود دقت تأیید قیاسی در مقابل بهبود در مورد درستی پاسخ نهایی
C جزئیات بیشتر در مورد استخراج پاسخ
D درخواست می کند
E بیشتر نمونه های تایید قیاسی
چکیده
مدلهای زبان بزرگ (LLM) به طور قابلتوجهی از تحریک زنجیرهای فکر (CoT) در انجام وظایف استدلالی مختلف سود میبرند. در حالی که CoT به مدل ها اجازه می دهد تا فرآیندهای استدلال جامع تری تولید کنند، تاکید آن بر مراحل استدلال میانی می تواند ناخواسته توهمات و خطاهای انباشته را ایجاد کند، در نتیجه توانایی مدل ها را برای حل وظایف استدلالی پیچیده محدود می کند. با الهام از اینکه چگونه انسان ها درگیر فرآیندهای استدلال منطقی قیاسی دقیق و دقیق برای حل تکالیف می شوند، به دنبال فعال کردن زبان هستیم…