نویسندگان:
(1) ژان لینگ، UC سن دیگو و سهم برابر.
(2) Yunhao Fang، UC San Diego و سهم برابر.
(3) Xuanlin Li، UC San Diego;
(4) Zhiao Huang، UC San Diego;
(5) Mingu Lee، Qualcomm AI Research و Qualcomm AI Research
(6) Roland Memisevic، Qualcomm AI Research.
(7) هائو سو، UC سن دیگو.
جدول پیوندها
چکیده و مقدمه
کار مرتبط
انگیزه و فرمول مسئله
استدلال زنجیرهای فکری قابل تأیید قیاسی
آزمایش ها
محدودیت ها
نتیجه گیری، قدردانی و مراجع
یک تأیید قیاسی با مدلهای Vicuna
B بحث بیشتر در مورد بهبود دقت تأیید قیاسی در مقابل بهبود در مورد درستی پاسخ نهایی
C جزئیات بیشتر در مورد استخراج پاسخ
D درخواست می کند
E بیشتر نمونه های تایید قیاسی
7 نتیجه گیری
در این مقاله، هدف ما این است که مدلهای زبان بزرگ (LLM) را قادر کنیم تا استدلال قیاسی صریح و دقیق را انجام دهند و در عین حال از قابلیت اطمینان فرآیندهای استدلال خود از طریق تأیید خود اطمینان حاصل کنند. برای این منظور، ما یک چارچوب جدید مبتنی بر «برنامه طبیعی» پیشنهاد کردهایم، یک قالب استدلال قیاسی مبتنی بر زبان طبیعی که تأیید استدلال را تسهیل میکند و میتواند به راحتی از طریق یادگیری درون متنی ایجاد شود. در این چارچوب، ما فرآیند تأیید زنجیره های استدلال پیچیده را تجزیه می کنیم …