چارچوبی جدید برای استدلال قیاسی قابل اعتماد هوش مصنوعی

نویسندگان:

(1) ژان لینگ، UC سن دیگو و سهم برابر.

(2) Yunhao Fang، UC San Diego و سهم برابر.

(3) Xuanlin Li، UC San Diego;

(4) Zhiao Huang، UC San Diego;

(5) Mingu Lee، Qualcomm AI Research و Qualcomm AI Research

(6) Roland Memisevic، Qualcomm AI Research.

(7) هائو سو، UC سن دیگو.

چکیده و مقدمه

کار مرتبط

انگیزه و فرمول مسئله

استدلال زنجیره‌ای فکری قابل تأیید قیاسی

آزمایش ها

محدودیت ها

نتیجه گیری، قدردانی و مراجع

یک تأیید قیاسی با مدل‌های Vicuna

B بحث بیشتر در مورد بهبود دقت تأیید قیاسی در مقابل بهبود در مورد درستی پاسخ نهایی

C جزئیات بیشتر در مورد استخراج پاسخ

D درخواست می کند

E بیشتر نمونه های تایید قیاسی

7 نتیجه گیری

در این مقاله، هدف ما این است که مدل‌های زبان بزرگ (LLM) را قادر کنیم تا استدلال قیاسی صریح و دقیق را انجام دهند و در عین حال از قابلیت اطمینان فرآیندهای استدلال خود از طریق تأیید خود اطمینان حاصل کنند. برای این منظور، ما یک چارچوب جدید مبتنی بر «برنامه طبیعی» پیشنهاد کرده‌ایم، یک قالب استدلال قیاسی مبتنی بر زبان طبیعی که تأیید استدلال را تسهیل می‌کند و می‌تواند به راحتی از طریق یادگیری درون متنی ایجاد شود. در این چارچوب، ما فرآیند تأیید زنجیره های استدلال پیچیده را تجزیه می کنیم …

Source link