حل مشکل توهم هوش مصنوعی با برنامه های طبیعی خود تأیید

نویسندگان:

(1) ژان لینگ، UC سن دیگو و سهم برابر.

(2) Yunhao Fang، UC San Diego و سهم برابر.

(3) Xuanlin Li، UC San Diego;

(4) Zhiao Huang، UC San Diego;

(5) Mingu Lee، Qualcomm AI Research و Qualcomm AI Research

(6) Roland Memisevic، Qualcomm AI Research.

(7) هائو سو، UC سن دیگو.

چکیده و مقدمه

کار مرتبط

انگیزه و فرمول مسئله

استدلال زنجیره‌ای فکری قابل تأیید قیاسی

آزمایش ها

محدودیت ها

نتیجه گیری، قدردانی و مراجع

یک تأیید قیاسی با مدل‌های Vicuna

B بحث بیشتر در مورد بهبود دقت تأیید قیاسی در مقابل بهبود در مورد درستی پاسخ نهایی

C جزئیات بیشتر در مورد استخراج پاسخ

D درخواست می کند

E بیشتر نمونه های تایید قیاسی

استدلال با مدل های زبان بزرگ. مدل‌های زبان بزرگ اخیر (LLM) [3, 8, 57, 47, 38, 18, 9, 37] توانایی باورنکردنی در حل تکالیف استدلالی پیچیده از خود نشان داده اند. به جای اینکه LLM ها مستقیماً پاسخ های نهایی را به عنوان خروجی تولید کنند، کار قبلی نشان داده است که با تشویق استدلال گام به گام از طریق انگیزه های مناسب، مانند تحریک زنجیره ای از فکر (CoT) [50] و بسیاری دیگر [21, 59, 58, 44, 48, 60, 25, 54]، LLM ها عملکرد قابل توجهی بهتری را در تکالیف استدلالی متنوع نشان می دهند. برای بهبود بیشتر…

Source link