LLM های تنظیم شده بیشتر می دانند، کمتر توهم می زنند با تجزیه معنایی توالی به دنباله چند شات

نویسندگان:

(1) Silei Xu، گروه علوم کامپیوتر، دانشگاه استنفورد استنفورد، کالیفرنیا با مشارکت مساوی {[email protected]};

(2) شیچنگ لیو، گروه علوم کامپیوتر، دانشگاه استنفورد استنفورد، کالیفرنیا با مشارکت مساوی {[email protected]};

(3) Theo Culhane، گروه علوم کامپیوتر، دانشگاه استنفورد استانفورد، CA {[email protected]};

(4) الیزاوتا پرتسوا، گروه علوم کامپیوتر، دانشگاه استنفورد، استانفورد، کالیفرنیا، {[email protected]};

(5) Meng-Hsi Wu، گروه علوم کامپیوتر، دانشگاه استنفورد، استانفورد، CA، Ailly.ai {[email protected]};

(6) سینا جی. سمنانی، گروه علوم کامپیوتر، دانشگاه استنفورد، استانفورد، کالیفرنیا، {[email protected]};

(7) مونیکا اس. لام، گروه علوم کامپیوتر، دانشگاه استنفورد، استانفورد، کالیفرنیا، {[email protected]}.

چکیده و مقدمه

کار مرتبط

تجزیه معنایی برای ویکی داده

مجموعه داده WikiWebQuestions (WWQ).

پیاده سازی

آزمایش

با QALD-7 آزمایش کنید

نتیجه گیری، محدودیت ها، ملاحظات اخلاقی، قدردانی ها و مراجع

الف. نمونه هایی از بازیابی از خطاهای پیوند نهاد

خلاصه

در حالی که مدل های زبان بزرگ (LLM) می توانند به بسیاری از سوالات به درستی پاسخ دهند، همچنین می توانند توهم داشته باشند و پاسخ های اشتباه بدهند. Wikidata با بیش از 12 میلیارد حقایق خود می تواند برای پایه گذاری LLM ها به …

Source link