نویسندگان:
(1) Ben Athiwaratkun ، آزمایشگاه های AWS AI ؛
(2) Sujan Kumar Gonugondla ، آزمایشگاه های AWS AI ؛
(3) Sanjay Krishna Gouda ، آزمایشگاه های AWS AI ؛
(4) Haifeng Qian ، آزمایشگاه های AWS AI ؛
(5) Sanjay Krishna Gouda ، آزمایشگاه های AWS AI ؛
(6) Hantian Ding ، آزمایشگاه های AWS AI ؛
(7) Sun Sun ، آزمایشگاه های AWS AI ؛
(8) جون وانگ ، آزمایشگاه های AWS AI ؛
(9) Jiacheng Guo ، آزمایشگاه های AWS AI ؛
(10 Liangfu Chen ، آزمایشگاه های AWS AI ؛
(11) Parminder Bhatia ، GE HealthCare (کار انجام شده در AWS) ؛
(12) رامش نالاپاتی ، آمازون AGI (کار انجام شده در AWS) ؛
(13) Sudipta Sengupta ، آزمایشگاه های AWS AI ؛
(14) بینگ شیانگ ، گلدمن ساکس (کار انجام شده در AWS).
جدول پیوندها
چکیده و 1 مقدمه
2. کار مرتبط
3
3.1 نماد و 3.2. استنباط مدل زبان
3.3 توجه چند پرس و جو چند ضلعی ، چند سر و تعمیم یافته
4. توجه متناسب با متن توجه و 4.1. انگیزه
4.2 فرمولاسیون و 4.3. حافظه IO پیچیدگی
5. آزمایشات
5.1 مقایسه قابلیت های توجه چند سر ، چند گروه و چند گروه
5.2. تأخیر مدل های معادل
5.3. برنامه
6. نتیجه گیری و منابع
A. سؤالات متداول
ب – کار مرتبط
ج. راه اندازی
D. خانواده توجه چند گروهی
E. توجه متناسب با متن
برنامه های F.: نتایج اضافی
G. سازگاری با تکنیک های رمزگشایی سوداگرانه و رمزگشایی سریع
ج. راه اندازی
c.1. جزئیات آموزش مدل
ما آموزش دادیم …