جدول پیوندها
چکیده و 1 مقدمه
2 مقدماتی
3 یادگیری محلی تطبیقی سرتاسر
3.1 ترکیبی از متخصصان ضرر محور
3.2 یادگیری همزمان از طریق وزن تطبیقی
4 آزمایش Debiasing و 4.1 راه اندازی آزمایشی
4.2 عملکرد منحرف کننده
4.3 مطالعه فرسایش
4.4 اثر ماژول وزن تطبیقی و 4.5 مطالعه فراپارامتر
5 کارهای مرتبط
6 نتیجه گیری، قدردانی ها و مراجع
3.1 ترکیبی از متخصصان ضرر محور
ترکیبی از کارشناسان. برای پرداختن به مشکل مدلسازی اختلاف، کارهای قبلی روش یادگیری محلی را پیشنهاد میکنند [12,39] برای ارائه یک مدل محلی سفارشی که توسط مجموعه کوچکی از داده های محلی برای هر کاربر آموزش داده شده است. با این حال، نحوه مدیریت چنین مجموعه داده های محلی و نحوه ساخت یک مدل محلی در این الگوریتم ها کاملاً به صورت دستی ساخته شده است که به طور قابل توجهی عملکرد را محدود می کند. برای غلبه بر این ضعف، ما ترکیبی از کارشناسان (MoE) را اتخاذ می کنیم. [14] ساختار به عنوان ستون فقرات چارچوب پیشنهادی ما برای اجرای یادگیری محلی سرتاسر.
دروازه تطبیقی از دست دادن. با این حال، مدل گیت معمولی، یک شبکه عصبی پیشخور رایگان برای یادگیری (یعنی یک ادراک چند لایه) در یک MOE استاندارد، نیز مستعد سوگیریهای مختلف، از جمله سوگیری جریان اصلی است. مدل گیت توسط داده ها با کاربران اصلی بیشتر آموزش داده می شود و بنابراین بیشتر بر روی چگونگی…