نویسندگان:
(1) سباستین دزیادزیو، دانشگاه توبینگن ([email protected])
(2) Çagatay Yıldız، دانشگاه توبینگن;
(3) Gido M. van de Ven, KU Leuven;
(4) Tomasz Trzcinski، IDEAS NCBR، دانشگاه صنعتی ورشو، Tooploox;
(5) Tinne Tuytelaars، KU Leuven;
(6) ماتیاس بثگه، دانشگاه توبینگن.
جدول پیوندها
چکیده و 1. مقدمه
2. دو مشکل در رویکرد فعلی به یادگیری مداوم کلاسی-افزاینده
3. روش ها و 3.1. dSprites بی نهایت
3.2. یادگیری از هم گسسته
4. کارهای مرتبط
4.1. یادگیری مستمر و 4.2. معیار یادگیری مستمر
5. آزمایشات
5.1. روش های منظم سازی و 5.2. روش های مبتنی بر پخش
5.3. آیا ما به معادل سازی نیاز داریم؟
5.4. تعمیم تک شات و 5.5. طبقه بندی مجموعه باز
5.6. آنلاین در مقابل آفلاین
نتیجه گیری، قدردانی و مراجع
مواد تکمیلی
مواد تکمیلی
1. جزئیات آزمایش
همه مدل ها از ResNet-18 یکسان استفاده می کنند [9] ستون فقرات و با استفاده از بهینه ساز Adam آموزش دیده اند [14] با PyTorch پیش فرض [27] مقادیر پارامتر (λ = 0.001، β1 = 0.9، β2 = 0.999). برای روش ما همیشه میانگین دقت آزمون را در 5 اجرا با 5 دوره در هر کار گزارش میکنیم. برای روش های دیگر، به دلیل محدودیت های محاسباتی، ما فقط دقت یک اجرا را گزارش می کنیم.
1.1. روش های منظم سازی
دویدیم…