نویسندگان:
(1) نورا اشنایدر، گروه علوم کامپیوتر، ETH زوریخ، زوریخ، سوئیس ([email protected])
(2) شیرین گشتاسب پور، گروه علوم کامپیوتر، ETH زوریخ، زوریخ، سوئیس و مرکز علوم داده سوئیس، زوریخ، سوئیس ([email protected])
(3) فرناندو پرز-کروز، گروه علوم کامپیوتر، ETH زوریخ، زوریخ، سوئیس و مرکز علوم داده سوئیس، زوریخ، سوئیس ([email protected]).
جدول پیوندها
چکیده و 1 مقدمه
2 پس زمینه
2.1 افزایش داده ها
2.2 رگرسیون لنگر
3 تقویت داده لنگر
3.1 مقایسه با C-Mixup و 3.2 حفظ ساختار داده غیرخطی
3.3 الگوریتم
4 آزمایش و 4.1 داده های مصنوعی خطی
4.2 رگرسیون غیرخطی مسکن
4.3 تعمیم در توزیع
4.4 استحکام خارج از توزیع
5 نتیجه گیری، تأثیر گسترده تر، و مراجع
اطلاعات اضافی برای تقویت داده های لنگر
B آزمایش ها
3.3 الگوریتم
در نهایت، در این بخش، الگوریتم ADA را گام به گام (الگوریتم 1) برای تولید مینی دستههایی از دادهها ارائه میکنیم که میتوانند برای آموزش شبکههای عصبی (یا هر رگرسیور غیرخطی دیگر) با هر روش گرادیان نزولی تصادفی استفاده شوند. همانطور که قبلاً بحث شد، ما پیشنهاد میکنیم که افزایش را با ترکیبات پارامترهای مختلف برای هر minibatch تکرار کنیم.