نحوه پیاده سازی ADA برای افزایش داده ها در مدل های رگرسیون غیرخطی

نویسندگان:

(1) نورا اشنایدر، گروه علوم کامپیوتر، ETH زوریخ، زوریخ، سوئیس ([email protected])

(2) شیرین گشتاسب پور، گروه علوم کامپیوتر، ETH زوریخ، زوریخ، سوئیس و مرکز علوم داده سوئیس، زوریخ، سوئیس ([email protected])

(3) فرناندو پرز-کروز، گروه علوم کامپیوتر، ETH زوریخ، زوریخ، سوئیس و مرکز علوم داده سوئیس، زوریخ، سوئیس ([email protected]).

چکیده و 1 مقدمه

2 پس زمینه

2.1 افزایش داده ها

2.2 رگرسیون لنگر

3 تقویت داده لنگر

3.1 مقایسه با C-Mixup و 3.2 حفظ ساختار داده غیرخطی

3.3 الگوریتم

4 آزمایش و 4.1 داده های مصنوعی خطی

4.2 رگرسیون غیرخطی مسکن

4.3 تعمیم در توزیع

4.4 استحکام خارج از توزیع

5 نتیجه گیری، تأثیر گسترده تر، و مراجع

اطلاعات اضافی برای تقویت داده های لنگر

B آزمایش ها

3.3 الگوریتم

در نهایت، در این بخش، الگوریتم ADA را گام به گام (الگوریتم 1) برای تولید مینی دسته‌هایی از داده‌ها ارائه می‌کنیم که می‌توانند برای آموزش شبکه‌های عصبی (یا هر رگرسیور غیرخطی دیگر) با هر روش گرادیان نزولی تصادفی استفاده شوند. همانطور که قبلاً بحث شد، ما پیشنهاد می‌کنیم که افزایش را با ترکیبات پارامترهای مختلف برای هر minibatch تکرار کنیم.

Source link