مدل های گفتار و زبانی یکپارچه می توانند در برابر حملات مخالف آسیب پذیر باشند

نویسندگان:

(1) Raghuveer Peri ، آزمایشگاه های AWS AI ، آمازون و با کمک های برابر ([email protected]) ؛

(2) SAI Muralidhar Jayanthi ، آزمایشگاه های AWS AI ، آمازون و با کمک های برابر.

(3) Srikanth Ronanki ، آزمایشگاه های AWS AI ، آمازون ؛

(4) Anshu Bhatia ، آزمایشگاه های AWS AI ، آمازون ؛

(5) کارل موندنیچ ، آزمایشگاههای AWS AI ، آمازون ؛

(6) Saket Dingliwal ، آزمایشگاه های AWS AI ، آمازون ؛

(7) Nilaksh Das ، آزمایشگاه های AWS AI ، آمازون ؛

(8) Zejiang Hou ، آزمایشگاه های AWS AI ، آمازون ؛

(9) Goeric Huybrechts ، آزمایشگاه های AWS AI ، آمازون ؛

(10) Srikanth Vishnubhotla ، آزمایشگاه های AWS AI ، آمازون ؛

(11) دانیل گارسیا-رومرو ، آزمایشگاه های AWS AI ، آمازون ؛

(12) Sundararajan Srinivasan ، آزمایشگاه های AWS AI ، آمازون ؛

(13) Kyu J Han ، آزمایشگاه های AWS AI ، آمازون ؛

(14) Katrin Kirchhoff ، آزمایشگاه های AWS AI ، آمازون.

قسمت 1: چکیده و مقدمه

قسمت 2: زمینه

قسمت 3: حملات و اقدامات متقابل

قسمت 4: تنظیم آزمایشی

قسمت 5: مجموعه داده ها و ارزیابی

قسمت 6: حمله ، پارامترهای ضد اندازه گیری ، و پایه: آشفتگی های تصادفی

قسمت 7: نتایج و بحث

قسمت 8: انتقال حملات و اقدامات متقابل

قسمت 9: نتیجه گیری ، محدودیت ها و بیانیه اخلاق

قسمت 10: پیوست: رمزگذار صوتی قبل از آموزش و ارزیابی

قسمت 11: پیوست: حملات متقابل ، آموزش فرسایش داده ها و تأثیر سر و صدای تصادفی بر کمک

قسمت 12: پیوست: حملات تطبیقی ​​و نمونه های کیفی

چکیده

یکپارچه …

Source link