VEATIC: ردیابی احساسات و تأثیرات مبتنی بر ویدیو در مجموعه داده‌های زمینه: کار مرتبط

نویسندگان:

(1) Zhihang Ren، دانشگاه کالیفرنیا، برکلی و این نویسندگان به طور مساوی در این کار مشارکت داشتند (ایمیل: [email protected])

(2) جفرسون اورتگا، دانشگاه کالیفرنیا، برکلی و این نویسندگان به طور مساوی به این کار کمک کردند (ایمیل: [email protected])

(3) یفان وانگ، دانشگاه کالیفرنیا، برکلی و این نویسندگان به طور مساوی در این کار مشارکت داشتند (ایمیل: [email protected])

(4) ژیمین چن، دانشگاه کالیفرنیا، برکلی (ایمیل: [email protected])

(5) Yunhui Guo، دانشگاه تگزاس در دالاس (ایمیل: [email protected])

(6) Stella X. Yu، دانشگاه کالیفرنیا، برکلی و دانشگاه میشیگان، آن آربور (ایمیل: [email protected])

(7) دیوید ویتنی، دانشگاه کالیفرنیا، برکلی (ایمیل: [email protected]).

اخیراً مجموعه‌های داده متعددی وجود دارد که فریم‌هایی را با اطلاعات چهره و زمینه ارائه می‌دهند، مانند CAER [33] و احساسی [32]. CAER [33] یک مجموعه داده مبتنی بر ویدیو است که حاوی برچسب‌های طبقه‌بندی شده برای هر فریم ویدیو و EMOTIC است [32] یک مجموعه داده مبتنی بر تصویر است که شامل برچسب‌های بیان طبقه‌بندی و رتبه‌بندی مستمر ظرفیت-برانگیختگی-غلبه است. برخلاف این مجموعه داده‌ها، مجموعه داده ما مبتنی بر ویدیو است و دارای رتبه‌بندی‌های ظرفیت و برانگیختگی مداوم است. مقایسه دقیق بین مجموعه داده ما …

Source link