VEATIC: ردیابی احساسات و تأثیرات مبتنی بر ویدیو در مجموعه داده‌های زمینه: مجموعه داده VEATIC

این مقاله در arxiv تحت مجوز CC 4.0 موجود است.

نویسندگان:

(1) Zhihang Ren، دانشگاه کالیفرنیا، برکلی و این نویسندگان به طور مساوی در این کار مشارکت داشتند (ایمیل: [email protected])

(2) جفرسون اورتگا، دانشگاه کالیفرنیا، برکلی و این نویسندگان به طور مساوی به این کار کمک کردند (ایمیل: [email protected])

(3) یفان وانگ، دانشگاه کالیفرنیا، برکلی و این نویسندگان به طور مساوی در این کار مشارکت داشتند (ایمیل: [email protected])

(4) ژیمین چن، دانشگاه کالیفرنیا، برکلی (ایمیل: [email protected])

(5) Yunhui Guo، دانشگاه تگزاس در دالاس (ایمیل: [email protected])

(6) Stella X. Yu، دانشگاه کالیفرنیا، برکلی و دانشگاه میشیگان، آن آربور (ایمیل: [email protected])

(7) دیوید ویتنی، دانشگاه کالیفرنیا، برکلی (ایمیل: [email protected]).

3. مجموعه داده VEATIC

در این بخش، ردیابی احساسات و تأثیرات مبتنی بر ویدیو در مجموعه داده های زمینه را معرفی می کنیم (VEATIC). ابتدا توضیح می دهیم که چگونه همه کلیپ های ویدیویی را به دست آورده ایم. در مرحله بعد، روش های حاشیه نویسی داده ها و فرآیند پیش پردازش را نشان می دهیم. در نهایت، ما آمار داده های مهم را گزارش می کنیم و نتایج تجزیه و تحلیل داده ها را تجسم می کنیم.

3.1. اکتساب کلیپ های ویدیویی

تمام کلیپ های ویدیویی استفاده شده در مجموعه داده از یک اشتراک گذاری ویدیوی آنلاین به دست آمده اند…

Source link