نویسندگان:
(1) Yuwei Guo، دانشگاه چینی هنگ کنگ.
(2) سیوان یانگ، آزمایشگاه هوش مصنوعی شانگهای با نویسنده مسئول.
(3) Anyi Rao، دانشگاه استنفورد.
(4) ژنگ یانگ لیانگ، آزمایشگاه هوش مصنوعی شانگهای؛
(5) Yaohui Wang، آزمایشگاه هوش مصنوعی شانگهای.
(6) یو کیائو، آزمایشگاه هوش مصنوعی شانگهای.
(7) منیش آگراوالا، دانشگاه استنفورد؛
(8) داهوا لین، آزمایشگاه هوش مصنوعی شانگهای؛
(9) بو دای، دانشگاه چینی هنگ کنگ و دانشگاه چینی هنگ کنگ.
جدول پیوندها
چکیده و 1 مقدمه
2 مربوط به کار
3 مقدماتی
- AnimateDiff
4.1 کاهش اثرات منفی داده های آموزشی با آداپتور دامنه
4.2 با موشن ماژول Motion Priors را بیاموزید
4.3 با MotionLora با الگوهای حرکتی جدید سازگار شوید
4.4 AnimateDiff در عمل
5 آزمایش و 5.1 نتایج کیفی
5.2 مقایسه کیفی
5.3 مطالعه ابلیتی
5.4 نسل قابل کنترل
6 نتیجه گیری
7 بیانیه اخلاق
8 بیانیه تکرارپذیری، تصدیق و مراجع
4.3 با الگوهای حرکتی جدید با MOTIONLORA سازگار شوید
در حالی که ماژول حرکتی از پیش آموزش داده شده، پیشانی های کلی حرکت را ثبت می کند، این سوال پیش می آید که ما باید آن را به طور موثر با الگوهای حرکتی جدید مانند زوم دوربین، پاننگ و غلت زدن و غیره تطبیق دهیم.