هوش مصنوعی (AI) ممکن است راه حل هایی را برای کاهش فعالیت در رسانه های اجتماعی که سمی و قطبی تلقی می شوند، ارائه دهد.
در یک مطالعه اخیر، محققان پیشنهاد میکنند که تغییر نحوه نمایش محتوای شبکههای اجتماعی میتواند اختلافات حزبی را کاهش دهد و منجر به تعاملات مثبتتر شود.
این مطالعه توسط تیمی به سرپرستی استاد دانشگاه آمستردام، پتر تورنبرگ انجام شد. آنها 500 ربات چت با مشخصات سیاسی و جمعیتی منحصر به فرد را بر اساس داده های نظرسنجی برنامه ریزی کردند.
این ربات ها برای خواندن اخبار واقعی و ارسال در مورد آن در محیط های شبیه سازی شده توییتر/X ساخته شده اند.
در این تنظیمات، رباتها لذت بیشتری از یافتن زمینه مشترک و رفتار سمی کمتری نشان دادند. از آنجایی که هوش مصنوعی به طور واقعیتر از مردم تقلید میکند، این مطالعه ممکن است بینشهایی را در مورد نحوه گردهمآوری افراد در رسانههای اجتماعی و در عین حال اجتناب از دامهای اخلاقی ارائه دهد.
اطلاعات بیشتر در مورد مطالعه: شبیه سازی یک شبکه اجتماعی
تیم Törnberg چت ربات ها را با استفاده از ChatGPT 3.5 برنامه ریزی کرد. به هر کدام از ربات ها یک وابستگی سیاسی، سن، جنسیت، درآمد، مذهب، تیم های ورزشی مورد علاقه و موارد دیگر اختصاص داده شد. این به محققان یک جمعیت شبیه سازی شده متنوع داد.
در یک روز شبیهسازیشده در ژوئیه ۲۰۲۰، رباتها عناوین خبری واقعی آن دوره را درباره موضوعاتی مانند اعتراضات کووید-۱۹ و زندگی سیاهپوستان مهم میخوانند. سپس رباتها نظر دادند، لایک کردند و با پستهایی درباره سرفصلهای اخبار تعامل کردند.
محققان سه مدل آزمایشی مختلف توییتر ایجاد کردند:
- یک مدل اتاق پژواک تنها پستهای رباتها را از دیگران با دیدگاههای مشابه نشان میداد.
- یک مدل کشف، مشارکت را بر باورها اولویت میدهد.
- سومین مدل «پل زدن» پستهایی را که توسط گروههای حزبی مخالف پسندیده شده بود را برجسته میکرد تا برای تعامل بین حزبی بهینه شود.
ردیابی رفتار ربات
شبیه سازی ها به مدت 6 ساعت انجام شد و محققان نحوه رفتار ربات ها را پیگیری کردند.
در مدل پل زدن، رباتها خوشحالی بیشتری در یافتن زمینههای مشترک در مورد موضوعاتی مانند حقوق LGBTQ+ در موسیقی کانتری نشان دادند. همچنین تعامل بین حزبی به طور قابل توجهی بیشتر و تبادلات سمی کمتری نسبت به مدل اتاقک اکو قطبی شده وجود داشت.
ترنبرگ توضیح داد: «اگر مردم در مورد موضوعی تعامل داشته باشند که شکاف حزبی را از بین ببرد، جایی که 50 درصد از افرادی که با آنها موافق هستید به حزبی متفاوت از شما رأی می دهند، این باعث کاهش قطبی شدن می شود. “هویت حزبی شما فعال نمی شود.”
نتایج نشان میدهد که رسانههای اجتماعی میتوانند برای ایجاد تعامل بدون دامن زدن به سوء استفاده بین گروههای مختلف طراحی شوند. با این حال، برای تأیید اینکه آیا چت ربات های پیشرفته هوش مصنوعی می توانند صادقانه رفتار انسان را به صورت آنلاین شبیه سازی کنند، به تحقیقات بیشتری نیاز است.
دغدغه های اخلاقی
نگرانی های اخلاقی در مورد داده های خصوصی مورد استفاده برای آموزش ربات های انسان مانند باقی می ماند. آنها به طور بالقوه می توانند با پست های رسانه های اجتماعی، تاریخچه مرور یا سوابق محرمانه افراد برنامه ریزی شوند و مشکلات رضایت را مطرح کنند.
احتمالاً دستورالعمل هایی در مورد حقوق افرادی که داده های آنها ربات ها را برای مطالعاتی مانند این آموزش می دهد مورد نیاز است.
از آنجایی که چت رباتهای هوش مصنوعی بیشتر انسانی عمل میکنند، ممکن است به کاهش سمیت در رسانههای اجتماعی کمک کنند. با این حال، محققان باید اطمینان حاصل کنند که دوبل های دیجیتال نیز بهترین ها را در بشریت منعکس می کنند، نه بدترین ها.
تصویر ویژه: CkyBe/Shutterstock