آیا هوش مصنوعی می تواند رسانه های اجتماعی را کمتر سمی کند؟ یک مطالعه چت بات قول را نشان می دهد

هوش مصنوعی (AI) ممکن است راه حل هایی را برای کاهش فعالیت در رسانه های اجتماعی که سمی و قطبی تلقی می شوند، ارائه دهد.

در یک مطالعه اخیر، محققان پیشنهاد می‌کنند که تغییر نحوه نمایش محتوای شبکه‌های اجتماعی می‌تواند اختلافات حزبی را کاهش دهد و منجر به تعاملات مثبت‌تر شود.

این مطالعه توسط تیمی به سرپرستی استاد دانشگاه آمستردام، پتر تورنبرگ انجام شد. آنها 500 ربات چت با مشخصات سیاسی و جمعیتی منحصر به فرد را بر اساس داده های نظرسنجی برنامه ریزی کردند.

این ربات ها برای خواندن اخبار واقعی و ارسال در مورد آن در محیط های شبیه سازی شده توییتر/X ساخته شده اند.

در این تنظیمات، ربات‌ها لذت بیشتری از یافتن زمینه مشترک و رفتار سمی کمتری نشان دادند. از آنجایی که هوش مصنوعی به طور واقعی‌تر از مردم تقلید می‌کند، این مطالعه ممکن است بینش‌هایی را در مورد نحوه گردهم‌آوری افراد در رسانه‌های اجتماعی و در عین حال اجتناب از دام‌های اخلاقی ارائه دهد.

اطلاعات بیشتر در مورد مطالعه: شبیه سازی یک شبکه اجتماعی

تیم Törnberg چت ربات ها را با استفاده از ChatGPT 3.5 برنامه ریزی کرد. به هر کدام از ربات ها یک وابستگی سیاسی، سن، جنسیت، درآمد، مذهب، تیم های ورزشی مورد علاقه و موارد دیگر اختصاص داده شد. این به محققان یک جمعیت شبیه سازی شده متنوع داد.

در یک روز شبیه‌سازی‌شده در ژوئیه ۲۰۲۰، ربات‌ها عناوین خبری واقعی آن دوره را درباره موضوعاتی مانند اعتراضات کووید-۱۹ و زندگی سیاه‌پوستان مهم می‌خوانند. سپس ربات‌ها نظر دادند، لایک کردند و با پست‌هایی درباره سرفصل‌های اخبار تعامل کردند.

محققان سه مدل آزمایشی مختلف توییتر ایجاد کردند:

  1. یک مدل اتاق پژواک تنها پست‌های ربات‌ها را از دیگران با دیدگاه‌های مشابه نشان می‌داد.
  2. یک مدل کشف، مشارکت را بر باورها اولویت می‌دهد.
  3. سومین مدل «پل زدن» پست‌هایی را که توسط گروه‌های حزبی مخالف پسندیده شده بود را برجسته می‌کرد تا برای تعامل بین حزبی بهینه شود.

ردیابی رفتار ربات

شبیه سازی ها به مدت 6 ساعت انجام شد و محققان نحوه رفتار ربات ها را پیگیری کردند.

در مدل پل زدن، ربات‌ها خوشحالی بیشتری در یافتن زمینه‌های مشترک در مورد موضوعاتی مانند حقوق LGBTQ+ در موسیقی کانتری نشان دادند. همچنین تعامل بین حزبی به طور قابل توجهی بیشتر و تبادلات سمی کمتری نسبت به مدل اتاقک اکو قطبی شده وجود داشت.

ترنبرگ توضیح داد: «اگر مردم در مورد موضوعی تعامل داشته باشند که شکاف حزبی را از بین ببرد، جایی که 50 درصد از افرادی که با آنها موافق هستید به حزبی متفاوت از شما رأی می دهند، این باعث کاهش قطبی شدن می شود. “هویت حزبی شما فعال نمی شود.”

نتایج نشان می‌دهد که رسانه‌های اجتماعی می‌توانند برای ایجاد تعامل بدون دامن زدن به سوء استفاده بین گروه‌های مختلف طراحی شوند. با این حال، برای تأیید اینکه آیا چت ربات های پیشرفته هوش مصنوعی می توانند صادقانه رفتار انسان را به صورت آنلاین شبیه سازی کنند، به تحقیقات بیشتری نیاز است.

دغدغه های اخلاقی

نگرانی های اخلاقی در مورد داده های خصوصی مورد استفاده برای آموزش ربات های انسان مانند باقی می ماند. آنها به طور بالقوه می توانند با پست های رسانه های اجتماعی، تاریخچه مرور یا سوابق محرمانه افراد برنامه ریزی شوند و مشکلات رضایت را مطرح کنند.

احتمالاً دستورالعمل هایی در مورد حقوق افرادی که داده های آنها ربات ها را برای مطالعاتی مانند این آموزش می دهد مورد نیاز است.

از آنجایی که چت ربات‌های هوش مصنوعی بیشتر انسانی عمل می‌کنند، ممکن است به کاهش سمیت در رسانه‌های اجتماعی کمک کنند. با این حال، محققان باید اطمینان حاصل کنند که دوبل های دیجیتال نیز بهترین ها را در بشریت منعکس می کنند، نه بدترین ها.


تصویر ویژه: CkyBe/Shutterstock