بهره گیری از درس های نسل بعدی اجتماعی: استراتژی های سازمانی برای استقرار هوش مصنوعی کاربر محور

به عنوان یک بنیانگذار رسانه اجتماعی که پلتفرم من، Lips را به 50000 کاربر افزایش داد، در اوایل می دانستم که باید از هوش مصنوعی برای خودکارسازی تعدیل و توصیه استفاده کنم، با این حال، تصمیم برای انجام این کار با برخی چالش های دلهره آور مرتبط با حریم خصوصی داده ها همراه بود. تعصب و اجرا علاوه بر این، با تکامل مقررات پیرامون هوش مصنوعی اخلاقی، پلتفرم هایی مانند من بدون راه حل های عملی برای نحوه رعایت آنها باقی ماندند.

در سال 2021، من و تیمم راه حلی برای حاشیه نویسی داده های مشارکتی ساختیم که آن را در Lips پیاده سازی کردیم و به زودی شروع به سفارشی سازی این رویکرد برای سایر سیستم عامل ها کردیم. در کار خود به عنوان یک محقق هوش مصنوعی در دانشگاه کالیفرنیا سن دیگو، دریافتم که وارد کردن کاربران به فرآیند الگوریتم‌های آموزشی از طریق حاشیه‌نویسی داده‌ها نه تنها در بهبود شفافیت ML بلکه در کاهش موارد سوگیری، به‌ویژه زمانی که مطرح می‌شود، تأثیر قابل‌توجهی دارد. به الگوریتم های تعدیل مقیاس بزرگ

همانطور که این تحقیق را ادامه دادم، با چندین صاحب پلتفرم صحبت کردم که با چالش اجرای هوش مصنوعی اخلاقی نیز روبرو هستند. بسیاری از آنها نگرانی های مشابهی را در مورد پیامدهای اخلاقی هوش مصنوعی، به ویژه در زمینه تعدیل محتوا، ابراز کردند. با حجم روزافزون محتوای تولید شده توسط کاربر، اطمینان از ایمن ماندن پلتفرم ها و فضاهای فراگیر در اولویت قرار گرفته است…

Source link