برخلاف مدل مشارکتی که از اواخر قرن بیستم زمینه ساز توسعه محتوای اینترنتی بوده است، عوامل مکالمه در مدلهای زبان هوش مصنوعی به کاربران اجازه نمیدهند مستقیماً محتوا، محصولات یا نوآوریها را منتشر کنند. نرم افزار هوش مصنوعی به افراد اجازه نمی دهد که به صورت عمومی در مورد نتایج پرس و جو خود اظهار نظر کنند، آنها را نقد کنند، یا به عنوان مثال، کیفیت یک محصول تجاری توصیه شده توسط یک ربات چت را ارزیابی کنند.
مشکل در روند آموزش مدل های زبان نهفته است، زیرا در حال حاضر، انتخاب داده های اولیه مورد استفاده توسط عوامل مکالمه توسط شرکت های خصوصی با اهداف تجاری کنترل می شود. یک مدل زبان واقعاً مشارکتی هنوز ابداع نشده است و ما هنوز تا رسیدن به آن فاصله داریم. نه تنها اراده سیاسی برای پیگیری تحقیقات در این جهت، حتی در جامعه منبع باز وجود ندارد، بلکه هوش مصنوعی در حال حاضر برای کاهش آزادی بیان کاربران اینترنت استفاده می شود. سیاستهای سانسور مدلهای زبان توسط شرکتهایی که آنها را توزیع میکنند، نمونهای بارز است.
یک عامل مکالمه با رعایت اصل بی طرفی شبکه باید گزارشی دقیق و کمی از استدلال های مختلف در هر بحث معین برای هر پرس و جو ارائه کند، بدون اینکه موضع قطعی بگیرد و مطمئناً بدون سرکوب…