تصور کنید کودک از یک چت بابات هوش مصنوعی در مورد احساس غم و اندوه سؤال می کند. بدون دانستن سن کاربر ، هوش مصنوعی می تواند با یک بحث غیرمجاز در مورد افسردگی و خودآزاری پاسخ دهد-محتوایی که ممکن است برای یک فرد بالغ مناسب باشد اما برای یک جوان به طور بالقوه مضر است. در حالی که این سناریو فرضی است ، اما یک مشکل اساسی با سیستم های هوش مصنوعی امروز را نشان می دهد: آنها نمی توانند پاسخ های خود را بر اساس سن کاربر تنظیم کنند.
جاش تورمن ، بنیانگذار و رئیس محصول Angelq می گوید: “از نظر تاریخی فناوری با توجه به بچه ها طراحی نشده است – مطمئناً در مورد دستگاه های متصل به اینترنت و اینترنت اتفاق افتاده است – همین الگوی برای هوش مصنوعی است.” “وقتی صحبت از هوش مصنوعی می شود ، این پیامدهای منفی بدون شک بدون نگهبان مناسب در محل ، به شدت تقویت می شود.”
حوادث اخیر این نگرانی را برجسته می کند. مواردی از سیستم های هوش مصنوعی که پاسخ های نامناسب خطرناکی به کودکان ارائه می دهند ، از آن پدید آمده است