مأموریت Angelq برای ساخت فناوری ایمن تر AI

تصور کنید کودک از یک چت بابات هوش مصنوعی در مورد احساس غم و اندوه سؤال می کند. بدون دانستن سن کاربر ، هوش مصنوعی می تواند با یک بحث غیرمجاز در مورد افسردگی و خودآزاری پاسخ دهد-محتوایی که ممکن است برای یک فرد بالغ مناسب باشد اما برای یک جوان به طور بالقوه مضر است. در حالی که این سناریو فرضی است ، اما یک مشکل اساسی با سیستم های هوش مصنوعی امروز را نشان می دهد: آنها نمی توانند پاسخ های خود را بر اساس سن کاربر تنظیم کنند. فرشته وت arcee ai برای چارچوب LLMS این شکاف مهم را با KIDRAILS خود در نظر می گیرند و هوش مصنوعی ایجاد می کنند که می تواند به کودکان پاسخ مناسب دهد.

جاش تورمن ، بنیانگذار و رئیس محصول Angelq می گوید: “از نظر تاریخی فناوری با توجه به بچه ها طراحی نشده است – مطمئناً در مورد دستگاه های متصل به اینترنت و اینترنت اتفاق افتاده است – همین الگوی برای هوش مصنوعی است.” “وقتی صحبت از هوش مصنوعی می شود ، این پیامدهای منفی بدون شک بدون نگهبان مناسب در محل ، به شدت تقویت می شود.”

حوادث اخیر این نگرانی را برجسته می کند. مواردی از سیستم های هوش مصنوعی که پاسخ های نامناسب خطرناکی به کودکان ارائه می دهند ، از آن پدید آمده است Chatbot شخصیت AI گفته می شود که در سال 2023 به خودکشی یک نوجوان فلوریدا کمک کرده است اسنپ ​​چت هوش مصنوعی من است ارائه مشاوره روابط نامناسب به کاربران که اعتقاد بر این است که خردسال هستند. این موارد نگران کننده تأکید بر …

Source link