در پاسخ به این چالشها، ما چندین لایه محافظ را به آشپزخانه تست هوش مصنوعی اضافه کردهایم. این کار خطر را به حداقل رسانده است، اما آن را از بین نبرده است. ما سیستمهای خود را طوری طراحی کردهایم که بهطور خودکار کلمات یا عباراتی را که خطمشیهای ما را نقض میکنند، شناسایی و فیلتر میکنند، که کاربران را از تولید آگاهانه محتوای غیراخلاقی جنسی منع میکند. نفرت انگیز یا توهین آمیز؛ خشونت آمیز، خطرناک یا غیرقانونی؛ یا اطلاعات شخصی را فاش می کند. علاوه بر این فیلترهای ایمنی، ما بهبودهایی را در LaMDA در مورد کیفیت، ایمنی و زمینی بودن انجام دادیم – که هر کدام به دقت اندازهگیری میشوند. ما همچنین تکنیکهایی را توسعه دادهایم تا مکالمات را در مورد موضوع نگه داریم و به عنوان نردهای برای فناوری عمل کنیم که میتواند گفتوگوی بیپایان و بدون جریان ایجاد کند. همانطور که از هر نسخه نمایشی استفاده می کنید، امیدواریم پتانسیل LaMDA را ببینید، اما این چالش ها را نیز در ذهن داشته باشید.