کار مداوم ما برای ساخت و استقرار هوش مصنوعی مسئول

تشخیص سوء استفاده در مقیاس

تیم های ما در سراسر Trust & Safety نیز از هوش مصنوعی برای بهبود روش محافظت از کاربران خود به صورت آنلاین استفاده می کنند. هوش مصنوعی نوید فوق العاده ای را برای سرعت و مقیاس در تشخیص سوء استفاده ظریف نشان می دهد. با تکیه بر فرآیندهای خودکار تثبیت شده خود، نمونه‌های اولیه‌ای را توسعه داده‌ایم که از پیشرفت‌های اخیر استفاده می‌کنند تا به تیم‌هایمان در شناسایی محتوای توهین‌آمیز در مقیاس کمک کنند.

با استفاده از LLM، هدف ما این است که بتوانیم به سرعت یک مدل را در عرض چند روز بسازیم و آموزش دهیم – به جای هفته ها یا ماه ها – تا انواع خاصی از سوء استفاده را در محصولات خود پیدا کنیم. این امر به‌ویژه برای حوزه‌های سوءاستفاده جدید و در حال ظهور، مانند روایت‌های اطلاعات نادرست روسی پس از تهاجم به اوکراین، یا برای چالش‌های کوچک‌تر، مانند شناسایی کالاهای تقلبی آنلاین، ارزشمند است. ما می‌توانیم به سرعت یک مدل را نمونه‌سازی کنیم و به‌طور خودکار آن را برای اجرا به تیم‌هایمان هدایت کنیم.

LLM ها نیز آموزش را متحول می کنند. با استفاده از تکنیک‌های جدید، اکنون می‌توانیم پوشش انواع سوءاستفاده، زمینه و زبان‌ها را به شیوه‌هایی که قبلاً هرگز نمی‌توانستیم گسترش دهیم – از جمله دوبرابر کردن تعداد زبان‌های تحت پوشش با طبقه‌بندی‌کننده‌های ایمنی روی دستگاه ما تنها در سه ماهه آخر. با بینش یکی از تحلیلگران سوء استفاده خود شروع می کنیم، می توانیم از LLM برای تولید هزاران تنوع از یک رویداد استفاده کنیم و سپس از آن برای آموزش طبقه بندی کننده های خود استفاده کنیم.

ما هنوز در حال آزمایش این تکنیک‌های جدید برای برآورده کردن استانداردهای دقت دقیق هستیم، اما نمونه‌های اولیه نتایج چشمگیری را تاکنون نشان داده‌اند. پتانسیل بسیار زیاد است، و من معتقدم که ما در اوج تحول دراماتیک در این فضا هستیم.

تقویت همکاری و شفافیت

پرداختن به محتوای تولید شده توسط هوش مصنوعی به همکاری و راه حل های صنعت و اکوسیستم نیاز دارد. هیچ شرکت یا موسسه ای نمی تواند این کار را به تنهایی انجام دهد. در اوایل این هفته در اجلاس، ما محققان و دانشجویان را گرد هم آوردیم تا با کارشناسان ایمنی خود در ارتباط باشند تا در مورد خطرات و فرصت‌ها در عصر هوش مصنوعی صحبت کنند. در حمایت از اکوسیستمی که تحقیقات تاثیرگذاری را با برنامه‌های کاربردی دنیای واقعی ایجاد می‌کند، امسال تعداد دریافت‌کنندگان جوایز تحقیقات آکادمیک Google را دو برابر کردیم تا سرمایه‌گذاری خود را در راه‌حل‌های تحقیقاتی اعتماد و ایمنی افزایش دهیم.

در نهایت، کیفیت اطلاعات همیشه هسته اصلی ماموریت Google بوده است، و بخشی از آن اطمینان از این است که کاربران زمینه ای برای ارزیابی قابل اعتماد بودن محتوایی که آنلاین پیدا می کنند دارند. همانطور که ما همچنان به ارائه AI به محصولات و خدمات بیشتر ادامه می دهیم، ما بر کمک به مردم برای درک بهتر نحوه ایجاد و اصلاح یک محتوای خاص در طول زمان متمرکز شده ایم.

در اوایل سال جاری، ما به عنوان عضو کمیته راهبری به ائتلاف برای منشأ و اعتبار محتوا (C2PA) پیوستیم. ما با دیگران همکاری می‌کنیم تا استانداردها و فناوری‌های منشأ قابل همکاری را توسعه دهیم تا توضیح دهیم که آیا عکسی با دوربین گرفته شده، توسط نرم‌افزار ویرایش شده یا توسط هوش مصنوعی تولید شده است. این نوع اطلاعات به کاربران ما کمک می کند تا تصمیمات آگاهانه تری در مورد محتوایی که با آن درگیر هستند – از جمله عکس، فیلم و صدا – اتخاذ کنند و باعث ایجاد سواد رسانه ای و اعتماد می شود.

«کار ما با C2PA مستقیماً مکمل رویکرد گسترده‌تر خودمان برای شفاف‌سازی و توسعه مسئولانه هوش مصنوعی است. برای مثال، ما همچنان به آوردن ابزارهای واترمارک SynthID خود به ابزارهای هوش مصنوعی نسل بعدی و اشکال بیشتری از رسانه ها از جمله متن، صوتی، تصویری و ویدیو ادامه می دهیم.

ما متعهد به استقرار مسئولانه هوش مصنوعی هستیم – از استفاده از هوش مصنوعی برای تقویت پلتفرم‌های خود در برابر سوء استفاده گرفته تا توسعه ابزارهایی برای افزایش سواد رسانه‌ای و اعتماد – همه در حالی که بر اهمیت همکاری، اشتراک‌گذاری بینش و ایجاد مسئولانه هوش مصنوعی متمرکز هستیم.

Source link