تشخیص سوء استفاده در مقیاس
تیم های ما در سراسر Trust & Safety نیز از هوش مصنوعی برای بهبود روش محافظت از کاربران خود به صورت آنلاین استفاده می کنند. هوش مصنوعی نوید فوق العاده ای را برای سرعت و مقیاس در تشخیص سوء استفاده ظریف نشان می دهد. با تکیه بر فرآیندهای خودکار تثبیت شده خود، نمونههای اولیهای را توسعه دادهایم که از پیشرفتهای اخیر استفاده میکنند تا به تیمهایمان در شناسایی محتوای توهینآمیز در مقیاس کمک کنند.
با استفاده از LLM، هدف ما این است که بتوانیم به سرعت یک مدل را در عرض چند روز بسازیم و آموزش دهیم – به جای هفته ها یا ماه ها – تا انواع خاصی از سوء استفاده را در محصولات خود پیدا کنیم. این امر بهویژه برای حوزههای سوءاستفاده جدید و در حال ظهور، مانند روایتهای اطلاعات نادرست روسی پس از تهاجم به اوکراین، یا برای چالشهای کوچکتر، مانند شناسایی کالاهای تقلبی آنلاین، ارزشمند است. ما میتوانیم به سرعت یک مدل را نمونهسازی کنیم و بهطور خودکار آن را برای اجرا به تیمهایمان هدایت کنیم.
LLM ها نیز آموزش را متحول می کنند. با استفاده از تکنیکهای جدید، اکنون میتوانیم پوشش انواع سوءاستفاده، زمینه و زبانها را به شیوههایی که قبلاً هرگز نمیتوانستیم گسترش دهیم – از جمله دوبرابر کردن تعداد زبانهای تحت پوشش با طبقهبندیکنندههای ایمنی روی دستگاه ما تنها در سه ماهه آخر. با بینش یکی از تحلیلگران سوء استفاده خود شروع می کنیم، می توانیم از LLM برای تولید هزاران تنوع از یک رویداد استفاده کنیم و سپس از آن برای آموزش طبقه بندی کننده های خود استفاده کنیم.
ما هنوز در حال آزمایش این تکنیکهای جدید برای برآورده کردن استانداردهای دقت دقیق هستیم، اما نمونههای اولیه نتایج چشمگیری را تاکنون نشان دادهاند. پتانسیل بسیار زیاد است، و من معتقدم که ما در اوج تحول دراماتیک در این فضا هستیم.
تقویت همکاری و شفافیت
پرداختن به محتوای تولید شده توسط هوش مصنوعی به همکاری و راه حل های صنعت و اکوسیستم نیاز دارد. هیچ شرکت یا موسسه ای نمی تواند این کار را به تنهایی انجام دهد. در اوایل این هفته در اجلاس، ما محققان و دانشجویان را گرد هم آوردیم تا با کارشناسان ایمنی خود در ارتباط باشند تا در مورد خطرات و فرصتها در عصر هوش مصنوعی صحبت کنند. در حمایت از اکوسیستمی که تحقیقات تاثیرگذاری را با برنامههای کاربردی دنیای واقعی ایجاد میکند، امسال تعداد دریافتکنندگان جوایز تحقیقات آکادمیک Google را دو برابر کردیم تا سرمایهگذاری خود را در راهحلهای تحقیقاتی اعتماد و ایمنی افزایش دهیم.
در نهایت، کیفیت اطلاعات همیشه هسته اصلی ماموریت Google بوده است، و بخشی از آن اطمینان از این است که کاربران زمینه ای برای ارزیابی قابل اعتماد بودن محتوایی که آنلاین پیدا می کنند دارند. همانطور که ما همچنان به ارائه AI به محصولات و خدمات بیشتر ادامه می دهیم، ما بر کمک به مردم برای درک بهتر نحوه ایجاد و اصلاح یک محتوای خاص در طول زمان متمرکز شده ایم.
در اوایل سال جاری، ما به عنوان عضو کمیته راهبری به ائتلاف برای منشأ و اعتبار محتوا (C2PA) پیوستیم. ما با دیگران همکاری میکنیم تا استانداردها و فناوریهای منشأ قابل همکاری را توسعه دهیم تا توضیح دهیم که آیا عکسی با دوربین گرفته شده، توسط نرمافزار ویرایش شده یا توسط هوش مصنوعی تولید شده است. این نوع اطلاعات به کاربران ما کمک می کند تا تصمیمات آگاهانه تری در مورد محتوایی که با آن درگیر هستند – از جمله عکس، فیلم و صدا – اتخاذ کنند و باعث ایجاد سواد رسانه ای و اعتماد می شود.
«کار ما با C2PA مستقیماً مکمل رویکرد گستردهتر خودمان برای شفافسازی و توسعه مسئولانه هوش مصنوعی است. برای مثال، ما همچنان به آوردن ابزارهای واترمارک SynthID خود به ابزارهای هوش مصنوعی نسل بعدی و اشکال بیشتری از رسانه ها از جمله متن، صوتی، تصویری و ویدیو ادامه می دهیم.
ما متعهد به استقرار مسئولانه هوش مصنوعی هستیم – از استفاده از هوش مصنوعی برای تقویت پلتفرمهای خود در برابر سوء استفاده گرفته تا توسعه ابزارهایی برای افزایش سواد رسانهای و اعتماد – همه در حالی که بر اهمیت همکاری، اشتراکگذاری بینش و ایجاد مسئولانه هوش مصنوعی متمرکز هستیم.