به روز رسانی در مورد تلاش ها و تعهدات ایمنی کودک ما

مبارزه با سوء استفاده و بهره کشی جنسی از کودکان (CSAE) کار بسیار مهمی برای Google است. ما منابع قابل توجهی را در فناوری تشخیص ساختمان، آموزش تیم های تخصصی و تلاش های صنعتی پیشرو برای جلوگیری از انتشار این محتوای مضر سرمایه گذاری کرده ایم.

امروز، ما تعهد خود را به اصول هوش مصنوعی مولد Safety by Design – توسعه یافته توسط Thorn و All Tech is Human اعلام می کنیم. این اقدامات کاهشی مکمل کار فعلی ما برای جلوگیری از ایجاد، انتشار و ترویج سوء استفاده و بهره‌کشی جنسی از کودکان ناشی از هوش مصنوعی است. ما مفتخریم که این تعهد داوطلبانه را «در کنار همتایان خود در صنعت» انجام می‌دهیم تا به سخت‌تر کردن استفاده نادرست از هوش مصنوعی مولد برای بازیگران بد تا حد امکان برای تولید محتوایی که آزار جنسی کودکان را به تصویر می‌کشد یا نشان می‌دهد.

این مرحله به دنبال اعلامیه اخیر ما مبنی بر ارائه فضای تبلیغاتی به کمپین Know2Protect وزارت امنیت داخلی ایالات متحده و افزایش حمایت کمک مالی تبلیغاتی خود به مرکز ملی کودکان ناپدید شده و استثمارشده (NCMEC) برای چهلمین آن است. سالگرد و برای تبلیغ طرح No Escape Room خود. حمایت از این کمپین ها برای افزایش آگاهی عمومی و همچنین ارائه ابزارهایی برای شناسایی و گزارش سوء استفاده به کودکان و والدین بسیار مهم است.

محافظت از کودکان به صورت آنلاین بسیار مهم است و با پیشرفت هوش مصنوعی، ما می دانیم که این کار نمی تواند در سیلو اتفاق بیفتد – ما مسئولیت داریم که با دیگران در صنعت و جامعه مدنی شریک شویم تا مطمئن شویم نرده های محافظ مناسب در جای خود قرار دارند. علاوه بر این اعلامیه‌ها، امروز ما جزئیات بیشتری در مورد حفاظت از ایمنی کودکان هوش مصنوعی و کارهای اخیر خود در کنار سازمان‌های غیردولتی به اشتراک می‌گذاریم.

نحوه مبارزه با CSAM تولید شده توسط هوش مصنوعی در سیستم عامل های خود

در سراسر محصولات خود، ما به طور فعال مواد CSAE را از طریق ترکیبی از فناوری تطبیق هش، طبقه‌بندی‌کننده هوش مصنوعی و بررسی‌های انسانی شناسایی و حذف می‌کنیم. خط‌مشی‌ها و حفاظت‌های ما برای شناسایی انواع CSAE، از جمله CSAM ایجاد شده توسط هوش مصنوعی، طراحی شده‌اند. وقتی محتوای سوء استفاده‌کننده را شناسایی می‌کنیم، آن را حذف می‌کنیم و اقدام مناسبی را انجام می‌دهیم که ممکن است شامل گزارش آن به NCMEC باشد.

مطابق با اصول هوش مصنوعی، ما بر روی ایجاد ایمنی و اجرای فعال نرده‌های محافظ برای خطرات ایمنی کودکان برای رسیدگی به ایجاد مواد سوء استفاده جنسی از کودکان (CSAM) تولید شده توسط هوش مصنوعی متمرکز شده‌ایم، از جمله:

  • مجموعه داده های آموزشی: ما در حال ادغام طبقه‌بندی‌کننده‌های هش تطبیق و ایمنی کودک برای حذف CSAM و همچنین سایر محتوای سوءاستفاده‌کننده و غیرقانونی از مجموعه داده‌های آموزشی خود هستیم.
  • شناسایی درخواست های جستجوی CSAE: ما از یادگیری ماشینی خود برای شناسایی درخواست‌های جستجوی CSAE و جلوگیری از تولید خروجی‌هایی که ممکن است کودکان را استثمار یا جنسی‌سازی کنند، جلوگیری می‌کنیم.
  • تست خصمانه: برای خطرات و تخلفات احتمالی، تست ایمنی کودک را در متن، تصویر، ویدیو و صدا انجام می دهیم.
  • جذب کارشناسان: ما یک برنامه پرچم‌دار اولویتی داریم که در آن با اشخاص ثالث خبره همکاری می‌کنیم که محتوای بالقوه نقض‌کننده را پرچم‌گذاری می‌کنند، از جمله برای ایمنی کودکان، برای بررسی تیم‌های ما.

نحوه همکاری ما با کارشناسان ایمنی کودکان و شرکای صنعتی

در طول دهه گذشته، ما از نزدیک با کارشناسان ایمنی کودکان از جمله سازمان‌های غیردولتی، همتایان صنعتی و مجریان قانون برای تسریع در مبارزه با محتوای CSAE کار کرده‌ایم. آخرین پشتیبانی ما از NCMEC مبتنی بر همکاری‌های گذشته است، از جمله توسعه یک API اختصاصی برای اولویت‌بندی گزارش‌های جدید CSAM و پشتیبانی از کار مجریان قانون.

به طور مشابه، ما یک تیم تخصصی در Google داریم که به شناسایی زمانی که محتوای پرچم‌گذاری شده نشان می‌دهد کودک ممکن است در معرض خطر جدی باشد، کمک می‌کند. سپس این تیم NCMEC را از ماهیت فوری گزارش مطلع می کند تا آن را برای تحقیقات بیشتر به مجریان قانون محلی هدایت کند. ما مفتخریم که این کار به نجات موفق کودکان در سراسر جهان کمک کرده است.

این همکاری‌ها به حمایت ما از شرکای صنعتی و نوآوری‌هایی مانند جعبه ابزار ایمنی کودک ما ادامه می‌دهد. ما مجوز رایگان Toolkit را می‌دهیم تا به سازمان‌های دیگر کمک کنیم هر ماه میلیاردها محتوای بالقوه توهین‌آمیز را شناسایی کرده و برای بررسی پرچم‌گذاری کنند.

چگونه به حمایت از قوانین قوی‌تر ادامه می‌دهیم

ما به طور فعال در مورد این موضوع با قانونگذاران و کارشناسان شخص ثالث درگیر هستیم تا در راستای هدف مشترکمان برای محافظت از کودکان آنلاین کار کنیم. به همین دلیل است که امسال ما حمایت قاطع خود را از چندین لایحه مهم دو حزبی در ایالات متحده از جمله قانون سرمایه گذاری در ایمنی کودکان، قانون پروژه ایمن کودکی، قانون گزارش، سپر اعلام کرده ایم. قانون و قانون STOP CSAM.

این کار ادامه دارد و ما به گسترش تلاش‌های خود، از جمله نحوه کار با دیگران در سراسر اکوسیستم، برای محافظت از کودکان و جلوگیری از سوء استفاده از فناوری برای بهره‌برداری از آنها ادامه خواهیم داد.