مبارزه با سوء استفاده و بهره کشی جنسی از کودکان (CSAE) کار بسیار مهمی برای Google است. ما منابع قابل توجهی را در فناوری تشخیص ساختمان، آموزش تیم های تخصصی و تلاش های صنعتی پیشرو برای جلوگیری از انتشار این محتوای مضر سرمایه گذاری کرده ایم.
امروز، ما تعهد خود را به اصول هوش مصنوعی مولد Safety by Design – توسعه یافته توسط Thorn و All Tech is Human اعلام می کنیم. این اقدامات کاهشی مکمل کار فعلی ما برای جلوگیری از ایجاد، انتشار و ترویج سوء استفاده و بهرهکشی جنسی از کودکان ناشی از هوش مصنوعی است. ما مفتخریم که این تعهد داوطلبانه را «در کنار همتایان خود در صنعت» انجام میدهیم تا به سختتر کردن استفاده نادرست از هوش مصنوعی مولد برای بازیگران بد تا حد امکان برای تولید محتوایی که آزار جنسی کودکان را به تصویر میکشد یا نشان میدهد.
این مرحله به دنبال اعلامیه اخیر ما مبنی بر ارائه فضای تبلیغاتی به کمپین Know2Protect وزارت امنیت داخلی ایالات متحده و افزایش حمایت کمک مالی تبلیغاتی خود به مرکز ملی کودکان ناپدید شده و استثمارشده (NCMEC) برای چهلمین آن است. سالگرد و برای تبلیغ طرح No Escape Room خود. حمایت از این کمپین ها برای افزایش آگاهی عمومی و همچنین ارائه ابزارهایی برای شناسایی و گزارش سوء استفاده به کودکان و والدین بسیار مهم است.
محافظت از کودکان به صورت آنلاین بسیار مهم است و با پیشرفت هوش مصنوعی، ما می دانیم که این کار نمی تواند در سیلو اتفاق بیفتد – ما مسئولیت داریم که با دیگران در صنعت و جامعه مدنی شریک شویم تا مطمئن شویم نرده های محافظ مناسب در جای خود قرار دارند. علاوه بر این اعلامیهها، امروز ما جزئیات بیشتری در مورد حفاظت از ایمنی کودکان هوش مصنوعی و کارهای اخیر خود در کنار سازمانهای غیردولتی به اشتراک میگذاریم.
نحوه مبارزه با CSAM تولید شده توسط هوش مصنوعی در سیستم عامل های خود
در سراسر محصولات خود، ما به طور فعال مواد CSAE را از طریق ترکیبی از فناوری تطبیق هش، طبقهبندیکننده هوش مصنوعی و بررسیهای انسانی شناسایی و حذف میکنیم. خطمشیها و حفاظتهای ما برای شناسایی انواع CSAE، از جمله CSAM ایجاد شده توسط هوش مصنوعی، طراحی شدهاند. وقتی محتوای سوء استفادهکننده را شناسایی میکنیم، آن را حذف میکنیم و اقدام مناسبی را انجام میدهیم که ممکن است شامل گزارش آن به NCMEC باشد.
مطابق با اصول هوش مصنوعی، ما بر روی ایجاد ایمنی و اجرای فعال نردههای محافظ برای خطرات ایمنی کودکان برای رسیدگی به ایجاد مواد سوء استفاده جنسی از کودکان (CSAM) تولید شده توسط هوش مصنوعی متمرکز شدهایم، از جمله:
- مجموعه داده های آموزشی: ما در حال ادغام طبقهبندیکنندههای هش تطبیق و ایمنی کودک برای حذف CSAM و همچنین سایر محتوای سوءاستفادهکننده و غیرقانونی از مجموعه دادههای آموزشی خود هستیم.
- شناسایی درخواست های جستجوی CSAE: ما از یادگیری ماشینی خود برای شناسایی درخواستهای جستجوی CSAE و جلوگیری از تولید خروجیهایی که ممکن است کودکان را استثمار یا جنسیسازی کنند، جلوگیری میکنیم.
- تست خصمانه: برای خطرات و تخلفات احتمالی، تست ایمنی کودک را در متن، تصویر، ویدیو و صدا انجام می دهیم.
- جذب کارشناسان: ما یک برنامه پرچمدار اولویتی داریم که در آن با اشخاص ثالث خبره همکاری میکنیم که محتوای بالقوه نقضکننده را پرچمگذاری میکنند، از جمله برای ایمنی کودکان، برای بررسی تیمهای ما.
نحوه همکاری ما با کارشناسان ایمنی کودکان و شرکای صنعتی
در طول دهه گذشته، ما از نزدیک با کارشناسان ایمنی کودکان از جمله سازمانهای غیردولتی، همتایان صنعتی و مجریان قانون برای تسریع در مبارزه با محتوای CSAE کار کردهایم. آخرین پشتیبانی ما از NCMEC مبتنی بر همکاریهای گذشته است، از جمله توسعه یک API اختصاصی برای اولویتبندی گزارشهای جدید CSAM و پشتیبانی از کار مجریان قانون.
به طور مشابه، ما یک تیم تخصصی در Google داریم که به شناسایی زمانی که محتوای پرچمگذاری شده نشان میدهد کودک ممکن است در معرض خطر جدی باشد، کمک میکند. سپس این تیم NCMEC را از ماهیت فوری گزارش مطلع می کند تا آن را برای تحقیقات بیشتر به مجریان قانون محلی هدایت کند. ما مفتخریم که این کار به نجات موفق کودکان در سراسر جهان کمک کرده است.
این همکاریها به حمایت ما از شرکای صنعتی و نوآوریهایی مانند جعبه ابزار ایمنی کودک ما ادامه میدهد. ما مجوز رایگان Toolkit را میدهیم تا به سازمانهای دیگر کمک کنیم هر ماه میلیاردها محتوای بالقوه توهینآمیز را شناسایی کرده و برای بررسی پرچمگذاری کنند.
چگونه به حمایت از قوانین قویتر ادامه میدهیم
ما به طور فعال در مورد این موضوع با قانونگذاران و کارشناسان شخص ثالث درگیر هستیم تا در راستای هدف مشترکمان برای محافظت از کودکان آنلاین کار کنیم. به همین دلیل است که امسال ما حمایت قاطع خود را از چندین لایحه مهم دو حزبی در ایالات متحده از جمله قانون سرمایه گذاری در ایمنی کودکان، قانون پروژه ایمن کودکی، قانون گزارش، سپر اعلام کرده ایم. قانون و قانون STOP CSAM.
این کار ادامه دارد و ما به گسترش تلاشهای خود، از جمله نحوه کار با دیگران در سراسر اکوسیستم، برای محافظت از کودکان و جلوگیری از سوء استفاده از فناوری برای بهرهبرداری از آنها ادامه خواهیم داد.