همکاری برای مقابله با خطرات و فرصت های هوش مصنوعی در MSC

به مدت 60 سال، کنفرانس امنیتی مونیخ رهبران جهان، مشاغل، کارشناسان و جامعه مدنی را برای گفتگوهای صریح در مورد تقویت و حفاظت از دموکراسی ها و نظم جهانی بین المللی گرد هم آورده است. در میان چالش‌های ژئوپلیتیکی فزاینده، انتخابات مهم در سراسر جهان و تهدیدات سایبری پیچیده‌تر، این گفتگوها بیش از هر زمان دیگری ضروری هستند. و نقش جدید هوش مصنوعی هم در حمله و هم در دفاع، پیچ و تاب جدیدی را اضافه می کند.

اوایل این هفته، گروه تحلیل تهدیدات گوگل (TAG)، Mandiant و Trust & Safety گزارش جدیدی منتشر کردند که نشان می‌داد گروه‌های مورد حمایت ایران از جنگ اطلاعاتی برای تأثیرگذاری بر برداشت عمومی از جنگ اسرائیل و حماس استفاده می‌کنند. همچنین آخرین به روز رسانی های گزارش قبلی ما در مورد ابعاد سایبری جنگ روسیه در اوکراین را داشت. TAG به طور جداگانه در مورد رشد نرم افزارهای جاسوسی تجاری که دولت ها و بازیگران بد برای تهدید روزنامه نگاران، مدافعان حقوق بشر، مخالفان و سیاستمداران مخالف استفاده می کنند، گزارش داد. و ما همچنان شاهد گزارش هایی در مورد عوامل تهدید کننده هستیم که از آسیب پذیری ها در سیستم های قدیمی برای به خطر انداختن امنیت دولت ها و مشاغل خصوصی سوء استفاده می کنند.

در مواجهه با این تهدیدات فزاینده، ما فرصتی تاریخی برای استفاده از هوش مصنوعی برای تقویت دفاع سایبری دموکراسی‌های جهان داریم و ابزارهای دفاعی جدیدی را برای کسب‌وکارها، دولت‌ها و سازمان‌ها در مقیاسی که قبلاً تنها در اختیار بزرگ‌ترین سازمان‌ها قرار می‌گرفتند، ارائه می‌کنیم. . در مونیخ این هفته در مورد چگونگی استفاده از سرمایه گذاری ها، تعهدات و مشارکت های جدید برای مقابله با خطرات هوش مصنوعی و استفاده از فرصت های آن صحبت خواهیم کرد. دموکراسی ها نمی توانند در جهانی که مهاجمان از هوش مصنوعی برای نوآوری استفاده می کنند، اما مدافعان نمی توانند رشد کنند.

استفاده از هوش مصنوعی برای تقویت دفاع سایبری

برای چندین دهه، تهدیدات سایبری متخصصان امنیتی، دولت ها، مشاغل و جامعه مدنی را به چالش کشیده است. هوش مصنوعی می تواند ترازو را پایین بیاورد و به مدافعان برتری قاطعی نسبت به مهاجمان بدهد. اما مانند هر فناوری دیگری، هوش مصنوعی نیز می‌تواند توسط بازیگران بد مورد استفاده قرار گیرد و در صورت عدم توسعه و استقرار ایمن، به یک بردار آسیب‌پذیری تبدیل شود.

به همین دلیل است که امروز یک ابتکار دفاع سایبری هوش مصنوعی را راه‌اندازی کردیم که از پتانسیل امنیتی هوش مصنوعی از طریق یک برنامه پیشنهادی خط‌مشی و فناوری که برای کمک به امنیت، توانمندسازی و پیشرفت آینده دیجیتال جمعی ما طراحی شده است، استفاده می‌کند. ابتکار دفاع سایبری هوش مصنوعی مبتنی بر چارچوب هوش مصنوعی ایمن ما (SAIF) است که برای کمک به سازمان‌ها در ساخت ابزارها و محصولات هوش مصنوعی به طور پیش‌فرض ایمن طراحی شده است.

به عنوان بخشی از ابتکار دفاع سایبری هوش مصنوعی، ما در حال راه‌اندازی گروه استارت‌آپی «AI for Cybersecurity» هستیم تا به تقویت اکوسیستم امنیت سایبری فراآتلانتیک کمک کند و تعهد 15 میلیون دلاری خود را برای مهارت‌های امنیت سایبری در سراسر اروپا گسترش دهیم. ما همچنین 2 میلیون دلار برای تقویت ابتکارات تحقیقاتی امنیت سایبری و منبع باز Magika، سیستم شناسایی نوع فایل مبتنی بر هوش مصنوعی گوگل، اختصاص می دهیم. و ما به سرمایه گذاری در شبکه ایمن و مجهز به هوش مصنوعی مراکز داده جهانی خود ادامه می دهیم. تا پایان سال 2024، ما بیش از 5 میلیارد دلار در مراکز داده در اروپا سرمایه گذاری خواهیم کرد – برای کمک به پشتیبانی از دسترسی ایمن و قابل اعتماد به طیف وسیعی از خدمات دیجیتال، از جمله قابلیت های گسترده هوش مصنوعی مانند پلت فرم Vertex AI ما.

حفاظت از انتخابات دموکراتیک

امسال، انتخابات در سراسر اروپا، ایالات متحده، هند و ده ها کشور دیگر برگزار خواهد شد. ما سابقه طولانی در حمایت از یکپارچگی انتخابات دموکراتیک داریم که اخیراً با اعلام کمپین پیش از تشکیل اتحادیه اروپا قبل از انتخابات پارلمانی صورت گرفت. این کمپین “که به مخاطبان می آموزد چگونه تکنیک های دستکاری رایج را قبل از مواجهه با آنها از طریق تبلیغات ویدئویی کوتاه در شبکه اجتماعی شناسایی کنند” در بهار امسال در فرانسه، آلمان، ایتالیا، بلژیک و لهستان آغاز می شود. و ما کاملا متعهد به ادامه تلاش‌های خود برای جلوگیری از سوء استفاده در پلتفرم‌هایمان، ارائه اطلاعات با کیفیت بالا به رأی‌دهندگان، و دادن اطلاعاتی درباره محتوای تولید شده توسط هوش مصنوعی برای کمک به تصمیم‌گیری آگاهانه‌تر به مردم هستیم.

نگرانی های قابل درک در مورد سوء استفاده احتمالی از هوش مصنوعی برای ایجاد جعلیات عمیق و گمراه کردن رأی دهندگان وجود دارد. اما هوش مصنوعی همچنین فرصتی منحصر به فرد برای جلوگیری از سوء استفاده در مقیاس ارائه می دهد. تیم‌های اعتماد و ایمنی Google با این چالش مقابله می‌کنند و از هوش مصنوعی برای تقویت تلاش‌های ما در مبارزه با سوء استفاده، اعمال خط‌مشی‌های ما در مقیاس و انطباق سریع با موقعیت‌ها یا ادعاهای جدید استفاده می‌کنند.

ما به همکاری با همتایان خود در سراسر صنعت ادامه می‌دهیم و برای به اشتراک گذاشتن تحقیقات و مقابله با تهدیدات و سوء استفاده‌ها – از جمله خطر محتوای فریبنده هوش مصنوعی، کار می‌کنیم. همین هفته گذشته، ما به ائتلاف برای منشأ و اعتبار محتوا (C2PA) پیوستیم، که در حال کار بر روی یک اعتبار محتوا برای ارائه شفافیت در نحوه ایجاد و ویرایش توسط هوش مصنوعی در طول زمان است. C2PA بر اساس همکاری‌های بین‌صنعتی ما پیرامون هوش مصنوعی مسئول با انجمن مدل مرزی، مشارکت در زمینه هوش مصنوعی و سایر ابتکارات استوار است.

همکاری با یکدیگر برای دفاع از نظم بین المللی مبتنی بر قوانین

کنفرانس امنیتی مونیخ به عنوان یک مجمع برای رسیدگی و مقابله با آزمون های دموکراسی آزمون زمان را پس داده است. به مدت 60 سال، دموکراسی‌ها این آزمون‌ها را پشت سر گذاشته‌اند و به تغییرات تاریخی پرداخته‌اند – مانند آنچه که توسط هوش مصنوعی ارائه شده است. اکنون ما این فرصت را داریم که بار دیگر به عنوان دولت‌ها، کسب‌وکارها، دانشگاهیان و جامعه مدنی گرد هم بیاییم تا شراکت‌های جدیدی ایجاد کنیم، پتانسیل هوش مصنوعی را به‌خوبی مهار کنیم، و نظم جهانی مبتنی بر قوانین را تقویت کنیم.

سئو PBN | خبر های جدید سئو و هک و سرور