طراحی برای حفظ حریم خصوصی در دنیای هوش مصنوعی

هوش مصنوعی می‌تواند به انجام وظایفی که از کارهای روزمره تا کارهای خارق‌العاده را شامل می‌شود، کمک کند، خواه اعداد و ارقام سخت یا درمان بیماری‌ها باشد. اما تنها راه برای استفاده از پتانسیل هوش مصنوعی در دراز مدت، ساخت مسئولانه آن است.

به همین دلیل است که گفتگو در مورد هوش مصنوعی و حریم خصوصی مولد بسیار مهم است و چرا ما می‌خواهیم از این گفتگو با بینش‌هایی از خطوط مقدم نوآوری و تعامل گسترده خود با تنظیم‌کننده‌ها و سایر کارشناسان حمایت کنیم.

در مقاله خط مشی جدید «هوش مصنوعی مولد و حریم خصوصی» ما، استدلال می‌کنیم که محصولات هوش مصنوعی باید از همان ابتدا محافظت‌هایی را تعبیه کرده باشند که ایمنی و حریم خصوصی کاربر را ارتقا می‌دهند. و ما رویکردهای خط‌مشی را توصیه می‌کنیم که نگرانی‌های مربوط به حریم خصوصی را برطرف می‌کنند و در عین حال مزایای هوش مصنوعی را باز می‌کنند.

حریم خصوصی بر اساس طراحی در هوش مصنوعی

هوش مصنوعی به مردم و جامعه نوید مزایایی می دهد، اما همچنین پتانسیل تشدید چالش های اجتماعی موجود و ایجاد چالش های جدید را دارد، همانطور که تحقیقات خود ما و دیگران نشان داده است.

همین امر در مورد حریم خصوصی نیز صادق است. ما باید حفاظت هایی ایجاد کنیم که شفافیت و کنترل را فراهم کند و خطراتی مانند نشت ناخواسته اطلاعات شخصی را برطرف کند.

این مستلزم یک چارچوب قوی از توسعه تا استقرار است که بر اساس اصول تثبیت شده استوار باشد. هر سازمانی که ابزارهای هوش مصنوعی ایجاد می کند، باید در مورد رویکرد حفظ حریم خصوصی خود شفاف باشد.

خدمات ما توسط شیوه های قدیمی حفاظت از داده ها، اصول حفظ حریم خصوصی و امنیت، شیوه های هوش مصنوعی مسئول و اصول هوش مصنوعی هدایت می شود. این به این معنی است که ما حفاظت از حریم خصوصی قوی و تکنیک‌های کمینه‌سازی داده‌ها را اجرا می‌کنیم، شفافیت را در مورد شیوه‌های داده ارائه می‌کنیم، و کنترل‌هایی را ارائه می‌کنیم که کاربران را قادر می‌سازد تا انتخاب‌های آگاهانه داشته باشند و اطلاعات خود را مدیریت کنند.

برای کاهش موثر خطرات، روی برنامه های هوش مصنوعی تمرکز کنید

از آنجایی که ما برخی از اصول حفظ حریم خصوصی را برای هوش مصنوعی مولد به کار می‌بریم، مسائل مشروعی برای بررسی وجود دارد.

حداقل سازی داده ها در عمل هنگام آموزش مدل ها بر روی حجم زیادی از داده ها به چه معناست؟ راه‌های مؤثر برای ارائه شفافیت معنادار مدل‌های پیچیده به روش‌هایی که نگرانی‌های افراد را برطرف می‌کند، چیست؟ چگونه با استفاده از ابزارهای هوش مصنوعی تجربیاتی متناسب با سن ارائه کنیم که برای نوجوانان در جهان مفید باشد؟

مقاله ما با در نظر گرفتن دو مرحله مجزا برای مدل ها، برخی از افکار اولیه را برای این مکالمات ارائه می دهد:

  • آموزش و توسعه
  • اپلیکیشن های رو به رو کاربر

در طول آموزش و توسعه، داده های شخصی مانند نام ها یا اطلاعات بیوگرافی یک عنصر کوچک اما مهم از داده های آموزشی را تشکیل می دهند. مدل‌ها از چنین داده‌هایی استفاده می‌کنند تا یاد بگیرند که چگونه زبان مفاهیم انتزاعی را در مورد روابط بین مردم و جهان ما جاسازی می‌کند.

این مدل‌ها «پایگاه‌های داده» نیستند و هدفشان شناسایی افراد نیست. در واقع، گنجاندن داده‌های شخصی در واقع می‌تواند به کاهش تعصب در مدل‌ها کمک کند – به عنوان مثال، نحوه درک نام‌های فرهنگ‌های مختلف در سراسر جهان – و بهبود دقت و عملکرد.

در سطح برنامه است که ما هم پتانسیل بیشتری برای آسیب‌های حریم خصوصی مانند نشت داده‌های شخصی و هم فرصت ایجاد حفاظت‌های موثرتر را می‌بینیم. اینجاست که ویژگی هایی مانند فیلترهای خروجی و حذف خودکار نقش مهمی ایفا می کنند.

اولویت‌بندی چنین پادمان‌هایی در سطح برنامه نه تنها عملی‌ترین رویکرد، بلکه به اعتقاد ما، مؤثرترین رویکرد است.

دستیابی به حریم خصوصی از طریق نوآوری

اکثر مکالمات حریم خصوصی هوش مصنوعی امروزی بر کاهش خطرات تمرکز دارند، و با توجه به کار لازم برای ایجاد اعتماد در هوش مصنوعی، به درستی چنین است. با این حال، هوش مصنوعی مولد نیز پتانسیل بالایی برای بهبود حریم خصوصی کاربران ارائه می‌دهد و ما نیز باید از این فرصت‌های مهم استفاده کنیم.

هوش مصنوعی مولد در حال حاضر به سازمان‌ها کمک می‌کند تا بازخورد حریم خصوصی تعداد زیادی از کاربران را درک کنند و مسائل مربوط به رعایت حریم خصوصی را شناسایی کنند. هوش مصنوعی نسل جدیدی از دفاع سایبری را قادر می سازد. فناوری‌های تقویت‌کننده حریم خصوصی مانند داده‌های مصنوعی و حریم خصوصی متمایز، راه‌هایی را روشن می‌کنند که ما می‌توانیم بدون افشای اطلاعات خصوصی، مزایای بیشتری به جامعه ارائه دهیم. سیاست‌های عمومی و استانداردهای صنعتی باید چنین استفاده‌های مثبتی را «ترویج» کنند و ناخواسته محدود نکنند.

نیاز به همکاری

قوانین حفظ حریم خصوصی باید سازگار، متناسب و از نظر فناوری خنثی باشد – در طول سال ها، این چیزی است که آنها را انعطاف پذیر و بادوام کرده است.

همین امر در عصر هوش مصنوعی نیز صادق است، زیرا سهامداران تلاش می کنند تا بین حفاظت از حریم خصوصی قوی با سایر حقوق اساسی و اهداف اجتماعی تعادل برقرار کنند.

کار پیش رو نیاز به همکاری در سراسر جامعه حریم خصوصی دارد و Google متعهد است که با دیگران همکاری کند تا اطمینان حاصل کند که هوش مصنوعی مولد به طور مسئولانه به نفع جامعه است.

مقاله سیاست کاری ما در مورد هوش مصنوعی و حریم خصوصی تولیدی را اینجا بخوانید.

Source link