در Google I/O، محصولات و آزمایشهای جدید مبتنی بر هوش مصنوعی را معرفی کردیم که براساس سالها تحقیق ما در این زمینه است. ما همچنین در مورد تعهد Google به توسعه هوش مصنوعی مسئولانه به روشهایی صحبت کردیم که در عین رسیدگی به چالشها، با هدایت اصول هوش مصنوعی و در راستای تعهد حفظ حریم خصوصی مشتری، مزایای مثبت را برای جامعه به حداکثر برسانند.
ما معتقدیم که همه از یک اکوسیستم محتوای پر جنب و جوش سود می برند. کلید آن این است که ناشران وب انتخاب و کنترل بر محتوای خود داشته باشند و فرصت هایی برای کسب ارزش از مشارکت در اکوسیستم وب داشته باشند. با این حال، میدانیم که کنترلهای ناشر وب موجود قبل از موارد استفاده تحقیقاتی و هوش مصنوعی جدید توسعه داده شده است.
با ظهور فناوریهای جدید، فرصتهایی را برای جامعه وب فراهم میکنند تا استانداردها و پروتکلهایی را که از توسعه آینده وب پشتیبانی میکنند، توسعه دهند. یکی از این استانداردهای وب توسعهیافته توسط جامعه، robots.txt، تقریباً 30 سال پیش ایجاد شد و ثابت کرده است که روشی ساده و شفاف برای ناشران وب برای کنترل نحوه خزیدن محتوای خود توسط موتورهای جستجو است. ما معتقدیم زمان آن فرا رسیده است که وب و جوامع هوش مصنوعی ابزارهای قابل خواندن ماشینی اضافی را برای انتخاب و کنترل ناشر وب برای موارد استفاده تحقیقاتی و هوش مصنوعی در حال ظهور کشف کنند.
امروز، ما یک بحث عمومی را آغاز می کنیم و از اعضای وب و جوامع هوش مصنوعی دعوت می کنیم تا روی رویکردهای پروتکل های مکمل بررسی کنند. ما میخواهیم طیف وسیعی از صداها از سراسر ناشران وب، جامعه مدنی، دانشگاهها و زمینههای دیگر از سراسر جهان به این بحث بپیوندند، و ما در ماههای آینده علاقهمندان به شرکت در این بحث را دعوت خواهیم کرد.
شما می توانید با ثبت نام در وب سایت ما به بحث وب و انجمن های هوش مصنوعی بپیوندید و ما به زودی اطلاعات بیشتری در مورد این فرآیند به اشتراک خواهیم گذاشت.