گوگل و بینگ برای بهبود خزیدن و کنترل‌های هوش مصنوعی به رویداد IETF دوبلین می‌روند.

گوگل و بینگ برای بهبود خزیدن و کنترل‌های هوش مصنوعی به رویداد IETF دوبلین می‌روند.

گری ایلیز و جان مولر از گوگل، همراه با فابریس کانل از بینگ و احتمالاً نمایندگان دیگری از این موتورهای جستجو، این هفته برای شرکت در نشست IETF 121 دوبلین با هدف ارائه ایده‌هایی در مورد چگونگی بهبود پروتکل حذف ربات‌ها، در دوبلین شرکت کردند. این شامل بهبود راندمان خزیدن، افزودن کنترل‌های جدید هوش مصنوعی و موارد دیگر بود.

گری ایلیز به این تلاش‌ها اشاره کرد و حتی به IETF (گروه وظیفه مهندسی اینترنت) در قسمت Search Off The Record در اوایل سال جاری اشاره کرد.

و وقتی دیدم که جان مولر از گوگل در لینکدین پست کرده بود که او این هفته در دوبلین بود و سپس دیدم که فابریس کانل اظهار نظر کرد که او هم آنجاست، مرا به فکر فرو برد.

هر دو بر اساس پست و نظرات در آخرین لحظه جلسه غیررسمی سئو شرکت کردند.

بنابراین چه چیزی در این رویداد IETF ارائه شد؟ خب توضیحات میگه:

IETF Hackathon و IETF Codesprint در آخر هفته برگزار می شود. رویدادهایی برای کمک به شرکت‌کنندگان جدید برای استفاده حداکثری از جلسات IETF از بعدازظهر یکشنبه آغاز می‌شوند. شرکت کنندگان باید سفر خود را بر اساس آن برنامه ریزی کنند. مقدمه ای برای جلسات IETF یک نمای کلی از نحوه آماده شدن برای جلسات و استفاده حداکثری از جلسات در طول هفته را ارائه می دهد.

با کاوش عمیق‌تر، می‌توانید آنچه را که فابریس کانل با نام Robots Exclusion Protocol Extension برای مدیریت استفاده از محتوای هوش مصنوعی ارائه کرده است، مشاهده کنید. در چکیده آمده است: “این سند RFC9309 را با مشخص کردن قوانین اضافی برای کنترل استفاده از محتوا در زمینه هوش مصنوعی (AI) گسترش می‌دهد. من یک اسکرین شات از این صفحه گرفتم در صورتی که از بین برود یا تغییر کند.

سپس به نظر می‌رسد که گری ایلیز دارای پروتکل حذف روبات‌ها پسوند هدف عامل کاربر با این خلاصه است، “پروتکل حذف روبات‌ها که در (RFC9309) تعریف شده است، قانون عامل کاربر را برای هدف قرار دادن مشتریان خودکار یا با پیشوندی که با توکن محصول خود تعریف شده مطابقت دارد یا توسط یک نشان می‌دهد، مشخص می‌کند. قانون جهانی * که با همه مشتریان مطابقت دارد (RFC9309) با تعریف یک قانون جدید برای هدف قرار دادن مشتریان خودکار بر اساس هدف مشتریان از دسترسی به خدمات. من یک اسکرین شات از این صفحه گرفتم در صورتی که از بین برود یا تغییر کند.

گری همچنین دارای پسوند پروتکل حذف Robots برای کنترل سطح URI با خلاصه “این سند RFC9309 را با مشخص کردن کنترل‌های سطح URI اضافی از طریق هدر سطح برنامه و متا تگ‌های HTML که در ابتدا در سال 1996 توسعه یافته بودند، گسترش می‌دهد. (یعنی “X-“) و ترکیب پذیری هدرهای متعدد را تعریف می کند که قبلاً امکان پذیر نبود.” من یک اسکرین شات از این صفحه گرفتم در صورتی که از بین برود یا تغییر کند.

همه این‌ها در اکتبر 2024 به‌عنوان پیش‌نویس ارائه شدند و به‌طور بالقوه شامل سرنخ‌هایی در مورد اینکه چگونه Google و Bing می‌توانند خزیدن را برای بهبود کارایی و برای اهداف مدیریت محتوای هوش مصنوعی تطبیق دهند. بنابراین روی هر کدام کلیک کنید و بخوانید.

این هم عکسی از جلسه سئو:

بحث در انجمن در لینکدین.

Source link