گری ایلیز و جان مولر از گوگل، همراه با فابریس کانل از بینگ و احتمالاً نمایندگان دیگری از این موتورهای جستجو، این هفته برای شرکت در نشست IETF 121 دوبلین با هدف ارائه ایدههایی در مورد چگونگی بهبود پروتکل حذف رباتها، در دوبلین شرکت کردند. این شامل بهبود راندمان خزیدن، افزودن کنترلهای جدید هوش مصنوعی و موارد دیگر بود.
گری ایلیز به این تلاشها اشاره کرد و حتی به IETF (گروه وظیفه مهندسی اینترنت) در قسمت Search Off The Record در اوایل سال جاری اشاره کرد.
و وقتی دیدم که جان مولر از گوگل در لینکدین پست کرده بود که او این هفته در دوبلین بود و سپس دیدم که فابریس کانل اظهار نظر کرد که او هم آنجاست، مرا به فکر فرو برد.
هر دو بر اساس پست و نظرات در آخرین لحظه جلسه غیررسمی سئو شرکت کردند.
بنابراین چه چیزی در این رویداد IETF ارائه شد؟ خب توضیحات میگه:
IETF Hackathon و IETF Codesprint در آخر هفته برگزار می شود. رویدادهایی برای کمک به شرکتکنندگان جدید برای استفاده حداکثری از جلسات IETF از بعدازظهر یکشنبه آغاز میشوند. شرکت کنندگان باید سفر خود را بر اساس آن برنامه ریزی کنند. مقدمه ای برای جلسات IETF یک نمای کلی از نحوه آماده شدن برای جلسات و استفاده حداکثری از جلسات در طول هفته را ارائه می دهد.
با کاوش عمیقتر، میتوانید آنچه را که فابریس کانل با نام Robots Exclusion Protocol Extension برای مدیریت استفاده از محتوای هوش مصنوعی ارائه کرده است، مشاهده کنید. در چکیده آمده است: “این سند RFC9309 را با مشخص کردن قوانین اضافی برای کنترل استفاده از محتوا در زمینه هوش مصنوعی (AI) گسترش میدهد. من یک اسکرین شات از این صفحه گرفتم در صورتی که از بین برود یا تغییر کند.
سپس به نظر میرسد که گری ایلیز دارای پروتکل حذف روباتها پسوند هدف عامل کاربر با این خلاصه است، “پروتکل حذف روباتها که در (RFC9309) تعریف شده است، قانون عامل کاربر را برای هدف قرار دادن مشتریان خودکار یا با پیشوندی که با توکن محصول خود تعریف شده مطابقت دارد یا توسط یک نشان میدهد، مشخص میکند. قانون جهانی * که با همه مشتریان مطابقت دارد (RFC9309) با تعریف یک قانون جدید برای هدف قرار دادن مشتریان خودکار بر اساس هدف مشتریان از دسترسی به خدمات. من یک اسکرین شات از این صفحه گرفتم در صورتی که از بین برود یا تغییر کند.
گری همچنین دارای پسوند پروتکل حذف Robots برای کنترل سطح URI با خلاصه “این سند RFC9309 را با مشخص کردن کنترلهای سطح URI اضافی از طریق هدر سطح برنامه و متا تگهای HTML که در ابتدا در سال 1996 توسعه یافته بودند، گسترش میدهد. (یعنی “X-“) و ترکیب پذیری هدرهای متعدد را تعریف می کند که قبلاً امکان پذیر نبود.” من یک اسکرین شات از این صفحه گرفتم در صورتی که از بین برود یا تغییر کند.
همه اینها در اکتبر 2024 بهعنوان پیشنویس ارائه شدند و بهطور بالقوه شامل سرنخهایی در مورد اینکه چگونه Google و Bing میتوانند خزیدن را برای بهبود کارایی و برای اهداف مدیریت محتوای هوش مصنوعی تطبیق دهند. بنابراین روی هر کدام کلیک کنید و بخوانید.
این هم عکسی از جلسه سئو:
بحث در انجمن در لینکدین.