گوگل می گوید سئوکارها می توانند به شکل گیری سیاست ها و تصمیم گیری ها در مورد ربات های هوش مصنوعی کمک کنند

گوگل می گوید سئوکارها می توانند به شکل گیری سیاست ها و تصمیم گیری ها در مورد ربات های هوش مصنوعی کمک کنند

جان مولر از گوگل گفت که سئوکارها در مکان بسیار خوبی قرار دارند زیرا آنها می دانند که خزنده ها چگونه کار می کنند، کنترل ها چگونه کار می کنند و می توانند به مشتریان خود در تصمیم گیری در مورد خط مشی ها و تصمیمات هوش مصنوعی خود کمک کنند تا در دوره جدید ربات های هوش مصنوعی حرکت کنند.

جان مولر در لینکدین نوشت: «این تقاطع هوش مصنوعی و سئو همه شما (سئوکاران فنی!) را در مکانی عالی برای کمک به شکل‌دهی سیاست‌ها/تصمیم‌گیری‌ها برای مشتریانتان قرار می‌دهد.» او افزود: “شما می دانید که این مکانیسم های کنترلی چگونه کار می کنند، می توانید انتخاب کنید که از آنها استفاده کنید و به مردم کمک کنید تا تصمیم بگیرند چه چیزی برای آنها منطقی است.”

من از نحوه بیان این خط بعدی خوشم می‌آید، و می‌گوید: «Robots.txt به شما کنترل زیادی می‌دهد (بر روی خزنده‌ها / استفاده‌های معقول — برای موارد غیرمنطقی، ممکن است لازم باشد در آن عمیق‌تر شوید یا از CDN/hoster استفاده کنید. به شما امکان می دهد آنها را بر اساس نوع درخواست مسدود کنید)، حتی اگر بخواهید می توانید robots.txt خود را به طور پیش فرض غیرمجاز کنید.” منظورم این است که «کنترل کامل» را نگفت بلکه گفت «کنترل زیاد». زیرا، نه، کنترل کامل را به شما نمی دهد. در برخی موارد، اگر می‌خواهید مرورهای هوش مصنوعی را مسدود کنید، باید تمام جستجوی Google را مسدود کنید. ربات‌ها و خزنده‌های هوش مصنوعی دیگری وجود دارند که به Googlebot مرتبط نیستند. و سپس موتورهای هوش مصنوعی بی‌شماری در حال ظهور و آینده با ربات‌ها در همه جا وجود دارند.

جان بیشتر نوشت، در اینجا مجموعه کامل نظرات است:

این تقاطع هوش مصنوعی و سئو همه شما را (سئوکاران فنی!) در مکانی عالی برای کمک به شکل‌دهی سیاست‌ها/تصمیم‌گیری‌ها برای مشتریان خود قرار می‌دهد. شما می دانید که این مکانیسم های کنترلی چگونه کار می کنند، می توانید انتخاب کنید که از آنها استفاده کنید و به مردم کمک کنید تا تصمیم بگیرند چه چیزی برای آنها منطقی است.

robots.txt به شما کنترل زیادی می‌دهد (بر روی خزنده‌ها / استفاده‌های معقول – برای موارد غیرمنطقی، ممکن است لازم باشد عمیق‌تر در آن کاوش کنید، یا از CDN/hoster استفاده کنید که به شما امکان می‌دهد آنها را بر اساس نوع درخواست مسدود کنید)، حتی می‌توانید اگر می خواهید robots.txt خود را به طور پیش فرض غیرمجاز کنید. به مدیر سایت کمک کنید تا تصمیم بگیرد (این قسمت سخت است)، و آن را به درستی اجرا کنید (شما قطعاً می دانید چگونه این کار را انجام دهید).

این سیستم‌های جدید به روشی شبیه به موتورهای جستجو به وب دسترسی دارند، که شما (من فرض می‌کنم) می‌دانید چگونه کار می‌کند و چگونه آن را راهنمایی کنید. کنترل‌ها مشابه (گاهی اوقات مشابه) موتورهای جستجو هستند که می‌دانید چگونه کار می‌کنند و می‌توانید با دقت از آنها استفاده کنید. کاری که این سیستم‌های جدید با داده‌ها انجام می‌دهند، گاهی بسیار متفاوت است، اما قابل یادگیری است (همچنین، به سرعت تغییر می‌کند). شما می‌دانید که از موتورهای جستجو چه می‌خواهید (“چرا SEO؟ XYZ چرا”)، اگر سیستم‌های جدید چیزی قابل مقایسه به شما ارائه می‌دهند، می‌توانید از آنجا تعمیم دهید و از آن برای تصمیم‌گیری درباره نحوه تعامل با آنها استفاده کنید. شما (به ویژه به عنوان یک سئوی فنی) در موقعیت خوبی برای کمک به اتخاذ این تصمیمات هستید و قطعاً فرد مناسبی برای اجرای آنها هستید. (و البته، اساس سئوی فنی تمیز شما هر کاری را که این سیستم‌های جدید انجام می‌دهند آسان‌تر می‌کند، خزیدن، لینک‌های داخلی، URL‌های تمیز، HTML تمیز و غیره – اگر بخواهید این مسیر را دنبال کنید.)

و در نهایت، امیدوارم تمرین زیادی برای گفتن “این بستگی دارد” داشته باشید، که اساس تصمیم گیری های فنی است.

آیا مشتریان به شما مراجعه می کنند و می پرسند که چگونه با این موضوع برخورد کنید؟

بحث در انجمن در لینکدین.

توجه: این از قبل نوشته شده بود و قرار بود امروز پست شود، من در حال حاضر برای روش هشان آفلاین هستم.

Source link