آیا تراکم پذیری یک اسطوره Google SEO است؟

من به تازگی با آزمایش سئو روبرو شدم که سعی در تأیید اینکه آیا نسبت فشرده سازی بر رتبه بندی تأثیر می گذارد یا خیر. به نظر می رسد ممکن است عده ای باشند که معتقدند نسبت های فشرده سازی بالاتر با رتبه های پایین تر ارتباط دارند. درک تراکم پذیری در زمینه سئو مستلزم خواندن منبع اصلی در نسبت فشرده سازی و خود مقاله تحقیق قبل از نتیجه گیری در مورد اینکه آیا این یک اسطوره سئو است یا خیر. “

موتورهای جستجو صفحات وب را فشرده می کنند

تراکم پذیری ، در زمینه موتورهای جستجو ، به میزان فشرده سازی صفحات وب اشاره دارد. کوچک کردن یک سند در یک فایل زیپ نمونه ای از فشرده سازی است. موتورهای جستجو صفحات وب را به این دلیل که باعث صرفه جویی در فضا می شود و منجر به پردازش سریعتر می شود ، فشرده می کند. این کاری است که همه موتورهای جستجو انجام می دهند.

وب سایت ها و ارائه دهندگان میزبان صفحات وب را فشرده می کنند

فشرده سازی صفحه وب یک چیز خوب است زیرا به جستجوی خزنده ها کمک می کند تا به سرعت به صفحات وب دسترسی پیدا کنند که به نوبه خود سیگنال را به Googlebot ارسال می کند که سرور را فشار نمی دهد و خوب است که حتی صفحات بیشتری را برای نمایه سازی بدست آورید.

فشرده سازی وب سایت ها را سرعت می بخشد و تجربه کاربری با کیفیت بالا را به بازدید کنندگان سایت می دهد. اکثر میزبان وب به طور خودکار فشرده سازی را فعال می کنند زیرا برای وب سایت ها ، بازدید کنندگان سایت و همچنین برای میزبان وب مفید است زیرا در بارهای پهنای باند ذخیره می شود. همه با فشرده سازی وب سایت برنده می شوند.

سطح بالای فشرده سازی با هرزنامه ارتباط دارد

محققان یک موتور جستجو کشف کردند که صفحات وب بسیار فشرده با محتوای کم کیفیت ارتباط دارد. مطالعه نامیده شد هرزنامه ، اسپم لعنتی و آمار: استفاده از تجزیه و تحلیل آماری برای یافتن صفحات وب اسپم (PDF) در سال 2006 توسط دو محقق برجسته جهان ، مارک نجورک و دنیس فترتلی انجام شد.

Najork در حال حاضر در DeepMind به عنوان دانشمند تحقیق برجسته فعالیت می کند. Fetterly ، یک مهندس نرم افزار در Google ، نویسنده بسیاری از مقالات مهم تحقیقاتی مربوط به جستجو ، تجزیه و تحلیل محتوا و سایر موضوعات مرتبط است. این مقاله تحقیق فقط هیچ مقاله تحقیقاتی نیست ، بلکه یک مقاله مهم است.

آنچه در مقاله تحقیقاتی نشان می دهد این است که 70 ٪ از صفحات وب که در سطح 4.0 یا بالاتر فشرده می شوند ، صفحات با کیفیت پایین با سطح بالایی از استفاده از کلمات زائد هستند. میانگین سطح فشرده سازی سایت ها حدود 2.0 بود.

در اینجا میانگین صفحات وب عادی ذکر شده توسط مقاله تحقیق وجود دارد:

  • نسبت فشرده سازی 2.0:
    بیشترین نسبت فشرده سازی در مجموعه داده 2.0 است.
  • نسبت فشرده سازی 2.1:
    نیمی از صفحات دارای نسبت فشرده سازی زیر 2.1 هستند و نیمی از آن نسبت فشرده سازی بالاتر از آن است.
  • نسبت فشرده سازی 2.11:
    به طور متوسط ​​، نسبت فشرده سازی صفحات مورد تجزیه و تحلیل 2.11 است.

این یک روش آسان برای اولین بار برای فیلتر کردن هرزنامه محتوای آشکار خواهد بود ، بنابراین منطقی است که آنها این کار را برای هرزنامه محتوای سنگین انجام دهند. اما علفهای هرز هرزنامه پیچیده تر از راه حل های ساده است. موتورهای جستجو از سیگنال های متعدد استفاده می کنند زیرا این امر به سطح بالاتری از دقت منجر می شود.

محققان گزارش دادند كه 70 ٪ از سایتهای دارای سطح فشرده سازی 4.0 یا بالاتر اسپم بودند. این بدان معنی است که 30 ٪ دیگر سایت های هرزنامه نبودند. همیشه در آمار وجود دارد و 30 ٪ از سایت های غیر اسپم به همین دلیل است که موتورهای جستجو تمایل به استفاده از بیش از یک سیگنال دارند.

آیا موتورهای جستجو از تراکم پذیری استفاده می کنند؟

منطقی است که فرض کنیم موتورهای جستجو از تراکم پذیری برای شناسایی هرزنامه آشکار دست سنگین استفاده می کنند. اما همچنین منطقی است که فرض کنیم اگر موتورهای جستجو از آن استفاده کنند ، به منظور افزایش صحت معیارها از آن به همراه سایر سیگنال ها استفاده می کنند. هیچ کس نمی داند که آیا گوگل از تراکم پذیری استفاده می کند یا خیر.

آیا اثبات این است که فشرده سازی یک اسطوره سئو است؟

برخی از SEO تحقیقاتی را منتشر کرده اند که در مورد رتبه بندی هزاران سایت برای صدها کلمه کلیدی تجزیه و تحلیل می کنند. آنها دریافتند که هر دو سایت برتر و پایین رتبه دارای نسبت فشرده سازی در حدود 2.4 هستند. تفاوت بین نسبت فشرده سازی آنها فقط 2 ٪ بود ، به این معنی که نمرات در اصل برابر بودند. این نتایج نزدیک به دامنه متوسط ​​معمولی 2.11 گزارش شده در مطالعه علمی 2006 است.

SEO ها ادعا كردند كه فقط 2 ٪ سطح فشرده سازی بالاتر از سایتهای برتر در سایتهای دارای رتبه پایین ثابت می كند كه تراكس پذیری یك اسطوره سئو است. البته این ادعا نادرست است. میانگین نسبت فشرده سازی سایتهای عادی در سال 2006 2.11 بود ، به این معنی که میانگین نسبت 2.4 در سال 2025 در محدوده وب سایت های عادی و غیر اسپم قرار دارد.

نسبت سایتهای هرزنامه 4.0 است ، بنابراین این واقعیت که هر دو مجموعه از سایت های بالا و پایین دارای نسبت 2.4 هستند ، بی معنی است زیرا هر دو امتیاز در محدوده طبیعی قرار می گیرند.

با فرض اینکه Google از تراکم پذیری استفاده کرده است ، یک سایت نسبت به فشرده سازی 4.0 به علاوه ارسال سیگنال های با کیفیت پایین دیگر ، برای ایجاد یک عمل الگوریتمی ایجاد می کند. هیچ یک از سایتهای موجود در “تحقیق” این نسبت را نشان ندادند.

منطقی خواهد بود که فرض کنیم سایت هایی با نسبت فشرده سازی 4.0 بالا برداشته شده اند. اما ما این کار را نمی کنیم دانستن این ، یقین نیست.

آیا تراکم پذیری یک اسطوره سئو است؟

تراکم پذیری ممکن است یک اسطوره سئو نباشد. اما احتمالاً این چیزی نیست که ناشران یا SEO باید نگران باشند تا زمانی که از تاکتیک های سنگین مانند پر کردن کلمات کلیدی یا صفحات برش کوکی تکراری جلوگیری کنند.

Google از De-Duplication استفاده می کند که صفحات تکراری را از فهرست آنها حذف می کند و سیگنال های PageRank را به هر صفحه ای که انتخاب می کند ، صفحه Canonical (در صورت انتخاب یکی از آنها) است. انتشار صفحات تکراری به احتمال زیاد هیچ نوع مجازات ، از جمله هر چیزی که مربوط به نسبت فشرده سازی باشد ، نخواهد بود ، زیرا ، همانطور که قبلاً ذکر شد ، موتورهای جستجو از سیگنال های انزوا استفاده نمی کنند.

Source link