Послуги
  • Сайти
  • Контент
  • Просування
  • Бітрікс24
  • Додатки
Усі послуги Оплата
Бітрікс24
Усі послуги Оплата
Пошук
  • Разработка интернет-магазина под ключ
  • Разработка сайтов
  • Разработка леднигов
  • Разработка на битрикс24
  • Разработка на Вордпресс

Google виявив проблеми зі сканування сайтів на WordPress

Дата публікації

04.02.2026

Краулінг-команда Google подала звіти про помилки у WooCommerce та інших плагінах WordPress, які перевантажують сайти. Про це розповів аналітик Google Гері Ілліш у подкасті Search Off the Record.

Що сталося з WooCommerce?

Google виявив, що параметри add-to-cart у WooCommerce — одне з основних джерел витрат краулінгового бюджету сайтів. Кожен такий параметр на кшталт ?add_to_cart=true створює нібито новий URL. Параметри накопичуються, подвоюючи чи потроюючи простір URL: ?add_to_cart=true&wishlist=1&ref=homepage, і кожну таку комбінацію Googlebot сприймає як окрему сторінку.

Ілліш описав, як команда виявляє такі проблеми:

«Ми намагаємося з'ясувати, звідки це береться. Іноді вдається визначити, що ці параметри дій походять від WordPress-плагінів — WordPress досить популярна CMS. І тоді виявляється, що саме ці плагіни додають add-to-cart і add-to-wishlist».

Якщо плагін має відкритий репозиторій, Google подає туди звіт про помилку напряму. Саме так сталося з WooCommerce, розробники якого швидко відреагували та випустили виправлення:

«Що мені дуже сподобалось — чудові люди з Woocommerce майже відразу ж виявили проблему та вирішили її», — зазначив Ілліш.

Що з іншими плагінами?

Не всі розробники настільки відповідальні. Баг-репорт на інший плагін із параметрами дій досі без відповіді. А комерційний плагін календаря, що генерує нескінченні URL-шляхи, — коли кожна дата чи подія створює новий URL, — взагалі проігнорував звернення Google. Ілліш не назвав конкретні плагіни — очевидно, щоб не влаштовувати публічний шеймінг.

Те, що Google почав подавати баги напряму в репозиторії плагінів, може допомогти зменшити витрати crawl-бюджету на рівні джерела. Якщо розробники реагуватимуть так само швидко, як WooCommerce — виграють усі власники сайтів інтернет-магазинів, які працюють на цих плагінах.

Масштаб проблеми

За даними внутрішнього річного звіту Google, 50% всіх проблем полягали у фасетному навігації (фільтрації за атрибутами), а 25% — у параметрах дій, які збільшують простір URL-адрес. Разом ці дві категорії складають 3/4 всіх зафіксованих проблем з краулінгом у 2025 році.

Це не перше попередження від Ілліша — раніше він неодноразово говорив про URL-параметри. Google формалізував гайдлайни щодо фасетної навігації в офіційну документацію та оновив найкращі практики для URL-параметрів. Але попри це ті самі скарги досі домінують у звітах, тому Google перейшов до прямих баг-репортів розробникам.

Ілліш підкреслив, що такі параметри часто додаються плагінами CMS, а не власниками сайтів. Googlebot не може визначити, чи корисний URL-простір, поки не обійде значну його частину. Коли ви помітите навантаження на сервер — шкода вже завдана.

Що робити власникам сайтів?

Google рекомендує проактивно блокувати параметричні URL через robots.txt — це ефективніше, ніж чекати симптомів.

Приклад директиви для WooCommerce:

Disallow: /?add-to-cart=
Disallow: /?add_to_wishlist=

Річ у тому, що витрати краулінгового бюджету часто закладені на рівні плагінів, і для власників сайтів на WordPress це створює складну ситуацію: проблема може бути не вашою виною, але відповідальність за її вирішення — ваша.

Якщо ви використовуєте WooCommerce чи інші e-commerce плагіни, варто провести внутрішню оптимізацію сайту, зокрема технічний аудит URL-параметрів і налаштування правильних директив у robots.txt.

Комментарии