Google виявив проблеми зі сканування сайтів на WordPress
Дата публікації
04.02.2026
Найближчим часом ми зв'яжемося з вами
Краулінг-команда Google подала звіти про помилки у WooCommerce та інших плагінах WordPress, які перевантажують сайти. Про це розповів аналітик Google Гері Ілліш у подкасті Search Off the Record.
Google виявив, що параметри add-to-cart у WooCommerce — одне з основних джерел витрат краулінгового бюджету сайтів. Кожен такий параметр на кшталт ?add_to_cart=true створює нібито новий URL. Параметри накопичуються, подвоюючи чи потроюючи простір URL: ?add_to_cart=true&wishlist=1&ref=homepage, і кожну таку комбінацію Googlebot сприймає як окрему сторінку.
Ілліш описав, як команда виявляє такі проблеми:
Якщо плагін має відкритий репозиторій, Google подає туди звіт про помилку напряму. Саме так сталося з WooCommerce, розробники якого швидко відреагували та випустили виправлення:
Не всі розробники настільки відповідальні. Баг-репорт на інший плагін із параметрами дій досі без відповіді. А комерційний плагін календаря, що генерує нескінченні URL-шляхи, — коли кожна дата чи подія створює новий URL, — взагалі проігнорував звернення Google. Ілліш не назвав конкретні плагіни — очевидно, щоб не влаштовувати публічний шеймінг.
Те, що Google почав подавати баги напряму в репозиторії плагінів, може допомогти зменшити витрати crawl-бюджету на рівні джерела. Якщо розробники реагуватимуть так само швидко, як WooCommerce — виграють усі власники сайтів інтернет-магазинів, які працюють на цих плагінах.
За даними внутрішнього річного звіту Google, 50% всіх проблем полягали у фасетному навігації (фільтрації за атрибутами), а 25% — у параметрах дій, які збільшують простір URL-адрес. Разом ці дві категорії складають 3/4 всіх зафіксованих проблем з краулінгом у 2025 році.
Це не перше попередження від Ілліша — раніше він неодноразово говорив про URL-параметри. Google формалізував гайдлайни щодо фасетної навігації в та оновив найкращі практики для URL-параметрів. Але попри це ті самі скарги досі домінують у звітах, тому Google перейшов до прямих баг-репортів розробникам.
Ілліш підкреслив, що такі параметри часто додаються плагінами CMS, а не власниками сайтів. Googlebot не може визначити, чи корисний URL-простір, поки не обійде значну його частину. Коли ви помітите навантаження на сервер — шкода вже завдана.
Google рекомендує проактивно блокувати параметричні URL через robots.txt — це ефективніше, ніж чекати симптомів.
Приклад директиви для WooCommerce:
Disallow: /?add-to-cart=
Disallow: /?add_to_wishlist=
Річ у тому, що витрати краулінгового бюджету часто закладені на рівні плагінів, і для власників сайтів на WordPress це створює складну ситуацію: проблема може бути не вашою виною, але відповідальність за її вирішення — ваша.
Якщо ви використовуєте WooCommerce чи інші e-commerce плагіни, варто провести внутрішню оптимізацію сайту, зокрема технічний аудит URL-параметрів і налаштування правильних директив у robots.txt.
Комментарии