Google обнаружил проблемы со сканированием сайтов на WordPress
Дата публикации
04.02.2026
В ближайшее время мы свяжемся с вами
Краулинг-команда Google подала отчеты об ошибках в WooCommerce и других плагинах WordPress, которые перегружают сайты. Об этом рассказал аналитик Google Гэри Иллиш в подкасте Search Off the Record.
Google обнаружил, что параметры add-to-cart в WooCommerce — один из основных источников расхода краулингового бюджета сайтов. Каждый такой параметр вроде ?add_to_cart=true создает как бы новый URL. Параметры накапливаются, удваивая либо утраивая пространство URL: ?add_to_cart=true&wishlist=1&ref=homepage, и каждую такую комбинацию Googlebot воспринимает как отдельную страницу.
Иллиш описал, как команда выявляет такие проблемы:
Если плагин имеет открытый репозиторий, Google отправляет туда отчет об ошибке напрямую. Именно так произошло с WooCommerce, разработчики которого быстро отреагировали и выпустили исправление:
Не все разработчики настолько ответственны. Баг-репорт на другой плагин с параметрами действий до сих пор без ответа. А коммерческий плагин календаря, генерирующий бесконечные URL-пути, — когда каждая дата либо событие создает новый URL, — вообще проигнорировал обращение Google. Иллиш не назвал конкретные плагины — очевидно, чтобы не устраивать публичный шейминг.
То, что Google начал подавать баги напрямую в репозитории плагинов, может помочь уменьшить расходы crawl-бюджета на уровне источника. Если разработчики будут реагировать так же быстро, как WooCommerce, выиграют все владельцы сайтов интернет-магазинов, работающих на этих плагинах.
По данным внутреннего годового отчета Google, 50% всех проблем сканирования заключались в фасетной навигации (фильтрации по атрибутам товаров), а 25% — в параметрах действий, увеличивающих пространство URL-адресов. Вместе эти две категории составляют 3/4 всех зафиксированных проблем с краулингом в 2025 году.
Это не первое предупреждение от Иллиша — ранее он неоднократно говорил об URL-параметрах. Google формализовал гайдлайны по фассетной навигации в и обновил лучшие практики для URL-параметров. Но несмотря на это те же самые жалобы по-прежнему доминируют в отчетах, поэтому Google перешел к прямым баг-репортам разработчикам.
Иллиш подчеркнул, что такие параметры часто добавляются плагинами CMS, а не владельцами сайтов. Googlebot не может определить, полезно ли URL-пространство, пока не обойдет значительную его часть. Когда вы заметите нагрузку на сервер — ущерб уже нанесен.
Google рекомендует проактивно блокировать параметрические URL через robots.txt — это эффективнее, чем ждать симптомов.
Пример директивы для WooCommerce:
Disallow: /?add-to-cart=
Disallow: /?add_to_wishlist=
Дело в том, что расходы краулингового бюджета часто заложены на уровне плагинов, и для владельцев сайтов на WordPress это создает сложную ситуацию: проблема может быть не по вашей вине, но ответственность за ее решение — ваша.
Если вы используете WooCommerce или другие e-commerce плагины, стоит провести внутреннюю оптимизацию сайта, в том числе технический аудит URL-параметров и настройку правильных директив в robots.txt.
Комментарии