Сайты «потолстели» почти втрое, и Google это беспокоит
Дата публикации
02.04.2026
В ближайшее время мы свяжемся с вами
Средняя мобильная страница выросла с 845 Кб в 2015 году до 2 362 Кб в 2025-м. Инженеры Google Гэри Иллис и Мартин Сплитт обсудили проблему «веса» страниц, лимиты сканирования и влияние структурированных данных на раздувание кода в новом выпуске подкаста Search Off the Record.
Сплитт сослался на от HTTP Archive: медианная мобильная домашняя страница за десятилетие увеличилась почти втрое. Оба инженера признали, что рост был ожидаемым с учётом сложности современных веб-приложений, но масштаб их удивил.
Отдельно Сплитт заметил, что само понятие «веса страницы» люди трактуют по-разному: кто-то имеет в виду чистый HTML, кто-то — все загруженные байты, а кто-то — всё, что требует браузер для отрисовки.
Иллис рассказал о лимите в 15 Мб, который действует на уровне общей инфраструктуры сканирования Google. Каждый URL-адрес имеет собственный лимит, а сопутствующие ресурсы — CSS, JavaScript и изображения — загружаются отдельно.
При этом в документации Googlebot для поиска указаны другие цифры: бот сканирует первые 2 Мб поддерживаемого типа файла и первые 64 Мб PDF. Иллис заметил, что внутренние команды Google могут менять эти значения в зависимости от того, что именно сканируется.
Один из самых любопытных моментов выпуска — вопрос Иллиса о структурированной разметке. Он вспомнил высказывание сооснователя Google Сергея Брина о том, что машины были бы должны самостоятельно находить всё нужное в тексте. Структурированные данные существуют для поисковых систем — посетители их не видят. Если добавить весь перечень поддерживаемых Google типов разметки, страница заметно «потяжелеет». Иллис подал это как открытый вопрос, без окончательного ответа.
Сплитт ответил однозначно: да. Дома с быстрым интернетом разница незаметна, но в поездках с медленным или тарифицируемым спутниковым подключением ощущается каждый килобайт. Он предположил, что «вес» страниц мог расти быстрее, чем медианная скорость мобильного интернета.
Иллис сослался на предыдущие исследования, показывающие связь между скоростью загрузки и показателями удержания и конверсии, хотя конкретных источников в подкасте не назвал.
Большинство страниц и близко не подбираются к лимитам Googlebot. Но перегруженный код, встроенные изображения в формате base64, объёмные меню и чрезмерный инлайновый CSS или JavaScript способны подтолкнуть HTML к критической отметке. Google рекомендует выносить «тяжёлый» CSS и JavaScript во внешние файлы, а метатеги, title, canonical и структурированные данные размещать в HTML-документе как можно выше.
Владельцам сайтов, особенно интернет-магазинов с большим количеством товарных карточек, стоит периодически проверять «вес» страниц и следить за тем, чтобы внутренняя оптимизация учитывала и техническую составляющую — от скорости загрузки до правильного расположения ключевых элементов в коде.
Комментарии