Сайти «потовстішали» майже втричі, і Google це турбує
Дата публікації
01.04.2026
Найближчим часом ми зв'яжемося з вами
Середня мобільна сторінка зросла з 845 Кб у 2015 році до 2 362 Кб у 2025-му. Інженери Google Ґері Ілліс і Мартін Спліт обговорили проблему «ваги» сторінок, ліміти сканування та вплив структурованих даних на роздування коду в новому випуску подкасту Search Off the Record.
Спліт послався на від HTTP Archive: медіанна мобільна домашня сторінка за десятиліття збільшилася майже втричі. Обидва інженери визнали, що зростання було очікуваним з огляду на складність сучасних вебзастосунків, але масштаб їх здивував.
Окремо Спліт зауважив, що саме поняття «ваги сторінки» люди трактують по-різному: хтось має на увазі чистий HTML, хтось — усі завантажені байти, а хтось — все, що потребує браузер для відтворення.
Ілліс розповів про ліміт у 15 Мб, що діє на рівні загальної інфраструктури сканування Google. Кожна URL-адреса має власний ліміт, а супутні ресурси — CSS, JavaScript і зображення — завантажуються окремо.
Водночас у документації Googlebot для пошуку зазначені інші цифри: бот сканує перші 2 Мб підтримуваного типу файлу та перші 64 Мб PDF. Ілліс зауважив, що внутрішні команди Google можуть змінювати ці значення залежно від того, що саме сканується.
Один із найцікавіших моментів випуску — питання Ілліса про структуровану розмітку. Він згадав висловлювання співзасновника Google Сергія Бріна про те, що машини мали б самостійно знаходити все потрібне в тексті. Структуровані дані існують для пошукових систем — відвідувачі їх не бачать. Якщо додати весь перелік підтримуваних Google типів розмітки, сторінка помітно «потяжчає». Ілліс подав це як відкрите питання, без остаточної відповіді.
Спліт відповів однозначно: так. Вдома зі швидким інтернетом різниця непомітна, але під час подорожей з повільним або тарифікованим супутниковим зв’язком відчувається кожен кілобайт. Він припустив, що «вага» сторінок могла зростати швидше, ніж медіанна швидкість мобільного інтернету.
Ілліс послався на попередні дослідження, що показують зв’язок між швидкістю завантаження та показниками утримання й конверсії, хоча конкретних джерел у подкасті не назвав.
Більшість сторінок і близько не підбираються до лімітів Googlebot. Але перевантажений код, вбудовані зображення у форматі base64, об’ємні меню та надмірний інлайновий CSS або JavaScript здатні підштовхнути HTML до критичної позначки. Google рекомендує виносити «важкий» CSS і JavaScript у зовнішні файли, а метатеги, title, canonical і структуровані дані розміщувати в HTML-документі якомога вище.
Для власників сайтів, особливо інтернет-магазинів із великою кількістю товарних карток, варто періодично перевіряти «вагу» сторінок і стежити за тим, щоб внутрішня оптимізація враховувала й технічну складову — від швидкості завантаження до правильного розташування ключових елементів у коді.
Комментарии