Google объясняет, почему не имеет значения, что веб-сайты становятся больше.

Недавний подкаст Google подчеркнул, что размеры веб-сайтов растут. Однако, по словам Гэри Ильи и Мартина Сплитта из Google, больший веб-сайт не обязательно является негативной вещью. Для издателей веб-сайтов и специалистов по SEO это означает, что простое изучение общего размера файлов веб-сайта (веса страницы) не является надежным способом оценки производительности, поскольку этот дополнительный размер может быть обусловлен ценным контентом или функциями.

Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.

Купить на падении (нет)

Размер страницы зависит от того, что измеряется.

Мартин Сплитт из Google уточнил, что ‘page size’ – это не фиксированная величина – она варьируется в зависимости от того, как вы её измеряете.

  • Измеряется ли это только HTML?
  • Или вы говорите об общем размере страницы, включая изображения, CSS и JavaScript?

Важно понимать этот момент. Когда Google объявила об ограничении объема HTML, который ее краулер (Googlebot) будет читать на каждой веб-странице, до 2 мегабайт, многие SEO-специалисты обеспокоились. Чтобы дать вам представление о том, сколько это такое, 2 мегабайта HTML содержат примерно два миллиона символов. Это как HTML-страница длиной в две целые книги о Гарри Поттере!

Как только вы добавляете такие вещи, как CSS, изображения и JavaScript в ваш HTML, вы начинаете сосредотачиваться на том, как быстро загружается страница для людей, посещающих ваш сайт, а не только на том, как её видит Google.

Мартин рассказал о статье из Web Almanac, ежегодном отчете о тенденциях веб-сайтов. Он заметил, что статья была неясной, поскольку, казалось, она объединяла различные измерения размера страницы — на самом деле существует как минимум два способа вычислить, насколько ‘тяжела’ веб-страница.

«Вот где я не совсем понимаю их определение веса страницы.

Они пытаются объяснить ‘вес страницы’, но это сбивает с толку. По сути, вес страницы (или размер страницы) — это общее количество данных — измеряемое в килобайтах или мегабайтах — которое компьютеру пользователя необходимо загрузить для загрузки веб-страницы. Это включает в себя все на странице, например изображения, потому что их нужно загрузить, чтобы их увидеть.

Я был удивлен, узнав, что в 2015 году размер файла составлял всего 845 килобайт. Я ожидал, что он будет больше, особенно учитывая, что он содержал изображения — я думал, что он легко превысит 800 килобайт.

… В июле 2025 года та же медианная страница сейчас составляет 2,3 мегабайта.»

Данные сжимаются.

Размер страницы касается не только исходного размера файла. Он также зависит от того, сколько данных фактически передается по интернету. Методы сжатия могут уменьшить этот объем. Сжатие работает путем уменьшения размера файлов на сервере *перед* отправкой их в ваш браузер. Распространенным методом сжатия является Brotli, и большинство серверов используют его.

Стало очевидно, что у людей разные представления о том, что составляет ‘размер страницы’. Это становится особенно запутанным, когда вы учитываете различные слои, и добавленную сложность сжатия.

…Так что некоторые люди говорят, ах да, но этот веб-сайт скачивает 10 мегабайт на мой диск.

Я согласился, но указал, что фактический объем переданных данных часто намного меньше, чем общий размер файла. Обычно это около пяти или шести мегабайт, а не полные десять, потому что данные могут быть сжаты во время передачи, а затем распакованы, когда они достигают устройства пользователя.

Хотя начальный размер страницы в примере Мартина относительно невелик – около пяти или шести мегабайт благодаря сжатию – он расширяется обратно примерно до десяти мегабайт после загрузки и распаковки на устройстве пользователя, занимая столько же места в хранилище на его телефоне, компьютере или другом устройстве.

И это вводит неоднозначность. Ваш веб-сайт весит десять мегабайт или пять мегабайт?

Это подчёркивает распространённую проблему: люди часто по-разному понимают, что на самом деле подразумевается под термином ‘page size’, что приводит к путанице.

Даже обычные определения веса страницы не совсем ясны. Хотя его часто описывают как объем данных – измеряемый в килобайтах или мегабайтах – который скачивает пользователь, не существует единого, общепринятого определения.

Зависит от того, что считается большой страницей – это сильно зависит от индивидуальных взглядов и того, как люди определяют ‘размер страницы’ – не существует единого, общепринятого определения.

Что насчет соотношения разметки к контенту?

Подкаст выделил важный момент: большая веб-страница не обязательно является плохой вещью. HTML-документ размером 15 МБ может быть вполне приемлемым, если большая часть этого размера приходится на ценный контент. По сути, размер файла может указывать на то, сколько полезной информации предлагает страница.

Вместо этого представьте ситуацию, когда веб-страница имеет очень мало фактического контента, но в основном состоит из кода и форматирования – то есть код весит намного больше, чем текст и изображения.

Мне интересно, является ли дополнительный размер самого кода единственным фактором, замедляющим работу. В основном, если страница небольшая по объему фактического контента, но большая в целом – скажем, пять мегабайт – это проблема? Является ли это *большей* проблемой, чем более крупная страница, например, в пятнадцать мегабайт?

Это сложный вопрос, поскольку он поднимает вопрос о том, сколько контента следует уравновешивать с кодом, используемым для его отображения.

Я отметил, что большая часть данных может представлять собой техническую информацию – например, теги или коды – необходимую для других инструментов, сервисов, юридических требований или лицензирования. Хотя это и не помогает напрямую пользователю конечного продукта, это все равно необходимо включать.

Было бы странно сказать, что это хуже, чем страница, где вес приходится в основном на контент.»

Мартин меняет наше представление о весе страницы, уделяя меньше внимания общему размеру файла и больше — смыслу и ценности самих данных.

Почему страницы включают данные, которые пользователи никогда не видят?

Значительным фактором, влияющим на вес страницы, является контент, который пользователи никогда не видят.

Гэри Ильес объясняет, что структурированные данные предназначены прежде всего для компьютеров, а не для людей, просматривающих веб-страницу. Хотя это помогает поисковым системам, это также увеличивает размер страницы. Добавление большого количества структурированных данных, чтобы максимизировать преимущества поиска, может увеличить размер страниц, даже если посетители не увидят этот дополнительный контент.

Это подчёркивает важный факт о веб-сайтах: они разработаны не только для людей. Им также необходимо хорошо работать для поисковых систем, искусственного интеллекта и других автоматизированных инструментов, каждый из которых добавляет сложности в процессе создания веб-страницы.

Когда накладные расходы оправданы

Не весь контент, не предназначенный для конечного пользователя, является ненужным.

Я разрабатываю веб-сайты уже давно, и я узнал одну вещь: код, который мы используем – ‘разметка’ – часто включает в себя дополнительную информацию, помимо того, что вы фактически *видите* на странице. Мы называем это ‘метаданными’, и это может быть для самых разных целей – помочь поисковым системам найти страницу, соответствовать правилам или даже информации о лицензировании. Иногда эти дополнительные данные не меняют то, как пользователь *испытывает* сайт напрямую, но это все еще важно. Это немного серая область, но в конечном итоге речь идет о том, чтобы убедиться, что сайт функционирует правильно и его можно обнаружить.

То, на чём действительно акцентировал внимание Мартин, заключается в том, что простого обозначения страницы как ‘быстрой’ или ‘медленной’ на основе её веса недостаточно. Это сложнее. Вес страницы – не простая хорошая/плохая метрика – есть нюансы, которые нам нужно учитывать, прежде чем делать такое суждение. Как цифровой маркетолог, я знаю, что контекст – это ключ к успеху, и жёсткий порог не рассказывает всей истории.

Почему разделение контента и метаданных не работает.

Гэри Иллис предложил способ улучшить то, как поисковые системы читают контент веб-сайтов: чёткое разделение информации, предназначенной для людей, от данных, предназначенных для машин. Хотя он и не упоминал конкретную идею ‘LLMs.txt’, его подход похож – он предоставляет чистые данные машинам без всех дополнительных элементов, предназначенных для человеческих посетителей.

Он рассказал о методе отделения технических данных, которые обеспечивают работу веб-страницы, от контента, который фактически загружают пользователи, что позволило бы веб-страницам загружаться быстрее и использовать меньше данных для пользователей.

Гэри сразу же отверг эту идею, назвав её нереалистичной. Он считает, что спамеры всегда найдут лазейки, чтобы использовать любую систему.

Однако эта идея нереалистична. Интернет, к сожалению, не всегда является дружелюбным местом.

Мы обрабатываем огромное количество спама ежедневно – в нашем блоге упоминается, что мы блокируем около 40 миллиардов спам-URL каждый день, хотя точное число очень велико, легко в миллиардах. Эта ситуация, вероятно, усугубит проблему, значительно увеличив количество спама, которое поисковым системам, моделям искусственного интеллекта и другим системам придется обрабатывать. Я уверен, что это произойдет.

Гэри объяснил, что Google последовательно обнаруживает различия между отдельными версиями контента. Он указал на прошлую практику наличия отдельных мобильных и настольных веб-страниц в качестве примера. Эти различные версии часто создавали проблемы как для поисковых рейтингов, так и для пользовательского опыта, особенно когда результат поиска приводил пользователей на страницу, где ожидаемого контента не было.

Хотя он и не сказал этого прямо, его описание прошлого опыта Google может помочь объяснить, почему они не решаются использовать LLMS.txt.

По этой причине большинство поисковых систем теперь используют систему, в которой они фокусируются на одном документе за раз, хотя это и не самый эффективный подход.

Размер веб-сайта против размера страницы: Реальный мир.

В конечном счете, разговор касается вопроса о том, являются ли тяжелые веб-страницы проблемой вообще.

«Первый вопрос в том, становятся ли веб-сайты «толстыми»? Я думаю, этот вопрос даже не имеет смысла.

На веб-сайте размер файла обычно не вызывает беспокойства. Однако он может иметь значение для отдельных страниц.

Но в контексте веб-сайта это действительно не имеет значения.»

Гэри и Мартин теперь переключают своё внимание на растущий размер веб-страниц, который, по их мнению, даёт более полезную перспективу на то, как веб-сайты меняются с течением времени.

Это переводит обсуждение из абстрактной идеи в нечто более измеримое и действенное.

Более объёмные страницы всё ещё несут реальные затраты.

Несмотря на то, что скорость интернета и технологии улучшились, более крупные веб-страницы по-прежнему вызывают проблемы, в то время как более легкие и быстро загружающиеся страницы предлагают явные преимущества.

Веб-сайты становятся больше, но реальная проблема заключается в том, что вызывает этот рост. Современные веб-страницы включают в себя гораздо больше, чем просто текст и изображения, которые вы видите – все эти дополнительные элементы увеличивают размер страниц и влияют на их производительность.

Смотрите также

2026-04-07 14:42