
На протяжении многих лет Google имел возможность получать доступ к первым 15МБ веб-страницы. Недавно они обновили свою документацию, чтобы указать, что теперь они могут получать доступ до 64МБ PDF-файла, и к первым 2МБ большинства других типов файлов, которые они поддерживают.
Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.
Купить на падении (нет)Как SEO-эксперт, я хотел уточнить кое-что о файлах отклонения ссылок. Хотя ограничения в 64МБ и 2МБ – это не совсем *новая* информация, я понял, что не затрагивал их конкретно в своем предыдущем контенте. Я *действительно* осветил тот факт, что Google сканирует до 2МБ файла, но я не выделял это ограничение в 2МБ отдельно ранее. Так что просто хотел убедиться, что этот момент понятен!
При сканировании для Google Поиска, Googlebot сканирует первые 2 МБ поддерживаемого типа файла и первые 64 МБ PDF-файла. С точки зрения рендеринга, каждый ресурс, на который ссылается HTML (например, CSS и JavaScript), извлекается отдельно, и каждый запрос ресурса ограничен тем же ограничением размера файла, которое применяется к другим файлам (за исключением PDF-файлов).
Когда размер файла достигает максимального, который может обработать Googlebot, он прекращает загрузку и отправляет только ту часть, которую уже получил, для индексации. Это ограничение размера применяется к несжатому размеру файла. Имейте в виду, что другие Google-краулеры, такие как Googlebot Video и Googlebot Image, могут иметь различные ограничения по размеру.
Затем Google также обновил этот документ, добавив ограничение в 15 МБ, но это было не ново — теперь там говорится:
По умолчанию, краулеры и извлекатели Google сканируют только первые 15МБ файла. Любой контент за пределами этого лимита игнорируется. Отдельные проекты могут устанавливать различные лимиты для своих краулеров и извлекателей, а также для разных типов файлов. Например, краулер Google может установить больший лимит размера файла для PDF, чем для HTML.
Google недавно обновил свою документацию относительно того, сколько данных могут обрабатывать его веб-краулеры. Они переместили информацию об стандартных лимитах размера файлов для всех Google краулеров и fetchers в более центральное место в документации краулеров. Это также позволило им уточнить конкретные лимиты размера файлов для Googlebot, их основного веб-краулера. Google объяснил, что предыдущее местоположение для лимитов по умолчанию было неидеальным, поскольку оно применялось ко всем их инструментам, а не только к Googlebot.
Более точные детали полезно знать.
Смотрите также
- Чек-лист WordPress SEO: Подготовьтесь к (запуску) сайта
- Акции взлетают на фоне крипто-соглашения: История дикого рынка предсказаний.
- Акции BSPB. Банк Санкт-Петербург: прогноз акций.
- Агентный ИИ в SEO: ИИ-агенты и будущее контент-стратегии (Часть 3)
- 5 ключевых тенденций корпоративного SEO и искусственного интеллекта на 2025 год
- Акции ROLO. Русолово: прогноз акций.
- 70% биткоина, 30% шока: формула кошелька миллиардера разоблачает финансовый парк юрского периода
- 4,10 миллиарда токенов SHIB уничтожено: Великая сага о сжигании криптовалюты!
- Какой самый низкий курс юаня к йене?
- Анализ динамики цен на криптовалюту NEXO: прогнозы NEXO
2026-02-04 15:46