Новость, которая прошла по индустрии тихо, но с конкретным ударом: Google удаляет параметр &num=100, который позволял SEO-сервисам получать топ-100 результатов поиска за один запрос страницы. Для многих инструментов это означало резкое изменение рабочих процессов — и в этой статье я подробно расскажу, что произошло, почему это важно и как адаптироваться без паники.
Как работал параметр &num и в чём была его ценность
Параметр num в поисковой строке Google указывал, сколько результатов возвращать на одной странице. По умолчанию система показывала по десять ссылок, но с &num=100 можно было получить сто результатов в одном HTTP-запросе.
Для разработчиков и SEO‑сервисов это означало экономию времени и ресурсов. Вместо десяти последовательных запросов по десять результатов удавалось за один раз собрать полный срез первой сотни — удобно для анализа конкуренции, группировки по доменам и сбора метрик для отчетов.
Причины удаления и что за этим стоит
Google не комментирует каждое изменение подробно, но логика понятна: массовые одномоментные запросы повышают нагрузку на серверы и упрощают автоматический сбор данных. В таких условиях злоупотребления искажают статистику и создают риски для качества сервиса.
Кроме технической стороны, есть и коммерческая составляющая: если сторонние сервисы массово собирают SERP, Google выигрывает меньше от собственной экосистемы API и платных инструментов, которые контролируют доступ к данным.
Практические последствия для SEO‑сервисов
Удаление &num=100 меняет операционные характеристики многих систем. Во‑первых, увеличивается число запросов: вместо одного запроса на 100 результатов теперь необходимы как минимум десять запросов по десять результатов.
Во‑вторых, растут задержки и вероятность блокировок по IP при частых последовательных запросах. Это значит, что планы мониторинга позиций нужно пересматривать — частота опроса и стратегия кэширования становятся ключевыми.
Короткий список основных эффектов
- Увеличение сетевого трафика и количества HTTP-запросов.
- Рост затрат на прокси и инфраструктуру для обхода ограничений.
- Снижение скорости формирования отчетов для клиентов.
- Необходимость менять архитектуру парсеров и логику агрегации.
Таблица: было и стало
| Сценарий | До удаления &num=100 | После удаления |
|---|---|---|
| Сбор топ‑100 SERP | 1 запрос, 100 результатов | 10 запросов, по 10 результатов; большая задержка |
| Нагрузка на сеть | Ниже при равном объёме данных | Выше; больше заголовков, больше соединений |
| Шанс блокировки | Ниже при разовой загрузке | Выше при серии запросов |
Легальные и технические альтернативы
Важно понимать разницу между обходом и легальной адаптацией. Есть способы сохранить функциональность без нарушения правил.
Первый вариант — официальные API. Google предоставляет несколько инструментов: Search Console для аналитики собственных сайтов и платные SERP‑API у сторонних провайдеров, которые легально агрегируют и возвращают результаты поиска.
Второй путь — изменить стратегию сбора данных. Вместо полного сканирования топ‑100 для каждого запроса имеет смысл работать с репрезентативными срезами, выборками и кэшированием. Это снижает число обращений и даёт почти те же инсайты для большинства задач.
Какие техники применяют сейчас
- Использование коммерческих SERP‑API с агрегацией результатов.
- Применение headless‑браузеров для эмуляции живых пользователей и сбора дополнительных данных о SERP‑фичах.
- Кэширование ответов и обновление данных по расписанию, а не при каждом запросе клиента.
- Использование Google Search Console для метрик своего сайта.
Техническая реализация: пример адаптации
Когда параметр был доступен, я в одном проекте собирал топ‑100 конкурентов за пару минут и сразу делал кластеризацию по доменам. После удаления пришлось переработать пайплайн.
Мы уменьшили частоту опроса, добавили кэш ценой свежести и внедрили очередь задач с экспоненциальным бэкоффом при ошибках. Результат: отчёты стали обновляться реже, но стабильнее, а расходы на прокси снизились вдвое.
Советы по построению новой архитектуры мониторинга
Перестройка не должна быть драмой. Вот проверенные шаги, которые помогут сохранить качество услуг:
- Пересчитайте требования: нужно ли действительно топ‑100 каждый день для каждого клиента?
- Внедрите слои кэширования с логикой истечения сроков: часто меняющиеся запросы опрашивать чаще.
- Используйте аггрегированные запросы и выборки для отчётов высокой частоты.
- Планируйте бэкофф и ретраисы, чтобы снизить риск блокировок.
- По возможности интегрируйтесь с официальными API — это меньше проблем с соблюдением правил.
Этические и юридические аспекты
Технически можно организовать обходные пути через прокси и эмуляцию браузера, но важно помнить о правилах и условиях использования. Нарушение ToS может привести к блокировкам или искам, а также к репутационным рискам для сервиса.
Лучше инвестировать в устойчивую архитектуру и договоры с легальными провайдерами данных. Это дороже, но защищает бизнес и клиентов на долгой дистанции.
Что это значит для рынка SEO в целом
Изменение технической детали уже повлияло на бизнес‑модели: небольшие независимые парсеры теряют конкурентное преимущество, у тех, кто может платить за качественные API, появляется преимущество в точности и стабильности данных.
В итоге выигрывают те, кто умеет переработать данные в инсайты. Аналітика смещается в сторону глубины: анализ CTR, поведения на странице, репрезентативных выборок и качества трафика становятся важнее простой позиции в выдаче.
Личный опыт: как менялись инструменты
Я видел, как один подрядчик умудрялся выдавать горы сырой позиции в отчётах — клиенты радовались цифрам, но сами решения были бесполезны. После удаления &num=100 такие «маскировки» стали заметнее, и потребители начали чаще спрашивать о методиках получения данных.
В моей практике переход на качественные источники данных и внедрение метрик качества показателей повысил доверие клиентов. Это стоило дороже, но сократило число спорных кейсов и упростило объяснение ROI.
Как подготовиться прямо сейчас
Если вы управляете инструментом или аналитикой, начните с небольших шагов: проанализируйте, какие отчёты действительно требуют полного топ‑100, а какие можно заменить срезом топ‑20 или выборкой.
Параллельно оцените стоимость перехода на сторонний SERP‑API и сравните её с расходами на поддержку собственной инфраструктуры обхода ограничений. Часто оказывается, что платный API дешевле в долгосрочной перспективе.
FAQ

1. Почему Google убрал &num=100?
Точных публичных разъяснений нет, но причина — снижение массового автоматизированного доступа к результатам, управление нагрузкой и стремление направлять разработчиков к официальным API.
2. Можно ли вернуть тот же объём данных другим способом?
Да, но не бесплатно и с оговорками: платные SERP‑API, headless‑браузеры с прокси или использование Google Search Console для своих сайтов. Все варианты имеют ограничения и расходы.
3. Увеличатся ли расходы на мониторинг позиций?
Скорее всего да, если вы планируете сохранять ту же частоту и глубину сборов. Но разумная выборка и кэширование могут компенсировать рост расходов.
4. Нарушаю ли я правила, если применяю прокси и эмуляцию браузера?
Это зависит от условий использования Google и от законодательства в вашей юрисдикции. Технически такие методы возможны, но они повышают риск блокировок и юридических проблем.
5. Какая стратегия сейчас наиболее разумна для малого SEO‑сервиса?
Сосредоточиться на репрезентативных выборках, кэшировании, использование платных API для ключевых задач и прозрачности перед клиентами о методах сбора данных.
Если хотите подробнее ознакомиться с практическими кейсами и готовыми решениями для адаптации после удаления параметра, заходите на наш сайт: https://winsystem.xyz/. Там вы найдёте инструкции, примеры архитектур и реальные примеры миграции аналитики.


