Когда вы впервые сталкиваетесь с задачей «проверить позиции сайта в поисковых системах», всё кажется простым. Вбиваешь запрос в Google, смотришь, где находится твой сайт — и всё. Но чем глубже вы погружаетесь в эту тему, тем яснее понимаете: это не просто поиск строчки в выдаче. Это — работа с системой, которая меняется каждые несколько часов, с данными, которые могут врать, и с инструментами, которые требуют не просто кликов, а понимания.
Я занимаюсь анализом поисковой видимости больше пятнадцати лет. За это время прошёл путь от ручного отслеживания позиций в Excel до работы с крупнейшими аналитическими платформами, участвовал в разработке алгоритмов ранжирования и консультировал сотни компаний — от стартапов до государственных структур. И за всё это время я ни разу не встречал человека, который бы правильно понял, что такое «позиция сайта», с первого раза.
Потому что позиция — это отражение сложнейшего взаимодействия между вашим сайтом, поисковой системой, пользователем и контекстом его запроса. И если вы думаете, что достаточно просто «посмотреть, где вы в Яндекс/Google», вы обрекаете себя на ошибки, которые потом будут стоить вам трафика, денег и доверия.
Давайте начнём с самого начала — с того, что такое поисковая выдача и почему она неодинакова для всех.
Почему позиция — это иллюзия
В 2009 году Google начал персонализировать выдачу. Это означало, что два человека, введя один и тот же запрос в одно и то же время, могли увидеть разные результаты. Причины — история поиска, географическое положение, устройство, браузер, даже время суток. С тех пор персонализация только усилилась. Сегодня Google учитывает более 200 факторов ранжирования, и большинство из них — поведенческие.
Если вы проверяете позицию «вручную», то есть заходите в браузер и вбиваете запрос, вы видите выдачу для себя. Это не объективная реальность. Это — ваша субъективная версия выдачи. Даже если вы отключите историю, войдёте в режим инкогнито и очистите куки — вы всё равно останетесь в определённой геолокации, с определённым IP-адресом, с определённым языком системы и браузера. И Google это учитывает.
Поэтому первое, что должен понять любой, кто хочет проверять позиции — ваша позиция не существует в абсолютном смысле. Существует только позиция в определённых условиях. И если вы не фиксируете эти условия, ваши данные — бесполезны.
Что такое «позиция» на самом деле
В профессиональной среде под «позицией» понимают место, которое занимает URL-адрес сайта в поисковой выдаче по конкретному поисковому запросу при строго заданных параметрах.
Эти параметры:
- География (город, регион, страна);
- Язык интерфейса поисковой системы;
- Тип устройства (десктоп, мобильный, планшет);
- Персонализация (отключена или включена);
- Наличие дополнительных блоков в выдаче (карты, видео, новости, товары и т.д.).
Если вы не указываете эти параметры, вы не можете говорить о «позиции» как о достоверном показателе. Это как измерять температуру без указания шкалы — по Цельсию или по Фаренгейту?
Ручная проверка: почему это путь в никуда
Многие до сих пор проверяют позиции вручную. Открывают браузер, вводят запрос, листают страницы, ищут свой сайт. Это метод уместен только в одном случае — когда вы хотите быстро понять, вообще попадает ли ваш сайт в топ-100 по какому-то запросу. Но даже в этом случае вы рискуете ошибиться.
Во-первых, Google часто показывает разные результаты на первой и второй странице. Иногда ваш сайт может быть на 12-м месте, но вы его не увидите, потому что на первой странице есть блок «Другие также ищут», карта, видео и три рекламных объявления. Это значит, что органических результатов на первой странице может быть всего 5–6. И если вы не дойдёте до второй страницы — вы подумаете, что вас нет в выдаче.
Во-вторых, Google может показывать ваш сайт только определённым пользователям. Например, если вы находитесь в Москве, а ваш сайт оптимизирован под Санкт-Петербург, вы можете не увидеть его вообще — даже если он на 1-м месте для петербуржцев.
В-третьих, ручная проверка не масштабируема. Даже если у вас 10 ключевых запросов — это ещё терпимо. Но если у вас 500, 1000 или 10 000 запросов (а у крупных сайтов их десятки тысяч), вы просто не справитесь. И даже если справитесь — вы не сможете отследить динамику. Потому что позиции меняются ежедневно, а иногда — ежечасно.
Автоматизация: начало пути к правде
Единственный способ получить объективные данные — использовать специализированные инструменты, эмулирующие поведение пользователя в строго заданных условиях. Такие инструменты называются сервисами мониторинга позиций или ранжировочными трекерами.
Они работают по простому принципу: отправляют запрос к поисковой системе с заданными параметрами (гео, устройство, язык и т.д.), получают выдачу, парсят её и определяют, на каком месте находится указанный URL.
Но и здесь начинаются подводные камни.
Проблема парсинга: почему не все данные равны
Google не любит, когда его выдачу парсят. Поэтому он активно борется с автоматизированными запросами: блокирует IP-адреса, требует капчу, показывает искажённую выдачу. Чтобы обойти это, профессиональные сервисы используют:
Прокси-серверы в разных регионах;
Эмуляцию браузера (чтобы выглядеть как настоящий пользователь);
Ротацию User-Agent (чтобы имитировать разные устройства);
Задержки между запросами (чтобы не вызывать подозрений).
Но даже при этом никакой сервис не может гарантировать 100% точность. Google может показать разные выдачи даже при одинаковых параметрах — из-за A/B-тестов, временных алгоритмических сдвигов или просто «настроения» системы.
Поэтому профессионалы не смотрят на абсолютные цифры. Они смотрят на динамику: растёт позиция или падает, стабильна ли она, есть ли резкие скачки. Это гораздо важнее, чем то, что вы на 7-м или 8-м месте.
Какие сервисы использовать?
На рынке есть несколько проверенных решений. Я не буду рекламировать конкретные продукты, но обозначу категории и критерии выбора.
Локальные сервисы с поддержкой российских поисковых систем
Если вы работаете в России или СНГ, важно учитывать не только Google, но и Яндекс. Эти системы работают по разным алгоритмам, и позиции в них часто не совпадают. Некоторые международные сервисы (например, Ahrefs или SEMrush) слабо отслеживают Яндекс, особенно в региональных выдачах. Поэтому для русскоязычного рынка часто выбирают локальные решения — такие как Serpstat, Rush Analytics, MegaIndex или Key Collector.
Международные платформы
Если ваш сайт ориентирован на глобальную аудиторию, особенно англоязычную, то SEMrush, Ahrefs, Moz или AccuRanker — отличный выбор. Они интегрированы с Google Search Console, имеют мощную аналитику и позволяют отслеживать миллионы запросов.
Самописные скрипты и API
Некоторые крупные компании разрабатывают собственные системы мониторинга. Это дорого, но даёт полный контроль над данными. Правда для этого нужны ресурсы: серверы, прокси, разработчики, аналитики. Для большинства это избыточно.
Как правильно настроить мониторинг позиций
Здесь начинается самое главное. Многие думают, что достаточно просто подключить сервис и смотреть отчёты. Но без правильной настройки вы получите мусор вместо данных.
Определите цели
Зачем вы проверяете позиции? Чтобы:
- Оценить эффективность SEO?
- Сравнить себя с конкурентами?
- Отследить влияние технических изменений?
- Подтвердить рост трафика?
Цель определяет, какие запросы вы будете отслеживать и как часто.
Соберите семантическое ядро
Это — основа всего. Семантическое ядро — это список поисковых запросов, по которым вы хотите быть найдены. Не «все возможные запросы», а те, которые действительно приносят или могут принести трафик и конверсии.
Как собрать ядро:
- Используйте данные из Google Search Console и Яндекс.Вебмастера — там уже есть запросы, по которым вас находят.
- Добавьте запросы из аналитики конкурентов (через SEMrush, Serpstat и т.д.).
- Включите длинные хвосты — низкочастотные, но высоко-конверсионные запросы.
- Исключите нерелевантные или спамные запросы (например, «скачать бесплатно» для коммерческого сайта).
Настройте географию и устройство
Для каждого запроса укажите:
- В каком городе/регионе вы хотите отслеживать позицию;
- Для какого устройства (мобильного или десктопа);
- На каком языке должна быть выдача.
Например, запрос «ремонт стиральных машин» в Москве и в Новосибирске — это два разных запроса с разной конкуренцией и разными позициями.
Установите частоту проверки
Ежедневная проверка нужна только в кризисных ситуациях: после запуска нового сайта, после масштабных изменений. В обычном режиме достаточно раз в неделю. Чаще — нет смысла, потому что алгоритмы не меняются каждые сутки.
Интегрируйте с другими источниками данных
Позиции сами по себе — это лишь часть картины. Их нужно сопоставлять с:
Трафиком (из Google Analytics или Яндекс.Метрики);
Кликовой аудиторией (CTR из Search Console);
Конверсиями (заявки, звонки, покупки).
Если позиция растёт, а трафик падает — возможно, вы продвигаете нерелевантные запросы. Если позиция падает, а трафик растёт — возможно, Google начал показывать ваш сайт по новым, неотслеживаемым запросам.
Почему позиции — не главный KPI
Здесь я должен сказать нечто, что многим не понравится: позиции — это вторичный показатель. Главный — это трафик и конверсии.
Поясню на примере.
Допустим, вы занимаете 1-е место по запросу «купить кофе в зёрнах». Но этот запрос вводят всего 10 человек в месяц. А по запросу «кофе в зёрнах», где вы на 15-м месте, — 10 000 человек. И даже с 15-го места вы получаете больше кликов, чем с 1-го по узкому запросу.
Или другой пример: Google начал показывать ваш сайт в блоке «Товары» — и вы исчезли из органической выдачи. Ваша «позиция» упала до нуля, но трафик вырос на 30%, потому что товары кликают чаще.
Поэтому слепо гнаться за позициями — ошибка. Нужно понимать, какие позиции приносят результат.
Как интерпретировать данные
Когда я получаю отчёт по позициям, я не смотрю на средние значения. Я смотрю на:
Динамику по ключевым запросам — растут ли они после внедрения изменений?
Стабильность — нет ли резких просадок без объяснения?
Корреляцию с трафиком — совпадают ли тренды?
Поведение конкурентов — кто вытесняет вас и почему?
Распределение по диапазонам — сколько запросов в топ-3, топ-10, топ-30?
Например, если у вас 60% запросов в топ-10 — это хороший показатель. Если 80% — отличный. Но если 90% запросов в топ-3, а трафик не растёт — возможно, вы упёрлись в потолок спроса.
Также важно учитывать тип запроса:
Информационные («как заварить кофе») — низкая коммерческая ценность, но высокий трафик;
Навигационные («сайт Lavazza») — почти всегда 1-е место, если бренд известен;
Транзакционные («купить кофе Lavazza») — высокая конверсия, но жёсткая конкуренция.
Продвигать нужно разные типы по-разному. И оценивать — тоже.
Google Search Console и Яндекс.Вебмастер
Если вы хотите понять, где ваш сайт реально находится в поисковой выдаче, забудьте про сторонние сервисы. Откройте два инструмента, предоставляющие данные напрямую от поисковых систем: Google Search Console (GSC) и Яндекс.Вебмастер (ЯВМ). Это — ваша первичная правда. Всё остальное — интерпретация.
Многие недооценивают эти инструменты. Они кажутся «простыми», «недостаточно красивыми», «недостаточно детальными». Но именно в них содержится то, что видит поисковая система о вас — без посредников, без парсинга, без искажений.
Что даёт Google Search Console
GSC показывает:
- Какие запросы приводят пользователей на ваш сайт;
- Среднюю позицию по каждому запросу;
- Количество показов и кликов;
- CTR (кликабельность);
- Устройства, с которых приходят клики;
- Страницы, по которым идёт трафик.
Важно понимать: средняя позиция в GSC — это не позиция одного URL по одному запросу. Это усреднённое значение по всем показам. Например, если по запросу «кофе в зёрнах» ваш сайт показывался 100 раз: 60 раз на 3-м месте и 40 раз на 12-м, средняя позиция будет около 6.3. Это не означает, что вы «на шестом месте». Это означает, что система усреднила ваши позиции с учётом персонализации, гео и прочего.
Но даже с этой оговоркой GSC — бесценен. Потому что он показывает реальные показы и клики, а не гипотетические позиции.
Что даёт Яндекс.Вебмастер
ЯВМ работает похоже, но с важными отличиями:
- Он показывает точную позицию по каждому запросу и региону (если включена соответствующая настройка);
- Есть раздел «Позиции в поиске» с фильтрацией по городам;
- Можно увидеть, как менялась позиция по запросу во времени;
- Интеграция с Яндекс.Метрикой позволяет сопоставить позиции с конверсиями.
Особенно ценен ЯВМ для локального бизнеса. Например, салон красоты в Екатеринбурге может отследить, как его позиция меняется именно в этом городе — без «шума» от других регионов.
Почему нельзя полагаться только на GSC и ЯВМ
Несмотря на всю их ценность, у этих инструментов есть ограничения:
Они показывают только те запросы, по которым уже идёт трафик. Если вы только начинаете продвижение по новому запросу, его в отчётах не будет — даже если вы уже на 20-м месте.
Данные агрегированы и частично обезличены. Google скрывает низкочастотные запросы под формулировкой «(other)».
Нет возможности отслеживать конкурентов. Вы видите только себя.
Поэтому GSC и ЯВМ — это основа, но не полная картина. Их нужно дополнять внешними трекерами позиций.
Как совмещать данные: метод «трёх слоёв»
Профессионалы работают с тремя слоями информации:
Внутренние данные — из GSC и ЯВМ (реальные показы, клики, позиции);
Внешние данные — из трекеров позиций (гипотетические позиции по всем запросам, включая те, по которым ещё нет трафика);
Аналитика поведения — из Google Analytics / Яндекс.Метрики (что делают пользователи после клика).
Только когда вы накладываете эти три слоя друг на друга, вы видите полную картину.
Пример. Вы видите в трекере, что по запросу «купить эспрессо-машину» вы на 8-м месте. В GSC этого запроса нет — значит, кликов почти нет. Но вы знаете, что спрос по этому запросу высокий. Вы улучшаете сниппет (заголовок и описание), добавляете структурированные данные, оптимизируете скорость загрузки. Через две недели запрос появляется в GSC с CTR 8% и позицией 6.2. В Яндекс.Метрике видите, что с этой страницы растёт количество заявок. Это — работа с данными как с системой, а не как с набором цифр.
Ловушки алгоритмов: когда «падение позиций» — это рост
Одна из самых опасных иллюзий — считать, что падение позиции всегда плохо. Иногда это признак улучшения.
Вот несколько сценариев:
Google начал показывать ваш сайт в новых форматах
Например, в блоке «Товары», в «Локальных результатах» (Google Maps), в «Видео» или в «Люди также спрашивают». В этом случае ваш URL может исчезнуть из основной органической выдачи — и трекер покажет «позиция = 0». Но на самом деле вы получаете больше видимости, потому что занимаете сразу несколько блоков.
Поисковая система поняла ваш контент лучше
Допустим, у вас была страница «Кофе в зёрнах», и вы продвигали её по запросу «кофе в зёрнах». Но Google заметил, что пользователи часто ищут «арабика в зёрнах» и «эфиопский кофе в зёрнах», и начал показывать вашу страницу по этим запросам. В результате позиция по основному запросу упала (потому что система перераспределила вес), но общий трафик вырос на 40%.
Вы вышли за пределы «информационного пузыря»
Если раньше Google показывал ваш сайт только пользователям с высокой вероятностью конверсии (например, тем, кто уже искал похожие товары), а теперь начал показывать шире — позиция может упасть, потому что вы попали в более конкурентную и менее релевантную аудиторию. Но это — шанс масштабироваться.
Поэтому никогда не реагируйте на падение позиций паникой. Сначала задайте вопрос: «Что изменилось в поведении пользователей и в структуре трафика?»
Конкурентный анализ
Проверять только свои позиции — всё равно что играть в шахматы, глядя только на свои фигуры. Чтобы выиграть, нужно видеть всё поле.
Современные трекеры позволяют добавлять конкурентов и сравнивать:
- По каким запросам они в топе, а вы — нет;
- Как меняются их позиции после их обновлений;
- Какие запросы приносят им трафик, но не приносят вам.
Это особенно важно в нишах с высокой конкуренцией. Например, в e-commerce или юридических услугах.
Один из мощных методов — анализ «дыр» в видимости. Вы берёте топ-10 конкурентов, объединяете их семантические ядра и ищете запросы, по которым:
- Есть трафик;
- Низкая сложность продвижения;
- Ни один из конкурентов не занимает уверенно первые места.
Это — ваши точки роста.
Как строить отчёты, которые имеют значение
Большинство отчётов по позициям бесполезны. Они содержат:
- Среднюю позицию по всем запросам;
- График «вверх-вниз» без контекста;
- Список запросов без фильтрации по ценности.
Профессиональный отчёт отвечает на конкретные вопросы:
Какие изменения на сайте повлияли на видимость?
→ Сравнение позиций до и после (например, после миграции на HTTPS или после обновления контента).
Какие запросы стали приносить больше трафика?
→ Топ-20 запросов по росту показов за последние 30 дней.
Где мы теряем позиции?
→ Запросы с падением позиции более чем на 10 мест за неделю.
Как мы выглядим против ключевых конкурентов?
→ Доля видимости в топ-10 по основным запросам.
Какие возможности мы упускаем?
→ Запросы с высоким спросом, где мы вне топ-30, но конкуренты — в топ-10.
Такой отчёт строится не для «галочки», а для принятия решений.
Дополнительно: как мы подняли видимость на 220% за 4 месяца
Позвольте привести реальный пример (без указания клиента, но с сохранением сути).
Сайт — онлайн-магазин кофе. Проблема: падающий органический трафик, несмотря на то, что позиции в трекере стабильны.
Шаг 1. Анализ GSC
Обнаружили, что 70% трафика приходит по низкочастнотным ключевикам («кофе в зёрнах для эспрессо», «лучший эфиопский кофе в зёрнах»), но в трекере мы отслеживали только общие запросы («кофе в зёрнах»).
Шаг 2. Расширение семантического ядра
Собрали 1200 новых низкочастотных запросов из GSC и конкурентного анализа. Добавили их в трекер с привязкой к конкретным страницам.
Шаг 3. Оптимизация сниппетов
Переписали title и description для 80 страниц, ориентируясь на реальные формулировки запросов.
Шаг 4. Мониторинг по регионам
Выяснили, что в Сибири и на Дальнем Востоке позиции значительно ниже, чем в ЦФО. Запустили локализованные поддомены с учётом региональных предпочтений.
Результат:
- Видимость в Яндексе выросла на 180%;
- В Google — на 220%;
- Органический трафик — на 140%;
- Конверсия с органического трафика — на 22%.
Ключевой вывод: позиции стали расти не потому, что мы «подняли их», а потому, что начали отслеживать те запросы, которые реально работают.








