68,9 млн визитов AI-краулеров: какие сигналы реально влияют на видимость сайта в AI-поиске

04.04.20264 мин чтения
Карина
SEO-оптимизаторКарина

Вокруг AI visibility уже вырос целый набор ритуалов. Кто-то спорит про llms.txt, кто-то массово открывает robots.txt для всех ботов подряд, кто-то ищет волшебный schema-тег, который якобы поднимет бренд в ChatGPT. Поэтому хороши любые данные, которые возвращают разговор на землю.

Одна из самых интересных свежих работ - исследование BotRank по 68,9 млн визитов AI-краулеров. Авторы посмотрели на 858 457 сайтов на Duda и показали не магию, а довольно приземленную вещь: AI-системы чаще ходят туда, где сайту легко доверять, легко читать структуру и легко проверить бизнесовые данные.

Что показало исследование

Цифры там действительно полезные. В феврале 2026 года 59% проанализированных сайтов получили хотя бы один визит AI crawler, а общий объем составил 68,9 млн visits. При этом 81% активности пришелся на OpenAI-related crawling, тогда как у Anthropic было 16,6%, у Perplexity - заметно меньше, а у Google - совсем скромная доля.

Но интереснее другое. Авторы показывают несколько сильных корреляций:

  • сайты с 50+ blog posts в среднем получали 1 373,7 crawler visits, а сайты без блога - 41,6;
  • сайты с Google Business Profile sync имели 92,8% crawl rate против 58,9% без такого сигнала;
  • local schema давала 72,3% crawl rate против 55,2% без нее;
  • review integrations тоже заметно коррелировали с частотой посещения.

Важно не перепутать корреляцию и причинность. Исследование не доказывает, что достаточно просто добавить schema и ботов станет больше. Но оно неплохо показывает направление: AI-системы любят сайты, которые проще подтвердить и проще разобрать машинно.

Что это значит на практике

Если убрать шум, вывод очень простой. Для AI-поиска уже мало "быть в индексе". Нужно еще быть удобным источником. То есть дать модели не только текст, но и понятную структуру, свежие факты, согласованные business signals и страницы, из которых легко вытащить ответ.

Это особенно важно для локального SEO, B2B и сервисных сайтов. Когда AI-система проверяет компанию, ей нужно быстро понять, кто вы, где вы, чем занимаетесь, как у вас называются услуги, совпадают ли контакты, есть ли подтверждение извне.

Какие сигналы действительно стоит усиливать

Первый слой - доступность для нужных ботов. OpenAI отдельно пишет, что для discoverability в ChatGPT search сайт не должен блокировать OAI-SearchBot. При этом документация по OpenAI crawlers напоминает, что GPTBot и OAI-SearchBot решают разные задачи.

Второй слой - правильное понимание Google-Extended. В Google Search Central прямо сказано: Google-Extended - это robots token для управления использованием контента в Gemini apps и Vertex AI grounding. Он не влияет на включение сайта в Google Search и не является ranking signal. Это важная поправка, потому что многие до сих пор думают, что разрешение или запрет Google-Extended автоматически что-то меняет в классическом SEO.

Третий слой - структурированные business signals. Полные данные о компании, local schema, согласованные контакты, review sources, GBP sync, понятные service pages и нормальный блог дают AI-системам больше поводов вернуться.

Что делать SEO-команде без иллюзий

Не нужно строить стратегию только вокруг bot access. Частые визиты бота еще не гарантируют, что бренд будут цитировать или рекомендовать. Но если сайт трудно читать, трудно подтверждать и он сам себе противоречит, шансов на нормальную AI-видимость тоже немного.

Рабочий порядок действий здесь такой:

  1. Проверить robots и убедиться, что вы осознанно разрешаете или запрещаете нужных AI-crawlers.
  2. Навести порядок в business data: GBP, контакты, адреса, schema, профили.
  3. Усилить контент не количеством ради количества, а полезными страницами, которые отвечают на реальные вопросы.
  4. Измерять не только crawl access, но и фактические упоминания бренда в AI-ответах.

Именно четвертый пункт чаще всего упускают. Бот мог прийти, но это еще не значит, что он выбрал вас как источник.

Вывод

Исследование про 68,9 млн AI-crawler visits ценно не из-за громкой цифры. Оно полезно потому, что ломает миф о секретных GEO-хитростях. Чаще обходят не самые хитрые сайты, а самые понятные. И это хорошая новость: вместо фокусов опять работают базовые вещи - структура, достоверность, насыщенность контентом и чистые сигналы о бизнесе.

Источники для проверки

Вам также может быть интересно

Оставьте свои контакты — мы перезвоним, разберёмся в задаче и предложим оптимальный путь. За плечами более 350 проектов, каждый из которых мы запускали с индивидуального подхода. Гарантируем экспертную консультацию в рабочее время.