68,9 млн визитов AI-краулеров: какие сигналы реально влияют на видимость сайта в AI-поиске
Вокруг AI visibility уже вырос целый набор ритуалов. Кто-то спорит про llms.txt, кто-то массово открывает robots.txt для всех ботов подряд, кто-то ищет волшебный schema-тег, который якобы поднимет бренд в ChatGPT. Поэтому хороши любые данные, которые возвращают разговор на землю.
Одна из самых интересных свежих работ - исследование BotRank по 68,9 млн визитов AI-краулеров. Авторы посмотрели на 858 457 сайтов на Duda и показали не магию, а довольно приземленную вещь: AI-системы чаще ходят туда, где сайту легко доверять, легко читать структуру и легко проверить бизнесовые данные.
Что показало исследование
Цифры там действительно полезные. В феврале 2026 года 59% проанализированных сайтов получили хотя бы один визит AI crawler, а общий объем составил 68,9 млн visits. При этом 81% активности пришелся на OpenAI-related crawling, тогда как у Anthropic было 16,6%, у Perplexity - заметно меньше, а у Google - совсем скромная доля.
Но интереснее другое. Авторы показывают несколько сильных корреляций:
- сайты с 50+ blog posts в среднем получали 1 373,7 crawler visits, а сайты без блога - 41,6;
- сайты с Google Business Profile sync имели 92,8% crawl rate против 58,9% без такого сигнала;
- local schema давала 72,3% crawl rate против 55,2% без нее;
- review integrations тоже заметно коррелировали с частотой посещения.
Важно не перепутать корреляцию и причинность. Исследование не доказывает, что достаточно просто добавить schema и ботов станет больше. Но оно неплохо показывает направление: AI-системы любят сайты, которые проще подтвердить и проще разобрать машинно.
Что это значит на практике
Если убрать шум, вывод очень простой. Для AI-поиска уже мало "быть в индексе". Нужно еще быть удобным источником. То есть дать модели не только текст, но и понятную структуру, свежие факты, согласованные business signals и страницы, из которых легко вытащить ответ.
Это особенно важно для локального SEO, B2B и сервисных сайтов. Когда AI-система проверяет компанию, ей нужно быстро понять, кто вы, где вы, чем занимаетесь, как у вас называются услуги, совпадают ли контакты, есть ли подтверждение извне.
Какие сигналы действительно стоит усиливать
Первый слой - доступность для нужных ботов. OpenAI отдельно пишет, что для discoverability в ChatGPT search сайт не должен блокировать OAI-SearchBot. При этом документация по OpenAI crawlers напоминает, что GPTBot и OAI-SearchBot решают разные задачи.
Второй слой - правильное понимание Google-Extended. В Google Search Central прямо сказано: Google-Extended - это robots token для управления использованием контента в Gemini apps и Vertex AI grounding. Он не влияет на включение сайта в Google Search и не является ranking signal. Это важная поправка, потому что многие до сих пор думают, что разрешение или запрет Google-Extended автоматически что-то меняет в классическом SEO.
Третий слой - структурированные business signals. Полные данные о компании, local schema, согласованные контакты, review sources, GBP sync, понятные service pages и нормальный блог дают AI-системам больше поводов вернуться.
Что делать SEO-команде без иллюзий
Не нужно строить стратегию только вокруг bot access. Частые визиты бота еще не гарантируют, что бренд будут цитировать или рекомендовать. Но если сайт трудно читать, трудно подтверждать и он сам себе противоречит, шансов на нормальную AI-видимость тоже немного.
Рабочий порядок действий здесь такой:
- Проверить robots и убедиться, что вы осознанно разрешаете или запрещаете нужных AI-crawlers.
- Навести порядок в business data: GBP, контакты, адреса, schema, профили.
- Усилить контент не количеством ради количества, а полезными страницами, которые отвечают на реальные вопросы.
- Измерять не только crawl access, но и фактические упоминания бренда в AI-ответах.
Именно четвертый пункт чаще всего упускают. Бот мог прийти, но это еще не значит, что он выбрал вас как источник.
Вывод
Исследование про 68,9 млн AI-crawler visits ценно не из-за громкой цифры. Оно полезно потому, что ломает миф о секретных GEO-хитростях. Чаще обходят не самые хитрые сайты, а самые понятные. И это хорошая новость: вместо фокусов опять работают базовые вещи - структура, достоверность, насыщенность контентом и чистые сигналы о бизнесе.
