Анализ конкурентов
Воронка для автоматического поиска и анализа конкурентов. Находит сайты конкурентов через поисковую систему, извлекает контент и анализирует его с помощью GPT.
Автоматизировать сбор информации о конкурентах: найти их сайты, извлечь ключевые данные (услуги, цены, позиционирование) и получить структурированный аналитический отчет.
Схема воронки
Заголовок раздела «Схема воронки»Yandex Search → Site Crawl → GPT FilterYandex Search находит сайты по заданным поисковым запросам. Site Crawl извлекает текстовый контент со страниц. GPT Filter анализирует контент и формирует структурированный отчет.
Требования
Заголовок раздела «Требования»- Список поисковых запросов для поиска конкурентов.
- Баланс токенов (~15 токенов на одного конкурента).
Пошаговая настройка
Заголовок раздела «Пошаговая настройка»Шаг 1. Создайте воронку
Заголовок раздела «Шаг 1. Создайте воронку»- Создайте новую воронку с названием, например: “Анализ конкурентов — CRM-системы”.
- Откройте редактор воронки.
Шаг 2. Настройте Yandex Search
Заголовок раздела «Шаг 2. Настройте Yandex Search»- Добавьте процессор Yandex Search на холст.
- Откройте настройки:
- Поисковые запросы: введите запросы для поиска конкурентов (по одному на строку).
- Регион: выберите целевой регион (например, Россия).
- Количество результатов: 10-20 на запрос.
- Сохраните настройки.
Примеры поисковых запросов для разных ниш:
Для CRM-систем:
CRM система для бизнесаCRM для отдела продажлучшие CRM системы 2026автоматизация продаж CRMДля строительных компаний:
строительная компания Москвагенподряд коммерческое строительствопроектирование и строительство зданийДля IT-услуг:
разработка мобильных приложений на заказзаказная разработка ПОIT аутсорсинг компанияШаг 3. Настройте Site Crawl
Заголовок раздела «Шаг 3. Настройте Site Crawl»- Добавьте процессор Site Crawl на холст.
- Соедините выход Yandex Search с входом Site Crawl.
- Откройте настройки:
- URL страницы:
{{url}}— переменная из результатов поиска. - Глубина обхода: 1 (только указанная страница) или 2 (страница + ссылки с нее).
- Максимум страниц: 3-5 на сайт (главная, услуги, о компании).
- Извлекать: текст (без HTML-тегов).
- Таймаут: 30 секунд.
- URL страницы:
- Сохраните настройки.
Шаг 4. Настройте GPT Filter
Заголовок раздела «Шаг 4. Настройте GPT Filter»- Добавьте процессор GPT Filter на холст.
- Соедините выход Site Crawl с входом GPT Filter.
- Откройте настройки:
- Режим: Анализ (не фильтрация, а обогащение данных).
- Промпт для анализа: см. шаблон ниже.
- Модель: GPT-4o (рекомендуется для качественного анализа).
- Лимит пакетов: 50.
- Сохраните настройки.
Шаблон промпта для анализа конкурентов:
Проанализируй контент с сайта конкурента и извлеки следующую информацию в формате JSON:
1. company_name -- название компании2. main_services -- список основных услуг/продуктов (массив строк)3. target_audience -- целевая аудитория4. pricing_model -- модель ценообразования (если указана)5. key_advantages -- ключевые преимущества, которые они выделяют (массив строк)6. technologies -- упомянутые технологии (массив строк)7. team_size -- размер команды (если указан)8. years_in_business -- сколько лет на рынке (если указано)9. competitive_strength -- оценка силы конкурента от 1 до 1010. summary -- краткое описание конкурента в 2-3 предложениях
Контент сайта:{{content}}
URL: {{url}}
Если какая-то информация отсутствует на сайте, укажи null для этого поля.Ответ строго в формате JSON без дополнительного текста.Шаг 5. Запустите и проанализируйте
Заголовок раздела «Шаг 5. Запустите и проанализируйте»- Запустите процессоры последовательно: Yandex Search, затем Site Crawl, затем GPT Filter.
- После завершения перейдите на вкладку Данные процессора GPT Filter.
- Экспортируйте результаты для дальнейшего анализа.
Ожидаемый результат
Заголовок раздела «Ожидаемый результат»Пример выходного data packet:
{ "url": "https://example-crm.ru", "company_name": "ExampleCRM", "main_services": [ "CRM для отдела продаж", "Автоматизация маркетинга", "Аналитика и отчеты" ], "target_audience": "Средний и крупный бизнес, B2B-компании", "pricing_model": "Подписка от 990 руб/мес за пользователя", "key_advantages": [ "Интеграция с 1С", "Мобильное приложение", "Бесплатный тариф до 5 пользователей" ], "technologies": ["React", "PostgreSQL", "Kubernetes"], "team_size": "50+ сотрудников", "years_in_business": "8 лет", "competitive_strength": 7, "summary": "Зрелая CRM-система для B2B с фокусом на интеграции с российскими бизнес-системами. Сильная сторона -- интеграция с 1С и локализация."}Стоимость
Заголовок раздела «Стоимость»| Процессор | Стоимость |
|---|---|
| Yandex Search | ~3 токена на запрос |
| Site Crawl | ~2 токена на сайт |
| GPT Filter | ~10 токенов на анализ |
| Итого на 1 конкурента | ~15 токенов |
Советы по улучшению результатов
Заголовок раздела «Советы по улучшению результатов»- Уточняйте поисковые запросы. Чем точнее запрос, тем релевантнее результаты. Добавляйте город, нишу, ключевые слова.
- Увеличьте глубину обхода. Для более детального анализа установите глубину обхода 2 и максимум 5 страниц — Site Crawl соберет данные со страниц “О компании”, “Услуги”, “Цены”.
- Адаптируйте промпт. Измените поля в промпте под свою нишу. Для e-commerce добавьте анализ ассортимента, для SaaS — анализ тарифов.
- Используйте фильтры. Добавьте фильтр
competitive_strength >= 5для отсеивания слабых конкурентов.
Типичные ошибки
Заголовок раздела «Типичные ошибки»- Нерелевантные результаты поиска: уточните поисковые запросы, добавив ключевые слова вашей ниши.
- Site Crawl не может извлечь контент: некоторые сайты блокируют парсинг. Эти пакеты будут помечены как ошибки, но воронка продолжит работу с остальными.
- GPT возвращает некорректный JSON: убедитесь, что в промпте четко указано требование формата JSON. При необходимости уменьшите количество полей.
Что дальше
Заголовок раздела «Что дальше»- Добавьте Company Info V2 после Yandex Search для получения финансовых данных конкурентов.
- Настройте регулярный запуск воронки для мониторинга изменений у конкурентов.
- Используйте результаты для формирования конкурентной матрицы в Excel.