УСТАНОВКА И ПЕРВЫЙ ЗАПУСК:1. УСТАНОВКА ПРОГРАММЫ• Скачайте установочный файл для вашей ОС (Windows, macOS, Linux)
• Запустите установщик и следуйте инструкциям
• Windows: ScreamingFrogSEOSpider-VERSION.exe устанавливается в C:\Program Files (x86)\Screaming Frog SEO Spider\
• macOS: Перетащите приложение из .dmg файла в папку Applications
• Linux (Ubuntu): Установите .deb пакет через dpkg или GUI
2. АКТИВАЦИЯ ЛИЦЕНЗИИ (для платной версии)• Откройте меню Licence > Enter Licence Key
• Введите username и licence key, полученные при покупке
• После активации перезапустите программу
• Бесплатная версия ограничена 500 URL, платная — без лимитов
3. НАЧАЛЬНАЯ НАСТРОЙКА ПАМЯТИ И ХРАНИЛИЩАDatabase Storage Mode (рекомендуется для SSD):• File > Settings > Storage Mode > Database Storage (по умолчанию)
• Преимущества: автосохранение краулов, быстрое открытие, поддержка миллионов URL
• Требуется SSD для оптимальной скорости
Memory Storage Mode (для HDD или малых краулов):• File > Settings > Storage Mode > Memory Storage
• Хранит данные в RAM, требует ручного сохранения
Настройка выделения памяти:• File > Settings > Memory Allocation
• Для краулов до 200k URL: 8GB RAM
• Для краулов до 2M URL: 4GB RAM в Database Mode
• Для краулов 2M+ URL: 16GB+ RAM + SSD обязательно
ЗАПУСК ПЕРВОГО КРАУЛА:1. РЕЖИМ SPIDER (обход сайта)• В поле "Enter URL to spider" введите URL сайта (например:
https://example.com)• Выберите режим обхода в верхнем свитчере:
- Subdomain: только один поддомен (www.example.com)
- All Subdomains: все поддомены (www, blog, shop и т.д.)
- Subfolder: конкретная подпапка (/blog/, /products/)
• Нажмите кнопку "Start"
• Краул начнется и будет обновляться в реальном времени
2. РЕЖИМ LIST (список URL)• Mode > List
• Вставьте или загрузите список URL для проверки
• Полезно для миграций, аудита редиректов, проверки конкретных страниц
• Нажмите "Start"
3. КОНТРОЛЬ КРАУЛА• Pause — приостановить краул
• Resume — продолжить краул
• Clear — очистить данные и начать новый краул
• Внизу интерфейса: скорость, общее количество URL, оставшиеся URL
БАЗОВАЯ КОНФИГУРАЦИЯ КРАУЛА:1. ОСНОВНЫЕ НАСТРОЙКИ ОБХОДАConfiguration > Spider > Basic
Что сканировать:• Check Images — сканировать изображения
• Check CSS — CSS файлы
• Check JavaScript — JS файлы
• Check SWF — Flash файлы
• Check External Links — внешние ссылки
• Снимите галочки для фокусировки только на HTML
2. ОГРАНИЧЕНИЯ КРАУЛАConfiguration > Spider > Limits
• Max URI To Crawl — максимум URL (например, 10000)
• Max Crawl Depth — глубина обхода (например, 5 уровней)
• Max Query String Parameters — лимит параметров в URL
• Max Folder Depth — максимальная глубина папок
3. EXCLUDE (ИСКЛЮЧЕНИЯ)Configuration > Spider > Exclude
• Исключите URL по regex паттерну
• Примеры:
- .*\?.*utm_.* — исключить UTM параметры
- .*/admin/.* — исключить админку
- .*\.pdf$ — исключить PDF файлы
4. INCLUDE (ВКЛЮЧЕНИЯ)Configuration > Spider > Include
• Сканировать ТОЛЬКО URL, соответствующие паттерну
• Пример: .*blog.* — только раздел блога
5. JAVASCRIPT RENDERINGConfiguration > Spider > Rendering
• AJAX/JavaScript Rendering Mode: включить для SPA (React, Angular, Vue)
• Использует встроенный Chromium браузер
• Режимы:
- Disabled — без рендеринга (только статичный HTML)
- Text Only — рендерит текст
- Screenshot — делает скриншоты страниц
6. USER AGENTConfiguration > Spider > User-Agent
• Выберите UA для эмуляции:
- Screaming Frog SEO Spider (по умолчанию)
- Googlebot Desktop
- Googlebot Smartphone
- Custom — свой UA
ПРОСМОТР И АНАЛИЗ ДАННЫХ:1. ГЛАВНОЕ ОКНО — ВКЛАДКИInternal: Все внутренние URL сайта
• Фильтры: HTML, JavaScript, CSS, Images, PDF и др.
• Все данные краула в одной таблице
Response Codes: Группировка по HTTP статусам
• Success (2xx) — успешные ответы
• Redirection (3xx) — редиректы
• Client Error (4xx) — ошибки клиента (404, 403)
• Server Error (5xx) — ошибки сервера
Page Titles: Анализ title тегов
• Фильтры: Missing, Duplicate, Over X Characters, Under X Characters
Meta Description: Анализ meta description
• Missing, Duplicate, Over/Under X Characters
Meta Keywords: meta keywords (устарели для SEO, но иногда нужны)
H1 / H2: Заголовки H1 и H2
• Missing, Duplicate, Multiple
Images: Все изображения
• Missing Alt Text, Over X KB
Canonicals: Canonical теги
• Missing, Self Referencing, Canonicalised
Directives: Meta robots и X-Robots-Tag
• Noindex, Nofollow, Blocked by Robots.txt
Pagination: rel=next/prev атрибуты
Hreflang: Мультиязычная разметка
Structured Data: Schema.org markup (JSON-LD, Microdata)
2. НИЖНЕЕ ОКНО — ДЕТАЛИ URLКликните на URL в верхнем окне, чтобы увидеть:
Inlinks: Входящие ссылки на эту страницу
• Столбцы: Source (откуда), Target (куда), Anchor Text, Type (ahref/canonical)
• Критично для анализа битых ссылок и редиректов
Outlinks: Исходящие ссылки с этой страницы
Image Details: Детали изображений на странице
• Alt Text, Size, Source URL
Resources: CSS, JS, fonts загружаемые страницей
Duplicate Details: Дубликаты и похожий контент
URL Details: Детальная информация об URL
• Status Code, Indexability, Canonical, Meta Robots
3. ПРАВАЯ ПАНЕЛЬ — OVERVIEW & ISSUESOverview: Сводка краула в реальном времени
• Количество URL в каждом фильтре
• Кликабельно — переход к фильтру
Issues: Проблемы, предупреждения, возможности
• Приоритеты: High, Medium, Low
• Типы: Issue, Warning, Opportunity
• Объяснения на 5 языках
ЭКСПОРТ ДАННЫХ:1. ЭКСПОРТ ВКЛАДОК И ФИЛЬТРОВ• Кнопка "Export" в верхнем левом углу
• Экспортирует текущую вкладку с активным фильтром
• Форматы: CSV, Excel (.xls, .xlsx), Google Sheets
2. ЭКСПОРТ ДЕТАЛЕЙ URL• Выделите URL в верхнем окне
• Правый клик > Export > выберите тип (Inlinks, Outlinks, etc.)
• Мультивыделение: Ctrl/Cmd + клик для экспорта нескольких URL
3. BULK EXPORTBulk Export (меню сверху)
Популярные опции:• Response Codes > Client Error (4xx) Inlinks — все источники 404
• Links > All Inlinks — все входящие ссылки на сайте
• Images > Missing Alt Text — изображения без alt
• Structured Data > Validation Errors — ошибки разметки
4. EXPORT TO GOOGLE SHEETS• Export format > Google Sheets
• Manage > Add Account > авторизуйтесь
• Экспорт попадет в Google Drive > Screaming Frog SEO Spider
СОХРАНЕНИЕ И ОТКРЫТИЕ КРАУЛОВ:В DATABASE STORAGE MODE:• Краулы автосохраняются
• File > Crawls — просмотр всех сохраненных
• Правый клик: Rename, Duplicate, Delete
• Export: File > Export > .dbseospider (для DB) или .seospider (универсальный)
В MEMORY STORAGE MODE:• File > Save — сохранить как .seospider
• File > Open — открыть .seospider
• Можно сохранить в процессе (pause → save → resume)
ПРОДВИНУТЫЕ ФУНКЦИИ:1. CUSTOM SEARCH (поиск в HTML)Configuration > Custom > Search
• Ищите всё что угодно в исходном коде
• Regex поддерживается
• Примеры: GA tracking код, email адреса, конкретный текст
2. CUSTOM EXTRACTION (парсинг данных)Configuration > Custom > Extraction
• XPath, CSS Selector, Regex для извлечения данных
• Примеры: цены, SKU, даты, авторы, рейтинги
• Результат в отдельной вкладке
3. ИНТЕГРАЦИИ С APIGoogle Analytics:Configuration > API Access > Google Analytics
• Подключите GA аккаунт для обогащения данных трафиком
Google Search Console:Configuration > API Access > Google Search Console
• Импортируйте данные по кликам и позициям
PageSpeed Insights:Configuration > API Access > PageSpeed Insights
• Массовый аудит Core Web Vitals
Ahrefs / Majestic / Moz:• Добавьте API ключ для метрик внешних ссылок
4. AUTHENTICATION (авторизация)Configuration > Spider > Authentication
• Basic HTTP Authentication
• Digest Authentication
• Form-Based Authentication (логин через форму)
• NTLM Authentication
5. CUSTOM ROBOTS.TXTConfiguration > robots.txt > Custom
• Загрузите robots.txt и отредактируйте
• Тестируйте правила до применения на сайте
• Полезно для staging окружений
6. SCHEDULING (планировщик)File > Scheduling
• Запускайте краулы по расписанию
• One-off или recurring (daily, weekly, monthly)
• Автоэкспорт результатов в Google Sheets
• Email уведомления
ВИЗУАЛИЗАЦИИ:1. FORCE-DIRECTED CRAWL DIAGRAMVisualisations > Force-Directed Crawl Diagram
• Интерактивный граф внутренней перелинковки
• Зелёные — индексируемые, красные — неиндексируемые
• Правый клик > Focus для детализации
2. DIRECTORY TREE DIAGRAMVisualisations > Directory Tree Diagram
• Визуализация URL структуры сайта
• Группировка по папкам
3. WORD CLOUDS• Inlink Anchor Text Word Cloud — анкоры ссылок
• Body Text Word Cloud — текст на странице
REPORTS (ОТЧЁТЫ):Reports (меню сверху)
Crawl Overview Report: Общая сводка краула
All Redirects: Все редиректы и цепочки
Redirect Chains: Цепочки из 2+ редиректов
Canonicals Reports: Проблемы с canonical
Pagination Reports: Ошибки rel=next/prev
Hreflang Reports: 7 отчётов по hreflang
Insecure Content: HTTP контент на HTTPS страницах
Orphan Pages: Страницы без внутренних ссылок
ГОРЯЧИЕ КЛАВИШИ:• Ctrl/Cmd + F — поиск в таблице
• Ctrl/Cmd + E — экспорт текущей вкладки
• Ctrl/Cmd + S — сохранить краул
• Ctrl/Cmd + O — открыть краул
• Del — удалить выбранный URL из таблицы
• Right Click — контекстное меню для быстрого доступа
СОВЕТЫ И ТРИКИ:1. СКОРОСТЬ КРАУЛА• Configuration > Spider > Speed
• Threads: начните с 5-10, увеличивайте осторожно (риск блокировки)
• Request Timeout: 30 сек по умолчанию
• Delay Between Requests: 0 сек (используйте 1-2 сек на чувствительных серверах)
2. ОБХОД БЛОКИРОВОК• Изменяйте User-Agent
• Используйте Proxy в Configuration > Network > Proxy Settings
• Добавляйте Custom Headers (например, Referer)
• Снижайте скорость (больше delay между запросами)
3. РАБОТА С БОЛЬШИМИ САЙТАМИ• Разбивайте на подпапки (Subfolder режим)
• Используйте Include фильтры
• Установите Max Crawl Depth = 3-4
• Database Storage Mode обязателен
4. АНАЛИЗ КОНКУРЕНТОВ• Краульте сайт конкурента (режим List)
• Сравните структуру URL, titles, descriptions
• Используйте Custom Search для поиска аналитики конкурента
• Экспортируйте в Google Sheets для сравнения
5. РЕДИРЕКТ ЧЕЙНЫ И ПЕТЛИ• Reports > All Redirects > Redirect Chains
• Ищите цепочки 3+ редиректов (замедляют индексацию)
• Диагностируйте редирект петли (A → B → A)
6. ПОИСК СЛОМАННЫХ ССЫЛОК• Response Codes > Client Errors (4xx)
• Экспортируйте Inlinks этих 404
• Исправьте на фронтенде или редиректьте
7. SEO AUDIT ЗА 5 МИНУТ• Запустите краул с режимом All Pages
• Перейдите на вкладку Issues
• Сортируйте по High Priority
• Экспортируйте в Excel
АВТОМАТИЗАЦИЯ И ИНТЕГРАЦИИ:1. API SCREAMING FROG• Запустите Local API: File > Settings > API > Enable Local API
• Порт: 8080 (по умолчанию)
• Примеры запросов:
- GET
http://localhost:8080/api/v1/crawls — список краулов
- POST
http://localhost:8080/api/v1/crawls — создать новый краул
- GET
http://localhost:8080/api/v1/crawls/{id}/run — запустить краул
2. ИНТЕГРАЦИЯ С n8n• Используйте HTTP модуль для вызова Screaming Frog API
• Запускайте краулы по расписанию (cron)
• Отправляйте результаты в Slack, email, Google Sheets
3. SCRIPTING• Bash/Python для автоматизации экспорта
• Парсирование .seospider файлов (на самом деле это SQLite DB)
• Регулярные аудиты без участия человека
ЧАСТЫЕ ОШИБКИ:1. НЕПРАВИЛЬНАЯ ГЛУБИНА КРАУЛА• Слишком глубокий краул = бесконечные циклы
• Установите Max Crawl Depth = 3-5
• Используйте Exclude фильтры для параметров
2. ЗАБЫВАЮТ ИСКЛЮЧИТЬ ПАРАМЕТРЫ• URL с ?page=1&page=2&page=3 создают дубликаты
• Добавьте в Exclude: .*\?.*
• Или используйте параметры в Configuration > Spider > URLs
3. НЕ ТЕСТИРУЮТ ROBOTS.TXT• Программа соблюдает robots.txt
• Проверьте, не блокируете ли вы важные разделы
• Configuration > robots.txt > View для проверки
4. ИГНОРИРУЮТ АВТОРИЗАЦИЮ• Если контент за логином, используйте Authentication
• Иначе краул вернёт только 403 Forbidden
5. ЗАПУСКАЮТ КРАУЛ НА БОЕВОМ СЕРВЕРЕ БЕЗ СОГЛАСОВАНИЯ• Могу вызвать DDoS подозрения
• Договоритесь с владельцем сайта
• Используйте лимиты скорости
ЗАКЛЮЧЕНИЕ:Screaming Frog SEO Spider — это незаменимый инструмент для SEO специалистов, разработчиков и маркетологов. С помощью этого руководства вы сможете:
✓ Быстро диагностировать SEO проблемы
✓ Аудировать структуру сайта
✓ Находить и исправлять ошибки индексации
✓ Анализировать конкурентов
✓ Автоматизировать регулярные аудиты
✓ Экспортировать данные для дальнейшей обработки
Начните с базовых функций (Spider режим, основные фильтры), постепенно переходите на продвинутые (API, Custom Extraction, Scheduling). Инвестируйте в платную версию, если работаете с крупными сайтами (10k+ страниц).
Удачи в SEO оптимизации! 🚀