0
Оценить
315
  • Описание
  • Ограничения
  • Требования

Robots.txt - редактор для файлов robots.txt. Такие файлы располагаются в корневой директории сайтов и используются для хранения технических данных, предназначенных для поисковых ботов. При помощи данной программы пользователи могут редактировать такие файлы, запрещать или разрешать к индексации произвольные разделы сайта, блокировать нежелательных ботов, закачивать файлы robots.txt на сервер через FTP, отслеживать визиты поисковых ботов и формировать соответствующие отчеты в форматах HTML, CSV и XML. В базе приложения содержатся данные по более чем 150 различным юзер-агентам, которые используются интернет-ботами. Программа может анализировать серверные логи (в т.ч. - запакованные) и информировать пользователя о проиндексированных страницах сайта, о страницах с ошибками (например, 404), редиректах, нарушениях политики, определенной в файле robots.txt и т.д. Есть возможность экспорта списка IP-адресов поисковых ботов для нужд клоакинга. Отчеты, подготавливаемые программой, можно настраивать и распечатывать.

Автор обзора : Алексей Астафьев, 24.11.2014
Оценка: 

Ограничения бесплатной версии

  • нельзя добавлять новых поисковых ботов;
  • нельзя сохранять файлы robots.txt;
  • нельзя экспортировать результаты анализа лог-файлов;
  • некоторые другие ограничения.

Специальные требования

Скриншоты и видео:

Категория:
Системы:
Windows
Размер: 2,8 Мб
Автор:
Языки:
Английский
Лицензия: Demo (Платная)
99.90 $
Обновление: 24.11.2014
Версия: 2.02
Подписка на обновления

Новые отзывы о Robots.txt

Хороших отзывов пока нет. Оставьте свой и помогите другим с выбором!
Добавить отзыв

Наборы c этой программой

» Программы для раскрутки сайта
Набор программы для раскрутки сайтов, проверки текста на уникальность и его защиты от плагиата, а также для...

Вопросы и ответы по программе

Пока нет вопросов о «Robots.txt». Ваш может стать первым!
Задайте свой вопрос!