Поддержать

Генератор Robots для сайта

Составить правильный Robots.txt для сайта - это первый шаг на пути SEO продвижения вашего проекта. С помощью этого инструмента, вы сможете создать файл, соблюдая все правила поисковых систем. Основным плюсом данного инструмента является то, что здесь вы сможете сразу настроить правила индексации для всех известных поисковых роботов.

Основные данные


Разрешить роботу индексировать сайт

Дефолтные настройки под CMS

Код для установки на сайт


Как создать правильный Robots.txt

Что бы правильно составить настройки для поисковых систем, рекомендую вам воспользоваться данным инструментом.

Что такое robots.txt?

Robots.txt (Роботс) — это текстовый файл (.txt) с кодировкой UTF-8, который находится в корне (корневой директории) сайта и служит для обозначения разрешений и запретов индексации для поисковых роботов.

Для создания Robots.txt вам необходимо заполнить все строчки в «основные данные».

Каждое из этих полей отвечает за свою функцию:

После того, как вы указали все необходимые данные, вам останется указать галочками те поисковые системы, доступ которым вы хотите разрешить. По умолчанию разрешён доступ для всех.

Особенности сервиса

Я разработал инструмент с учётом всех пожеланий пользователей портала WD TOOLS. На данный момент вы можете сгенерировать правильный роботс для CMS: WordPress, 1С-Bitrix, MODX Evo, MODX Revo, Joomla, uCoz, Opencart, Drupal, Blogger, Magento, TYPO3.

После выбора все нужных настроек, вы сможете скачать файл или скопировать получившийся результат в буфер обмена.

Для проверки установки файла, создан удобный букмарклет.


Перетащите букмарклет себе в закладки и пользуйтесь инструментом проще!