Главная / Создание и продвижение сайтов / SEO / Файл sitemap.xml — карта сайта для поисковиков

Файл sitemap.xml — карта сайта для поисковиков

Продолжаю приводить в порядок собственные, на данный момент неухоженные блоги — делать все необходимое, чтобы они были интересны как живым посетителям, так и роботам всех мастей, которых засылают поисковые системы. Казалось бы, блоговодство — дело не сложное, пиши себе периодически в блог грамотным русским языком, добавляй фотографии — там глядишь, и посетители подтянутся. Так нет же, надо еще и над шаблоном пошаманить, и с плагинами всякими разобраться, и про оптимизацию текстов не забыть.

Про «неухоженность» собственных блогов я не зря упомянул. Очень многих обязательных вещей на них по-прежнему не хватает. О том, как на сайте избавиться от дублей с помощью файла robots.txt, на прошлой неделе была статья. Столь же необходимой для оптимизации индексации любого сайта является его карта, создаваемая в помощь поисковикам.

Традиционно картой сайта для роботов служит файл (или несколько файлов) в формате XML, содержащий адреса веб-страниц, предназначенные для сканирования и добавления в индекс. и определенные данные, относящиеся к этим адресам — дату последнего изменения, предполагаемую частоту изменений и приоритет — для того, чтобы процесс сканирования происходил грамотно. Файл sitemap.xml — карта сайта для поисковых роботов, помогающая собрать воедино информацию обо всех страницах сайта (блога) наиболее быстрым способом. В файле robots.txt принято прописывать путь к карте сайта в качестве подсказки для ботов.

Существует немало онлайн генераторов файла sitemap.xml, многие из них частично бесплатны — например, генерируют и позволяют скачать карту сайта, содержащую до 500 ссылок на страницы для заданного доменного имени. Недостаток подобных сервисов не только в ограничении на количество страниц, но и в том, что после появления новых страниц на сайте, необходимо каждый раз создавать карту заново. Хотя для этого и требуется минимум усилий — ввод имени сайта в определенное поле и единственное нажатие кнопки, фактически задача обновления и замены карты сайта на актуальную ложится на плечи владельца сайта.

Но, так как мы имеем дело с блогом на WordPress, наиболее очевидное решение — использовать соответствующий плагин, коих к сегодняшнему дню написано немало. Остается лишь выбрать достойный. Я не стал искать трудных путей, использовав, пожалуй, самый распространенный плагин для автоматического создания карты сайта на WordPress — Google XML Sitemaps, скачанный на данный момент из хранилища WordPress более 17 миллионов раз. Как утверждают некоторые популярные блогеры, столь же функционального аналога этого плагина пока просто не существует. И, несмотря на наличие слова Google в названии плагина, создаваемая им карта сайта прекрасно используется всеми остальными поисковиками ввиду универсальности формата файла sitemap.xml.

sitemap-xml-karta-sajta-dlya-robotov-01

После установки и активации этого плагина в меню консоли WordPress появляется пункт Настройки — XML-Sitemap. Настройка плагина Google XML Sitemaps не должна вызвать трудностей, т.к. плагин этот большей частью русифицирован — наряду с русифицированными опциями имеются и не переведенные пункты, однако не слишком сложные для понимания. В крайнем случае всегда можно воспользоваться онлайн-переводчиком.

sitemap-xml-karta-sajta-dlya-robotov-02

В группе настроек «Базовые параметры» достаточно поставить галочки напротив пунктов об уведомлении поисковых систем Google и Bing об изменениях в блоге, использовании стандартного формата файла и пути к нему (http://ваш_сайт/sitemap.xml).

sitemap-xml-karta-sajta-dlya-robotov-03

Приоритет статьи есть смысл выставить одинаковым для всех статей блога, хотя по умолчанию предлагается вариант с вычислением приоритета по количеству комментариев к статьям. На мой взгляд, это не правильно.

sitemap-xml-karta-sajta-dlya-robotov-04

Что касается содержания карты сайта, то здесь, в зависимости от структуры и содержания блога, можно поэкспериментировать. Пока я отметил лишь малую часть пунктов, отвечающих за включение в карту сайта sitemap.xml главной страницы и всех записей (статей) с указанием времени последней модификации. Этого должно быть достаточно.

sitemap-xml-karta-sajta-dlya-robotov-05

Частоту сканирования разделов сайта можно не менять. Я все настройки оставил по умолчанию, т.к., если верить предупреждению, выведенному в этом разделе, поисковые роботы не особо-то и считаются с заданными рекомендациями по частоте посещения.

sitemap-xml-karta-sajta-dlya-robotov-06

В приоритетах тоже ничего менять не стал, т.к. в карту сайта у меня попадают лишь главная и статьи — с одинаковым приоритетом.

В настройках карты сайта sitemap.xml есть и еще два пункта, один из которых позволяет включить в карту сайта страницы, не относящиеся к сайту, а второй — исключить из карты отдельные категории или страницы. Думаю, на начальном этапе развития блога на WordPress это вряд ли актуально.

Вот и все. Остается лишь сохранить внесенные изменения нажатием на кнопку Обновить параметры и добавить полученный файл в Яндекс Вебмастер.

sitemap-xml-karta-sajta-dlya-robotov-07

sitemap-xml-karta-sajta-dlya-robotov-восстановлено

Уверен, что у большинства читающих эти строки карта сайта для поисковиков уже имеется. Тем же, у кого ее все еще нет (как у меня до недавних пор), эта статья о том, как сделать правильный файл sitemap.xml, надеюсь, окажется полезной. Буду рад, если поделитесь в комментариях, с помощью каких плагинов WordPress создавали карту своего блога.

Расскажите об этой статье в соцсетях:

2 комментария

  1. Использую данный плагин. Ну а настройки нужно сравнить с Вашими рекомендованными.

    • Здесь не столько рекомендации, сколько попытки найти лучшее решение для собственных блогов. При том, что эту задачку тысячи раз уже решали до меня )

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *