Sitemap.xml

typus

Мой дом здесь!
Регистрация
25 Июл 2007
Сообщения
895
Реакции
241
Приветствую, вопрос простой, возможно даже детский, но все же - как лучше для сайта с постоянно добавляемыми страницами - одиночный Sitemap, который регулярно менять на обновленный, либо множественные - добавлять каждый раз новые только с новыми страницами?
 
сайтмат должен быть прописан в robots. Чтоб добавлять новые нужен общий сайтмап где будут рассписаны какие сайтмапы у вас есть.
Итого: добавлять ссылки в новый сайтмап, прописывать его в общий, геморно
2 вариант - просто перегенерируете сайтмап и ниче не трогаете. гугл его сам пройдет. Идеально конечно делать новый и каждый раз добавлять его в вебмастер, тогда гугл за пару дней обойдет весь сайт.
 
Сайтмап делаем один, делаем скриптом, плагином или генератором. Руками такие вещи в 2015 году делать не комильфо. (да и без сайтмапа ПС уже все находят)
 
зачем он вам нужен? у вас вложенность страниц 25 уровней?
sitemap генерится скриптом по расписанию и кешируеется. для большого сайта это процесс ресурсоемкий.
 
Приветствую, вопрос простой, возможно даже детский, но все же - как лучше для сайта с постоянно добавляемыми страницами - одиночный Sitemap, который регулярно менять на обновленный, либо множественные - добавлять каждый раз новые только с новыми страницами?
Смотрите на сайте разработчика вашего CMS, должен быть плагин или дополнение. Не забудьте после генерации указать адрес карты в файл robots.txt.
 
Смотрите на сайте разработчика вашего CMS, должен быть плагин или дополнение. Не забудьте после генерации указать адрес карты в файл robots.txt.
в данном случае сайты, которые постоянно обновляются статьями, на wp. Если я правильно понял, нужно выбрать плагин, который будет сканировать сайт и обновлять sitemap. Было бы идеально, наверное....хотя все равно скорее всего руками надо будет проверять, сколько sitemap-ов не делал, если не проверять автогенерацию, всегда есть некое кол-во дублей...
 
Мне нравится как реализован sitemap в ModX, плагин PDO tools, он динамический и меняет priority в зависимости от времени прошедшего с последнего изменения страницы.
 
Зачем несколько сайтмапов ? Компоненты обычно всё сами делают и ссылки идут в порядке вложенности меню, тут ни дублей, ни гемора, поставил и забыл.
 
в данном случае сайты, которые постоянно обновляются статьями, на wp. Если я правильно понял, нужно выбрать плагин, который будет сканировать сайт и обновлять sitemap. Было бы идеально, наверное....
Sitemap должен быть один, который будет перезаписываться. Не нужно устраивать свалку. Есть плагин для WP, например, Google XML Sitemaps.
хотя все равно скорее всего руками надо будет проверять, сколько sitemap-ов не делал, если не проверять автогенерацию, всегда есть некое кол-во дублей...
Чтобы не было дублей, существует такое понятие, как внутренняя оптимизация. В массиве которой есть инструмет настройки генерации страниц в соответствии с правилами. Плюс к этому закрываете все, что вам не нужно или может вывести на дубли (настройка движка, плагины + robots.txt + панель администратора ПС).
 
Сайтмапы стоит дробить только если у вас очень много страниц
Желательно установить модуль-плагин в CMS который будет его генерировать, если страницы добавляются регулярно и в большом количестве. Если не много то можно при помощи софта, например Screaming Frog их генерировать раз в неделю например.
 
Назад
Сверху