Очень часто на пути веб-мастеров к высоким позициям сайта становится такая проблема, как дублированный контент, так как поисковики отрицательно воспринимают как полный, так и частичный дубль страниц.
Что плохо в дублированном контенте?
Уникальный текст для сайта несет огромную ценность.
Дублированный контент может привести к таким проблемам:
- к понижению страниц Вашего сайта в выдаче поисковиков, так как покупные ссылки приводят пользователя не на ту страницу, которая находится в индексе поисковиков, а также к полному выкидыванию страниц сайта из индекса;
- к меньшей посещаемости Вашего сайта.
Чтобы избежать этих проблем, создавайте уникальный текст для сайта и тестируйте его на наличие дублей. Давайте посмотрим, в каких случаях допускается дублирование контента на сайте или блоге для того, чтобы не допустить негативные последствия.
Источниками дублированного контента являются:
- RSS-ленты;
- страницы для печати;
- дубли контента, которые создаются CMS сайта (страницы категорий, меток, страницы авторов);
- служебные страницы сайта.
Решается данная проблема запретом к индексации некоторых типов страницы веб-сайта.
Как протестировать статью на наличие дублей?
Узнать или есть в сети дубли продвигаемых Вами страниц можно следующими способами:
- С помощью следующих бесплатных программ, таких как адвего плагиатус, double content finder, антиплагиат eTXT;
- Проверка на наличие дублей в режиме «online»: copyscape. ru, findcopy. ru, antipagiat. ru и других;
- При помощи поискового робота. Например, чтобы Яндекс показал скрытые от человека страницы, необходимо вбить в строку поиска «я ищу» (пишите название страницы, которую хотите проверить на дубли). А в строку «на сайте:» впишите имя сайта и нажмите «найти». Делайте это при расширенном поиске. Яндекс покажет страницы с совпадениями.
Дублированный контент. Что делать?
Для начала нужно сделать так называемую, уборку и удалить контент, которые дублируют продвигаемые Вами страницы. Но если текст удалить не получается, мы закрываем его от индексации.
Для этого необходимы следующие инструменты:
Meta-тег “robots” в header страницы – html.
У этого тега могут быть атрибуты:
<meta name="robots" content="follow"> - учитывать ссылки;
<meta name="robots" content="noindex"> - наоборот не индексировать;
<meta name="robots" content="nofollow"> - не брать во внимание ссылки;
<meta name="robots" content="all"> - всё индексировать;
<meta name="robots" content="none"> - ничего не индексировать;
Тег Роботс существует для того, чтобы указать поисковым роботам, на индексацию страницы и на то, можно ли пройти по ссылкам, размещенным на этой странице. – «noindex» – специальный тег Яндекс. С помощью noindex можно закрыть часть текста, который расположен на странице. При том, что Робот увидит его, он не учтет этот текст.
Файл «Robots.txt»
В наших предыдущих выпусках мы не раз говорили о таком важном файле, как robots.txt. Сегодня хочется напомнить, что этот текстовый файл расположен в корневой директории веб-сайта. Он записывает специальные инструкции для поисковиков. И эти инструкции могут запретить к индексированию определенные страницы сайта и целые разделы. Также они могут указывать на основное зеркало сайта, давать рекомендации поисковику и соблюдать определенные поисковые интервалы между скачиваниями с сервера документов.
О том, как сделать файл robots.txt для WordPress можете прочитать из нашей статьи.
Вывод
Как Вы заметили, в борьбе с дублями контента нет ничего сложного и их появление можно предотвратить. С самого начала, при создании веб-сайта нужно произвести хорошую техническую оптимизацию сайта. Также решению проблем с дублями контента, может помочь создание карт веб-сайта. Это особенно касается тех сайтов, контент которых ежедневно обновляется. Уникальный текст для сайта – это одно из главных условий успешного продвижения Вашего сайта в поисковиках. Но, к сожалению, даже уникальные статьи, написанные по заказу или самостоятельно, не всегда могут Вас избавить от дублирования контента. Устранив вовремя на своем сайте данную проблему, Вы сможете добиться заметных результатов в продвижении сайта поисковиками.