0

Фильтры за плохую структуру сайта

Опубликовано: 02.11.2014 | Рубрика: Статьи и пресс-релизы

sayt

Каждый алгоритм поисковых систем обладает определенным набором фильтров, которые применяются к сайтам в определенных случаях. Одним из таких фильтров системы «Яндекс» является фильтр за плохую структуру сайта. В тех ситуациях, когда он начинает работать против сайта, веб-ресурс, несмотря на наличие большого количества страниц в индексе, становится практически невидным в поисковой системе. Чаще всего от этого фильтра страдают интернет-магазины.

В том случае, когда сайт стал невидным из-за плохой структуры, вебмастеру нужно провести пересмотр структуры веб-ресурса. Главной целью в данном процессе является выявление дублей страниц. После нужно будет поставить запрет на присвоение им индекса. Данный процесс осуществляется благодаря изменениям в таком файле как robots.txt.

Изменение этого файла является весьма простым, как и большинство различных процессов. Некоторые из них могут быть связаны с электронными деньгами.

Страницами, которые могут повлечь действие вышеупомянутого фильтра, являются страницы сортировок товара, страницы печатной версии, результаты поиска и дубли, которые создают CMS в автоматическом порядке.

Для выхода из-под действия этого фильтра нужно поработать над уникализацией заголовков title, мета-тегов description, keywords. В той ситуации, когда для уникализации последних тегов нужно потратить очень много времени, то лучше их полностью удалить, нежели оставить такими как есть.

 

Предыдущая
«
Следующая
»