0 Фильтры за плохую структуру сайта Опубликовано: 02.11.2014 | Рубрика: Статьи и пресс-релизы Каждый алгоритм поисковых систем обладает определенным набором фильтров, которые применяются к сайтам в определенных случаях. Одним из таких фильтров системы «Яндекс» является фильтр за плохую структуру сайта. В тех ситуациях, когда он начинает работать против сайта, веб-ресурс, несмотря на наличие большого количества страниц в индексе, становится практически невидным в поисковой системе. Чаще всего от этого фильтра страдают интернет-магазины. В том случае, когда сайт стал невидным из-за плохой структуры, вебмастеру нужно провести пересмотр структуры веб-ресурса. Главной целью в данном процессе является выявление дублей страниц. После нужно будет поставить запрет на присвоение им индекса. Данный процесс осуществляется благодаря изменениям в таком файле как robots.txt. Изменение этого файла является весьма простым, как и большинство различных процессов. Некоторые из них могут быть связаны с электронными деньгами. Страницами, которые могут повлечь действие вышеупомянутого фильтра, являются страницы сортировок товара, страницы печатной версии, результаты поиска и дубли, которые создают CMS в автоматическом порядке. Для выхода из-под действия этого фильтра нужно поработать над уникализацией заголовков title, мета-тегов description, keywords. В той ситуации, когда для уникализации последних тегов нужно потратить очень много времени, то лучше их полностью удалить, нежели оставить такими как есть. Facebook Twitter Google+ Telegram Vkontakte Записи по теме: Продвижение сайта Description и keywords. Каково их влияние на ранжирование? Идеальная CMS для сайтов MFA и сателлитов. Kandidat CMS. Оптимизация сниппетов при продвижении сайта Ошибки при продвижении сайта Почему так важна поисковая раскрутка? SEO: советы по продвижению интернет-магазина Пару слов о крутых SEO-компаниях Предыдущая « «Гугл» борется с торрент-трекерами Следующая Особенности фильтра «Яндекса» «ты — спамный» »