Кейс – снятие фильтра от Яндекса

Алексей Думчев
10 Января 2015 г, 9:17
   13
Кейс – снятие фильтра от Яндекса

Мы подготовили показательный пример того, как качественная работа над сайтом помогла в короткие сроки снять фильтр.

Исходные данные:
- возраст менее года;
- ТИЦ=0; PR=0; (обратные ссылки отсутствуют);
- посещаемость – менее 5 чел. в сутки;

Проблема: на сайте более 15 000 страниц, проиндексировано Яндексом менее 70 страниц, в Google менее 250 страниц. Клиент добавляет контент на страницы, а результата нет. Число проиндексированных страниц не растет, количество посетителей в день так же не прибавляется. 

На сайте присутствует серьезная проблема с индексацией. Поисковый бот видит все страницы сайта, а добавляет в поиск не более 73 страниц. 

Что сделано по сайту

1. Провели технический аудит сайта. 
В начале предполагали, что на сайте присутствует техническая ошибка, которая мешает индексации. Но никаких запретов по индексацию не было выявлено в результате технического аудита. Адреса страниц – ЧПУ, удобное логическое разбиение. Ошибки с этой стороны не найдены.
Статья: как провести аудит сайта

2. Контент страниц 
Заполненных страниц не много, но неуникального контента не обнаружено. Клиент заказывал текста копирайтерам, уникальность всех текстов 98-100%.

3. Переписка с Платоном
Написали письмо Платонам, чтобы они проверили клиентский сайт. Возможно, существует какая-то ошибка со стороны Яндекса.
Также подали заявку на внесение сайта в Яндекс.Каталог белых сайтов на платной основе(часто, если есть серьезное нарушение, модераторы сообщают об этом в ответном письме). Пришел довольно интересный ответ от Платонов.


Заявка на внесение в Яндекс.Каталог была одобрена, что говорит о том, что нарушения во внутренней оптимизации отсутствуют. 
Время шло, сайт активно наполнялся и развивался на протяжении 1.5 месяцев, а новые страницы в индекс не попадали. Максимальное число – 73 страницы. 

Что помогло

После переписки с Яндексом провели детальный анализ сайтов-конкурентов, в результате которого было выявлено, что в данной нише большинство сайтов торгуют одинаковыми товарами, даже ценовой диапазон был примерно одинаков, разделы и структуры сайтов во многом совпадают. Стала ясна причина – почему яндекс не хочет добавлять страницы в свою базу. Слишком много однотипных страниц с различных сайтов, поисковый робот выбирает из них наиболее “полезную” часть. 

Основная задача – уникализировать категории и карточки товаров
Со своей стороны мы оптимизировали карточки товаров, добавив удобные юзабильные кнопки для кликов. Стали добавлять уникальный контент, панели для лайков в социальных сетях, добавлять отзывы о товарах. Создали группы масок мета-тегов title для всех карточек товаров, чтобы повторения в мета-тегах было сведено к минимуму.  

Клиент придумал несколько скидок, которые были реализованы в карточках товарах через скрипт JS. В результате через 2-3 недели поисковый робот стал добавлять в индекс уже 120 страниц, после следующего апдейта 470 страниц и т.д. Сейчас в поиске более 2000 страниц (столько действительно наполненных страниц).

Вот как это повлияло на посещаемость с поиска.

Рост основных позиций после нормальной индексации страниц.

Итог: Если вы выложили сайт, то уже с первых дней он должен быть максимально заполнен, а так же иметь свою изюминку, которая отличает его от конкурентов. Делайте каждую страницу уникальной (контент, мета-теги, отзывы, лайки и т.д.). Тогда вы сможете легко избежать подобной неприятной ситуации.

Рекомендуем изучить:
Кейс-манул по продвижению молодого сайта

А что вы думаете по этому поводу? Давайте обсудим в комментариях!

Понравилась статья? Получай свежие статьи первым по e-mail.
Подпишитесь на обновления:
Оцените статью:
Поделиться:
Популярное в блоге
подпишитесь на обновления
Больше полезных статей, кейсов и мануалов еще впереди. Подпишись на обновления, это бесплатно!
Мы в социальных сетях
Оставить заявку