Когда сайт упорно не растет по позициям и трафику, опытный сеошник может выдать многозначную фразу – «поиск просто не любит этот сайт». Казалось бы, при чем здесь вообще любит/не любит, когда речь идет о поисковых роботах? Оказывается, всему есть свои объяснения.
И Google и Яндекс пытаются подвести всех к одной простой истине – сайты должны быть полезны для людей и решать их проблемы. По ряду критериев, современным поисковым алгоритмам не так уж и сложно определить общие характеристики, как для качественных ресурсов, так и некачественных.
И могу вас уверить – сделать хороший сайт сейчас проще, чем тратить время и усилия на то, чтобы выдать за конфетку сделанный на коленке сателлит.
Но если вы все-таки поставили перед собой грандиозную цель сделать так, чтобы поисковики возненавидели ваш сайт, добиться этого не так уж и сложно.
Вот вам пять проверенных советов на основе многолетней практики SEO-аудитов. Просто придерживайтесь как можно более тщательно, и все у вас не получится!
1. Ашипки, errors и прочие баги
Все прекрасно знают насколько перегрет современный рынок труда, и как жадные программисты, верстальщики, дизайнеры и прочие представители IT-индустрии, наживаются на бедных бизнесменах. Если разница «на глаз» между сайтом за 50 000 рублей и 5000 рублей практически не видна, зачем платить больше?
И вот толпы страждущих предпринимателей вовсю мчатся на биржи фриланса. Конвеер будущих сайтов «лидеров ниши» начинает работать вовсю.
Вот только потом оказывается, что не все так гладко в Датском королевстве. И вроде сайт есть, а трафика нет. И кроме адреса на визитке, пользы от такого творения никакого.
Все просто – сайт сделанный не профессионалом своего дела, скорее всего будет содержать разного рода ошибки, как технические, так и в плане юзабилити, которые негативно влияют в первую очередь на SEO. Ведь те баги, которые не видны людям, роботы фиксируют очень хорошо. И это непременно сказывается на видимости и посещаемости. Дубли, ошибки скриптов, битые ссылки, ненужные редиректы – список проблем можно долго продолжать.
Более того, сайт может создаваться даже опытным программистом, но это совсем не значит что он в курсе требований SEO. Поэтому какой бы авторитетной не была команда разработчиков, обратится за аудитом к профессиональному оптимизатору, никогда не будет лишним.
2. Низкокачественный контент (генерируй меня полностью!)
Google и Яндекс настолько «любят» простыни бессмысленных текстов от копирайтеров не в теме, копипаст и прочие синонимайзы, что даже выпускают алгоритмы, направленные специально на борьбу с такими деятелями.
Сначала Панда, а потом и Баден-Баден, здорово проредили ряды тех, кто в погоне за объемами, потерял по дороге смысл.
Какие же тексты поиск точно терпеть не станет? Здесь нет никаких секретов:
неуникальный контент, взятый с других сайтов;
переоптимизированные ключевыми словами тексты;
страницы с «водой», контент на которых раздут исключительно в угоду объему;
клоакинг (пользователям показывается один текст, а роботам другой).
Проверить тексты своего сайта на уникальность можно при помощи сервиса Content-watch.ru , который также выводит адреса страниц с найденными совпадениями.
А на возможную переоптимизацию — через анализатор Istio.com . Сервис показывает процент вхождений определенных ключевых слов в текст, и если по какому-то ключу этот показатель превышает 2,5-3% — это уже повод призадуматься.…
Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев