Как говорят математики — «существует необходимое, но недостаточное условие». Что это для SEO? Что бы поисковый робот не ругался :) Если роботу изначально «не нравится» Ваш сайт — то дальнейшие усилия по продвижению не имеют смысла.
Подробнее про хотелки роботов можно прочитать в Вебмастере.
Яндекс.Вебмастер любезно предоставляет список (скан первой части), что именно проверяет робот (конечно, список не полные и время от времени он меняется).
Далее попробуем оценить со стороны этого здравого смысла, ЧТО НАДО и ЧТО НЕ НАДО делать, что бы поисковые машины хорошо относились к сайту. В целом любая поисковая машина/робот пытаются оценить два основных параметра сайта (используя самые разнообразные алгоритмы)
Что не ХОТЯТ роботы на сайте
ВАЖНО: это фатально для сайта — хотя и не указано в списке :(
Сайт отдает разное содержимое роботу и человеку
В обычных условиях так не бывает.
И вручную и через CMS сайт будет отдавать одинаковое содержимое. Но можно настроить через PHP, посмотрев содержимое user-agent
Читаем статью
Кто такой User Agent?
У приличных поисковых ботов там написано, что они бот. И возникает соблазн сделать отдачу разного контента для разных условий.
Но боты умеют заходить на сайт и как человек — на 100% имитируя браузер. Если содержимое окажется разным — сайт попадет под санкции.
Сайт выполняет много переадресаций (и на другой сайт)
Это реальная проблема. Особенно, если сайт разрабатывается много лет.
- сначала он был HTTP
- потом он стал HTTPS
- потом Вы добавили .html на конец адреса
- потом Вы перенесли материал на другой сайт
В результате робот видит цепочку переадресаций
HTTP -> HTTPS — > site1/url -> site1/url.html ->site2/url.html
Итого 5 уровней переадресации и финальная — на другой сайт. Робот-параноик Google может посчитать такой сайт зараженным «вредоносным ПО».
И обратная ситуация тоже не нравится работу. Если Вы перенесли материал на другой домен и поставили туда 301 переадресацию — робот тоже будет недоволен. Слишком много переходов на страницу по 301 коду с другого домена — будем считать эту страницу зараженной…
Что происходит дальше — читаем в статье
Спойлер — всё будет плохо.
Для сохранения трафика можно сделать кастомные записи на текущем сайте и предложить пользователю ссылку на новом сайте при клике.
Читаем статью
Переадресация на внешний ресурс
А) Насколько сайт интересен для пользователей
А.1. Не надо делать страницы с объемом текста менее 2000 знаков и оригинальностью ниже 90% (методом копи/паста). Вполне очевидно, что пользователю на этих страницах нечего читать (или текст уже есть в интернете) — вот поисковые машины и не будут такие страницы нормально индексировать, робот читать не умеет, но умеет анализировать.
А.2. Не надо вставлять картинки ссылкой с чужих сайтов, картинка должна храниться на сервере/хостинге Вашего сайта. Если поисковая машина видит, что ВСЕ картинки на странице не Ваши (а в виде ссылок на чужие сайты) — значит опять копи/паста и опять плохо.
А.3. Плохая юзабилити сайта (сайтом пользоваться невозможно, кривая и непонятная навигация), т.е. посетитель не понимает, что ему дальше нажимать. Это хорошо видно в отчетах любого счетчика — если средняя глубина просмотра Вашего сайта 2,0-2,5 — это означает только одно = Ваш сайт никому не интересен. Т.е. посетитель зашел на сайт (1 страница), что-то там нажал, перешел на 2-ю страницу и ушел. И смысла заниматься раскруткой нет, пока не будет решен вопрос с глубиной просмотра, так как все с таким трудом полученные визиты ни к чему не приведут (2 страницы просмотра и уход с сайта).
А.4. 2000 знаков на страницу — это порядка 4-5 абзацев, т.е. где-то 2-3 раздела. Если выделить разделы жирным шрифтом и отступами — для пользователя это будет хорошо, но робот поисковой машины не оценит. Выделять названия разделов надо через тэги <h3> или <h4>, тогда робот понимается, что с точки зрения пользователя текст читаемый.
А.5. На страницах обязательно должна быть внутренняя перелинковка на другие страницы сайта, т.е. переходы между страницами не только через элементы меню. Это облегчает навигацию для пользователя (и роботы это оценивают хорошо).
А.6. Посадочная страница, она же landing page. Проблема в том, что для хорошей индексации страницы нужна хорошая текстовая страница от 2000 знаков, а для хорошей конверсии (т.е. переход пользователя на страницу заказа по кнопке КУПИТЬ) нужна страница с минимальным текстом крупным шрифтом и большой кнопкой. Поэтому делается два основных варианта — для рекламы используется отдельная посадочная страница, оптимизированная под высокую конверсию ИЛИ на видимой части экрана делается часть страницы для заказа, а ниже на на 2-3 экрана — подробное описание на 2000 символов :)
Б) Насколько сайтом занимаются разработчики
Б.1. Не обновлять информацию на сайте. Если информация не обновляется, сайт не меняется — он начинает в выдаче показываться все ниже и ниже, роботы видят, что сайтом не занимаются, новой информации на нем не появляется. Как неплохой вариант — новости, которые показываются на всех страницах. Одна новость в месяц — и роботы видят обновления всех страниц. Т.е. раздел «Новости» на сайте — это не для людей, это для роботов.
Б.2. Заполненность всех мета-тэгов «TITLE» «KEYWORDS» «DESCRIPTION». Да, сейчас часть этих тэгов напрямую не участвует в алгоритмах индексирования — но если тэги не заполнены, роботы «видят», что сайт сделан спустя рукава, не все данные заполнены.
ВАЖНО: тэг DESCRIPTION используется (частично) поисковыми машинами для формирования снипета и (тоже частично) кнопками «Поделиться» для передачи информации о странице в социальные сети. Если у Вас этот тэг пустой — роботы посмотрят на Ваш сайт «плохо».
Б.3. Низкая скорость загрузки сайта. Очевидно, что если сайт грузится медленно (менее 70 баллов по сервису Google), то нет особого смысла показывать сайт пользователям.
Б.4. Роботы не очень любят одинаковые тексты на разных страницах (как в интернете, так и внутри одного сайта). Что у нас на сайте одинаковое на всех страницах? Правильно — меню, значит, надо запретить роботам его видеть. Это делается через специальные тэги, которые запрещают индексацию части html страницы:
для Яндекса <!— noindex —> пункты меню <!—/ noindex —> (несмотря на обертку как комментарий. Яндекс понимает, и тэг получается валидный)
для Google можно закрыть для робота переход по ссылке (например, непроверенные ссылки или вход для регистрации), <a href=»/signin.php» rel=»nofollow»>Войти</a> Яндекс тоже понимает этот тэг. Это также отпугнет спамеров (и повысит доверие роботов), которые пытаются размещать ссылки в комментариях, если они будут видеть, что незнакомая ссылка закрыта для индексации.
Б.5. Установка счетчиков на сайт, как минимум от Яндекса и Google. Поисковые системы будут «видеть», что разработчики сайта занимаются анализом статистики и значит, что сайтом занимаются.
Б.6. Регистрация сайта в Вебмастере Яндекса и Google. Аналогично — разработчикам интересна аналитика индексации.
Б.7 Наличие на страницах сайта ОДНОГО комплекта тэгов h1. Тэгами h1 выделяется заголовок страницы. Это в помощь роботам. представьте себе обычный сайт — меню вверху, меню сбоку, колонка с комментариями, внизу новости и в центре наша страница с информацией. Теперь посмотрите на код этой страницы — как бедным роботам понять, где основная информация… Иногда в выдаче в снипете видна часть меню сайта, а не основная информацию. Это как раз, когда робот не разобрался. А с тэгом h1 поисковый робот сразу «понимает», что далее идет основная информация.
Б.8. Актуальность информации на сайте. Да, роботы читать не умеют — но они смотрят на последнюю дату/время обновления страницы (получают информацию от сервера) и сравнивают размер страницы (было/есть сейчас). Как сделать все страницы сайта с актуальными обновлениями?
Блок «новости» — вот наше решение. Внизу (чуть выше футера) в три/шесть колонок на всех страницах выводится блок новостей. Выкладка одной новости обновляет все страницы. Да, там внизу, новости читать особо никто не будет — но так это и делается не для людей. а для роботов. Робот «видит», что у всех страниц стоит актуальная дата последнего изменения и да и размер всех страниц немного изменился.
В) Отсутствие дублей страниц сайта
Дубли страниц бывают разные
В.1 Дубли с www и без www
Эти дубли появляются от сервера хостинга (прямо указано в записях домена, что нужно с www), так как исторически сложилось, что сайт должен начинаться с www, хотя у самого домена никакого www нет. Более подробно здесь. В принципе поисковые машины это хорошо «знают» и умеют склеивать два этих дубля в одну страницу.
B.2 Еще есть дубли от хостинга, когда сайт открывается по некоторым техническим адресам.
Нужно писать в поддержку хостинга, что бы они более корректно настроили свой сервер. Иногда это нигде не указано в документации на хостинге и случайно обнаруживается в выдаче поисковых машин.
В.3 Дубли страниц от CMS
Вот тут много работы для вебмастера, у каждой CMS свои нюансы, больше всего копий страниц генерирует Joomla.
Г) Отсутствие дублей метатэгов
Необходимо проверять сайт на наличие дублей title (название страницы) и description (краткое описание страницы — частично используется поисковыми машинами для создания снипета). Для проверки можно использовать Гугль вебмастер (естественно только для уже проиндексированных страниц) или специализированные программы типа Xenu или Netpeak Spider
Д) Роботы хотят узнать, как сайт выглядит для пользователя
Не очевидная вещь. Роботам поисковых систем недостаточно текста с сайта — они хотят видеть и таблицу стилей и картинки. Но в в большинстве CMS индексация служебных каталогов заблокирована в файле robots.txt Информацию, что хочет увидеть робот — можно увидеть в Гугль вебмастер.
Для основных CMS в файле robots.txt надо разрешить (или закомментировать или удалить запрет) следующие строки.
для 1C Bitrix
# Disallow: /bitrix/ — в папке хранятся шаблоны сайта
# Disallow: /upload/ — в папке хранятся изображения
для WordPress
# Disallow: /wp-includes/ — и шаблоны и изображения
для Joomla
# Disallow: /images/ — изображения
# Disallow: /media/ — изображения
# Disallow: /templates/ — макеты сайта
Подпишитесь в VKontakte - нажмите кнопку | ||
Подпишитесь в Telegram - нажмите кнопку | ||
Наша группа ODNOKLASSNIKI |
Вы можете сохранить ссылку на эту страницу себе на компьютер в виде htm файла
Запрос на размещение Вашего рекламного поста (тема и email будут добавлены автоматически в письмо)
В Вашем браузере должна быть настроена обработка ссылок mailto
site_post@bk.ru
или просто скопируйте адрес e-mail
Почитать в разделе
SEO — ЧТО ЭТО?

(Читать полностью...)
- Всего статей в разделе: 9
- Показано статей в списке: 8
- Сортировка: название по алфавиту
«Черное» SEO
Черное SEO - продвижение сайта за счет обмана поисковых систем. Поисковые системы обижаются и выбрасывают сайт из поиска. 1. Накрутка поведенческого фактора - бан 6 месяцв - Userator, Movebo, WebEffector, SerpClick, Seopult 2. Накрутка подсказок в поисковой...(Читать полностью...)
Биржи ссылок
Поисковые роботы оценивают Ваш сайт. в том числе, насколько он интересен другим сайтам. Т.е. по объему ссылочной базы. Если никто не ссылается на Ваш сайт - значит там нет ничего интересного. Как пример - сайт www.adme.ru - порядка 1 млн. визитов в месяц при 300 000 страниц и 300 000 ссылок. Кстати, простая грубая оценочная модель: - страниц и ссылок должно быть примерно поровну - кол-во визитов на сайт в месяц = число ссылок *3 Поэтому стали появляться биржи...(Читать полностью...)
Кнопки «Поделиться»

(Читать полностью...)
Нужен ли www в начале адреса сайта

(Читать полностью...)
Нужен ли слеш в URL?

(Читать полностью...)
Перелинковка

(Читать полностью...)
Семантическое ядро

(Читать полностью...)
Снипет

(Читать полностью...)