Попробуем оценить со стороны этого здравого смысла, ЧТО НАДО и ЧТО НЕ НАДО делать, что бы поисковые машины хорошо относились к сайту. В целом любая поисковая машина/робот пытаются оценить два основных параметра сайта (используя самые разнообразные алгоритмы):

А) насколько сайт интересен для пользователей

А.1. Не надо делать страницы с объемом текста менее 2000 знаков и оригинальностью ниже 90% (методом копи/паста). Вполне очевидно, что пользователю на этих страницах нечего читать (или текст уже есть в интернете) - вот поисковые машины и не будут такие страницы нормально индексировать, робот читать не умеет, но умеет анализировать.

А.2. Не надо вставлять картинки ссылкой с чужих сайтов, картинка должна храниться на сервере/хостинге Вашего сайта. Если поисковая машина видит, что ВСЕ картинки на странице не Ваши (а в виде ссылок на чужие сайты) - значит опять копи/паста и опять плохо.

А.3. Плохая юзабилити сайта (сайтом пользоваться невозможно, кривая и непонятная навигация), т.е. посетитель не понимает, что ему дальше нажимать. Это хорошо видно в отчетах любого счетчика - если средняя глубина просмотра Вашего сайта 2,0-2,5 - это означает только одно = Ваш сайт никому не интересен. Т.е. посетитель зашел на сайт (1 страница), что-то там нажал, перешел на 2-ю страницу и ушел. И смысла заниматься раскруткой нет, пока не будет решен вопрос с глубиной просмотра, так как все с таким трудом полученные визиты ни к чему не приведут (2 страницы просмотра и уход с сайта).

А.4. 2000 знаков на страницу - это порядка 4-5 абзацев, т.е. где-то 2-3 раздела. Если выделить разделы жирным шрифтом и отступами - для пользователя это будет хорошо, но робот поисковой машины не оценит. Выделять названия разделов надо через тэги <h3> или <h4>, тогда робот понимается, что с точки зрения пользователя текст читаемый.

А.5. На страницах обязательно должна быть внутренняя перелинковка на другие страницы сайта, т.е. переходы между страницами не только через элементы меню. Это облегчает навигацию для пользователя (и роботы это оценивают хорошо).

А.6. Посадочная страница, она же landing page. Проблема в том, что для хорошей индексации страницы нужна хорошая текстовая страница от 2000 знаков, а для хорошей конверсии (т.е. переход пользователя на страницу заказа по кнопке КУПИТЬ) нужна страница с минимальным текстом крупным шрифтом и большой кнопкой. Поэтому делается два основных варианта - для рекламы используется отдельная посадочная страница, оптимизированная под высокую конверсию ИЛИ на видимой части экрана делается часть страницы для заказа, а ниже на на 2-3 экрана - подробное описание на 2000 символов :)

Б) насколько сайтом занимаются разработчики

Б.1. Не обновлять информацию на сайте. Если информация не обновляется, сайт не меняется - он начинает в выдаче показываться все ниже и ниже, роботы видят, что сайтом не занимаются, новой информации на нем не появляется. Как неплохой вариант - новости, которые показываются на всех страницах. Одна новость в месяц - и роботы видят обновления всех страниц. Т.е. раздел "Новости" на сайте - это не для людей, это для роботов.

Б.2. Заполненность всех мета-тэгов "TITLE" "KEYWORDS" "DESCRIPTION". Да, сейчас часть этих тэгов напрямую не участвует в алгоритмах индексирования - но если тэги не заполнены, роботы "видят", что сайт сделан спустя рукава, не все данные заполнены.

ВАЖНО: тэг DESCRIPTION используется (частично) поисковыми машинами для формирования снипета и (тоже частично) кнопками "Поделиться" для передачи информации о странице в социальные сети. Если у Вас этот тэг пустой - роботы посмотрят на Ваш сайт "плохо".

Б.3. Низкая скорость загрузки сайта. Очевидно, что если сайт грузится медленно (менее 70 баллов по сервису Google), то нет особого смысла показывать сайт пользователям.

Б.4. Роботы не очень любят одинаковые тексты на разных страницах (как в интернете, так и внутри одного сайта). Что у нас на сайте одинаковое на всех страницах? Правильно - меню, значит, надо запретить роботам его видеть. Это делается через специальные тэги, которые запрещают индексацию части html страницы:

для Яндекса <!-- noindex --> пункты меню <!--/ noindex --> (несмотря на обертку как комментарий. Яндекс понимает, и тэг получается валидный)

для Google можно закрыть для робота переход по ссылке (например, непроверенные ссылки или вход для регистрации), <a href="/signin.php" rel="nofollow">Войти</a> Яндекс тоже понимает этот тэг. Это также отпугнет спамеров (и повысит доверие роботов), которые пытаются размещать ссылки в комментариях, если они будут видеть, что незнакомая ссылка закрыта для индексации.

Б.5. Установка счетчиков на сайт, как минимум от Яндекса и Google. Поисковые системы будут "видеть", что разработчики сайта занимаются анализом статистики и значит, что сайтом занимаются.

Б.6. Регистрация сайта в Вебмастере Яндекса и Google. Аналогично - разработчикам интересна аналитика индексации.

Б.7 Наличие на страницах сайта ОДНОГО комплекта тэгов h1. Тэгами h1 выделяется заголовок страницы. Это в помощь роботам. представьте себе обычный сайт - меню вверху, меню сбоку, колонка  с комментариями, внизу новости и в центре наша страница с информацией. Теперь посмотрите на код этой страницы - как бедным роботам понять, где основная информация... Иногда в выдаче в снипете видна часть меню сайта, а не основная информацию. Это как раз, когда робот не разобрался. А с тэгом h1 поисковый робот сразу "понимает", что далее идет основная информация.

Б.8. Актуальность информации на сайте. Да, роботы читать не умеют - но они смотрят на последнюю дату/время обновления страницы (получают информацию от сервера) и сравнивают размер страницы (было/есть сейчас). Как сделать все страницы сайта с актуальными обновлениями?

Блок "новости" - вот наше решение. Внизу (чуть выше футера) в три/шесть колонок на всех страницах выводится блок новостей. Выкладка  одной новости обновляет все страницы. Да, там внизу, новости читать особо никто не будет - но так это и делается не для людей. а для роботов. Робот "видит", что у всех страниц стоит актуальная дата последнего изменения и да и размер всех страниц немного изменился.

В) Отсутствие дублей страниц сайта

Дубли страниц бывают разные

В.1 Дубли с www и без www

Эти дубли появляются от сервера хостинга (прямо указано в записях домена, что нужно с www), так как исторически сложилось, что сайт должен начинаться с www, хотя у самого домена никакого www нет. Более подробно здесь. В принципе поисковые машины это хорошо "знают" и умеют склеивать два этих дубля в одну страницу.

B.2 Еще есть дубли от хостинга, когда сайт открывается по некоторым техническим адресам.

Нужно писать в поддержку хостинга, что бы они более корректно настроили свой сервер. Иногда это нигде не указано в документации на хостинге и случайно обнаруживается в выдаче поисковых машин.

В.3 Дубли страниц от CMS

Вот тут много работы для вебмастера, у каждой CMS свои нюансы, больше всего копий страниц генерирует Joomla.

Г) Отсутствие дублей метатэгов

Необходимо проверять сайт на наличие дублей title (название страницы) и description (краткое описание страницы - частично используется поисковыми машинами для создания  снипета). Для проверки можно использовать Гугль вебмастер (естественно только для уже проиндексированных страниц) или специализированные программы типа Xenu или Netpeak Spider

Д) Роботы хотят узнать, как сайт выглядит для пользователя

Не очевидная вещь. Роботам поисковых систем недостаточно текста с сайта - они хотят видеть и таблицу стилей и картинки. Но в в большинстве CMS индексация служебных каталогов заблокирована в файле robots.txt  Информацию, что хочет увидеть робот - можно увидеть в Гугль вебмастер.

Для основных CMS в файле robots.txt надо разрешить (или закомментировать или удалить запрет) следующие строки.

для 1C Bitrix

# Disallow: /bitrix/ - в папке хранятся шаблоны сайта

# Disallow: /upload/ - в папке хранятся изображения

для WordPress

# Disallow: /wp-includes/ - и шаблоны и изображения

для Joomla

# Disallow: /images/ - изображения

# Disallow: /media/ - изображения

# Disallow: /templates/ - макеты сайта

 

  • SEO - что это? (1138)

    SEO - это на английском search engine optimization Т.е. буквально оптимизация сайта под индексирование поисковыми машинами (в первую очередь конечно Яндекс и Google). Проблема в том, что алгоритмы индексации являются закрытой информацией и можно только догадываться из опыта и здравого смысла, как эти алгоритмы работают (хотя и у Яндекса и у Google есть...

  • Кнопки "Поделиться" (1060)

    Кнопки "Поделиться" используются для передачи информации о странице в ленту соответствующей социальной сети. Следует понимать, что Ваш пост в ленте увидят не все друзья. Все социальные сети по своим алгоритмам принимают решение, что именно показывать в ленте. В среднем порядка 10-15% друзей увидят Вам пост....

  • Нужен ли www в начале адреса сайта (1018)

    Почему существуют сайты в двух вариантах http://site.ru и http://www.site.ru Откуда это появилось? Когда Интернет был маленьким, а сервера слабые, то на на разных серверах стояло разное программное обеспечение для разных целей: www.site.ru - сам сайт mail.site.ru - почтовый сервер Потом Интернет вырос и...

  • Автопостинг в социальные сети (920)

    В последнее время для продвижения своих товаров/услуг стали занимать социальные сети. Если посмотреть внимательно, там уже идет война роботов с роботами, т.е. большая часть постингов в Вашей ленте сделана роботами. В принципе, у нас есть несколько путей добавления контекста в социальные сети: 1. Посадить...

  • Снипет (845)

    Снипет - это то краткое описание сайта, которое показывается в выводе поисковых систем. Название спипета - этот title Вашей страницы Описание сайта для Яндекса: - длина текста в спипете 240 символов (с пробелами) - по умолчанию робот сам составляет описание из текста страницы (иногда используя тэг Description) Описание сайта для...

  • Счетчики и их основные параметры (803)

    Счетчики, установленные на сайт, позволяют анализировать много параметров Вашего сайта. Как правило, используются два основных счетчика - от Яндекс и от Гугль. Счетчик от Яндекса называется Метрика и находится здесь https://metrika.yandex.ru В рамках одного аккаунта можно заводить несколько счетчиков на разные сайты. В Яндексе...

  • Что хотят роботы (поисковых систем) (728)

    Попробуем оценить со стороны этого здравого смысла, ЧТО НАДО и ЧТО НЕ НАДО делать, что бы поисковые машины хорошо относились к сайту. В целом любая поисковая машина/робот пытаются оценить два основных параметра сайта (используя самые разнообразные алгоритмы): А) насколько сайт интересен для...

  • Биржи ссылок (679)

    Поисковые роботы оценивают Ваш сайт. в том числе, насколько он интересен другим сайтам. Т.е. по объему ссылочной базы. Если никто не ссылается на Ваш сайт - значит там нет ничего интересного.Как пример - сайт www.adme.ru - порядка 1 млн. визитов в месяц при 300 000 страниц и 300 000 ссылок. Кстати, простая грубая оценочная...

  • Семантическое ядро (404)

    Семантическое ядро сайта - вот оно :)Или все-таки не оно?На Ваш сайт посетители переходят на конкретные страницы, а не в целом на сайт. Соответственно можно и нужно говорить о семантическом ядре каждой страницы.Зачем это нужно? К сожалению, роботы пока не такие умные, как хотелось бы. Например, Вы...

  • "Черное" SEO (243)

    Черное SEO - продвижение сайта за счет обмана поисковых систем. Поисковые системы обижаются и выбрасывают сайт из поиска.1. Накрутка поведенческого фактора - бан 6 месяцв - Userator, Movebo, WebEffector, SerpClick, Seopult2. Накрутка подсказок в поисковой строке