SEO - это на английском search engine optimization

Т.е. буквально оптимизация сайта под индексирование поисковыми машинами (в первую очередь конечно Яндекс и Google). Проблема в том, что алгоритмы индексации являются закрытой информацией и можно только догадываться из опыта и здравого смысла, как эти алгоритмы работают (хотя и у Яндекса и у Google есть официальные требования к страницам, которые они индексируют).

Проблема в том, что сайт должен хорошо выглядеть для живых людей и быть правильным с точки зрения роботов. Если для людей все хорошо сделано, а для роботов ничего не сделано - сайт не будет в выдаче в первых страницах поиска и живые люди его не увидят. Вот такая ситуация - роботы в приоритете и потихоньку захватывают мир :)

С точки зрения роботов (поисковых машин) существуют следующие этапы "улучшения" показа сайта в органической (т.е. с поиска) выдаче:

ЭТАП 1. Индексирование сайта - т.е. информация о страницах сайта должна оказаться в базе данных поисковой машины. Про какие страницы сайта знает робот - можно увидеть в Вебмастере.
Цифр на самом деле две:
- число страниц в индексе (все страницы, про которые узнал робот)
- число индексированных страниц в файле Sitemap (те страницы, которые робот увидел в файле)

ЭТАП 2. Выдача страниц сайта в поиске (не факт, что все индексированные страницы будут показываться в поиске - наша задача максимально приблизить это число к числу страниц сайта). Смотрим Поисковая машина Яндекс и Поисковая машина Google
В обеих поисковых системах проверяется через запрос site:mysite.ru
Можно видеть:
- число страниц
- title страниц
- на снипет внимания не обращать, т.к. он формируется в зависимости от поискового запроса (Гугль показывает тэг Description при таком запросе)

В выдаче страниц всегда меньше, чем известно роботу:
- страница пустая или только с элементами меню (робот про нее знает, но не показывает)
- на странице 100% копипаста
- пустой Descpiption (да, робот понимает, что страница никому не нужна)
- и еще многие причины

По итогам ЭТАП 1 и ЭТАП 2 получится что-то вроде:

- на сайте 100 информационных страниц
- робот знает про 120 страниц (робот находит и технические файлы, и файлы архивов и дубли и прочее)
- в файле Sitemap 110 страниц (тоже плюс технические ссылки), робот учел 90 страниц
- в выдаче участвует 70 страниц

 И собственно, наша задача - разобраться, какие 30 страниц не участвуют в выдаче (=100-70) и почему. И исправить эту ситуацию.

ЭТАП 3. Глубина просмотра и время (или % отказов) нахождения на сайте. Если мало - робот "думает", что страница неинтересна для посетителей и снижает ее рейтинг в выдаче. Это то, что называют юзабилити сайта - т.е. насколько он интересен пользователю и насколько дружелюбен.

ЭТАП 4. Качественный снипет - если страница выдается в результатах поискового запроса, а по ней нет клика - поисковая машина начинает снижать рейтинг данной страницы. Можно начинать бороться за качество снипета при появлении Вашего сайта на 3-4 странице поисковой выдачи.

В целом SEO сводится к следующим этапам:

Этап 1 - настройка служебных файлов
Этап 2 - привести сайт и страницы в порядок с точки зрения поисковых машин (базовая часть и продвинутая часть)
Этап 3 - настройка быстродействия сайта/сервера и mobile friendly ("дружественность" сайта к мобильным устройствам)
Этап 4 - собственно продвижение сайта 

Этап 1. Настройка служебных файлов

- наличие и настройка файлов sitemap.xml и robots.txt в корне сайта

- настройка файла .htaccess
  - должен быть основной адрес сайта - с www или без www (в противном случае - это два разных сайта для роботов)
  - "склейка" главной страницы, т.е. переадресация с адреса site.ru/index.php -> site.ru (в противном случае - это две разных страницы сайта для роботов)
   (Комментарий: в популярных CMS данные настройки сделаны по умолчанию, всегда можно вручную проверить в адресной строке браузера, набрав нужные адреса)
  - защита от прямого копирования картинок (для снижения нагрузки на сервер)
  - защита папки администратора на сервере (для Joomla и WordPress)

Этап 2. SEO для сайта и страниц

 Сайт в целом  Страницы
Базовая часть (быстро) - не должно быть аффилированных сайтов (с одинаковым/похожим содержимым и одинаковыми контактами)

- контакты должны быть на каждой странице в двух экземплярах (в header и footer) и на странице "контакты"

- регистрация в вебмастере Гугль и Яндекс - Webmaster Google и Webmaster Yandex

- установка счетчиков статистики Гугль и Яндекс - Google Analytics и Yandex Metrika

-
 периодическая проверка сайта на наличии внутренних неработающих ссылок
- объем страниц от 2000 знаков

- не должно быть дублей title (названия страниц должны быть уникальными)

- все description должны быть заполнены, дубли названий также не допустимы

- с точки зрения Гугля для продающего сайта в description должна быть цена типа "Цена 100р. Товар супер-пупер"

- должна быть микроразметка Open Graph для корректной передачи информации в социальные сети
Продвинутая часть (долго) - наличие на сайте формы обратной связи

- перелинковка страниц сайта с использованием якорей (для обеспечения глубины просмотра)


- добавление раздела "Новости" на все страницы сайта (для чего это надо - читаем здесь)

- перевести сайт на защищенный протокол https
- на страницах должен быть список страниц (фактически дополнительное меню), относящихся к этому же разделу (для обеспечения глубины просмотра)

- должна быть микроразметка schema.org для корректного формирования снипетов (со стороны Гугль и Яндекс)

- на каждой странице сайта должен быть один заголовок в тэгах h1

- заголовок h1 не должен совпадать с title этой же страницы

- название разделов на страницах должно быть в тэгах h2-h4, а не выделено с помощью жирного шрифта

- тексты на сайте должны превратиться в SEO-тексты (т.е. включение слов и словоформ на основе семантического ядра)



Этап 3. Настройка быстродействия и mobile friendly

- высокая скорость загрузки страниц, протестировать свой сайт можно тут PageSpeed Insights
- настройка кэширования
- настройка загрузки картинок и скриптов
- проверка на "дружественность" к мобильным устройствам, проверять тут

Этап 4. Собственно продвижение

- рост ссылочной базы (10-50 в месяц)
- должно расти число страниц сайта (10-50 в месяц)
- группы и продвижение в соцсетях (например, автопубликация через http://novapress.pro)

В целом, если Вы хотите, что бы сайт приносил денег (т.е. была высокая конверсия посетителей в заявки от этих посетителей) необходимо:

- что бы сайт хорошо показывался поисковыми машинами (идеально ТОП-10)

- на сайте должно быть все хорошо подготовлено, что бы сниппет (то есть то краткое описание сайта в выдаче) был понятен пользователю (что бы этот пользователь кликал на Вашем сайте, а не проходил мимо. поисковые машины за этим следят, если сайт показывается хорошо, но по нему не кликают - уедет вниз в выдаче)

- правильная навигация и полезная информация на сайте, т.е. визитер должен смотреть 5-7 страниц как минимум

- и если Вы делаете продающий сайт, то крайне желательно разместить форму заявки/покупки в верхней части сайта (как хорошо видно через Метрику - 90% кликов в верхней части сайта, т.е. 90% визитеров не делают прокрутку вниз. И если Ваша форма там, то 90% посетителей ее не увидят, что означает зря потраченные усилия в первых пунктах).

ИТОГО для высокой конверсии с сайта необходимо:

1. Хороший показ сайта в интернете в выдаче поисковых машин / каталогов = правильная индексация (структура сайта, вебмастер, уникальные страницы, тэги и пр) + правильные спипеты (заполненные title, сам спипет с информационным текстом)

2. Высокая внутренняя конверсия сайта = наличие интересной информации + правильная навигация (та самая юзабилити) + правильные посадочные страницы (крупная кнопка купить и т.д.). Для первых двух позиций основной критерий - глубина просмотра на сайте, должна быть на уровне как минимум 5-7 страниц.

3. Хорошая юзабилити, т.е. хорошая навигация и полезная информация, глубина просмотра 5-7, лучше 10-13. Если глубина просмотра 1-2 = не имеет смысла продвигать такой сайт, 1 посетитель зашел и ушел

Выводы.

Обращаем внимание, что ссылочной базой имеет смысл заниматься только после оптимизации сайта по семантическому ядру.

Почему так?
После поисковой оптимизации мы получаем адекватный рейтинг страниц - что собственно ищут пользователи и что они могут реально найти применительно к Вашему сайту. Нам нужен топ - 10/100/1000 (в зависимости от размеров Вашего сайта, где-то 10% от общего числа страниц) первых страниц по просмотру. Вот именно для них необходимо будет заняться ссылочной базе, тогда эти страницы смогут попасть в ТОП10 поисковых систем (а если и повезет - в первую тройку результатов выдачи).

А разница там на порядки.
- вторая и далее страницы выдачи - практически не видно
- первая страница выдачи - переходов будет в 100-1000 раз больше
- первая тройка выдачи (т.е. та часть, которая сразу видна на экране) - переходов будет в 100-1000 раз по сравнению с 10-м местом

 

  • SEO - что это? (1139)

    SEO - это на английском search engine optimization Т.е. буквально оптимизация сайта под индексирование поисковыми машинами (в первую очередь конечно Яндекс и Google). Проблема в том, что алгоритмы индексации являются закрытой информацией и можно только догадываться из опыта и здравого смысла, как эти алгоритмы работают (хотя и у Яндекса и у Google есть...

  • Кнопки "Поделиться" (1060)

    Кнопки "Поделиться" используются для передачи информации о странице в ленту соответствующей социальной сети. Следует понимать, что Ваш пост в ленте увидят не все друзья. Все социальные сети по своим алгоритмам принимают решение, что именно показывать в ленте. В среднем порядка 10-15% друзей увидят Вам пост....

  • Нужен ли www в начале адреса сайта (1018)

    Почему существуют сайты в двух вариантах http://site.ru и http://www.site.ru Откуда это появилось? Когда Интернет был маленьким, а сервера слабые, то на на разных серверах стояло разное программное обеспечение для разных целей: www.site.ru - сам сайт mail.site.ru - почтовый сервер Потом Интернет вырос и...

  • Автопостинг в социальные сети (920)

    В последнее время для продвижения своих товаров/услуг стали занимать социальные сети. Если посмотреть внимательно, там уже идет война роботов с роботами, т.е. большая часть постингов в Вашей ленте сделана роботами. В принципе, у нас есть несколько путей добавления контекста в социальные сети: 1. Посадить...

  • Снипет (845)

    Снипет - это то краткое описание сайта, которое показывается в выводе поисковых систем. Название спипета - этот title Вашей страницы Описание сайта для Яндекса: - длина текста в спипете 240 символов (с пробелами) - по умолчанию робот сам составляет описание из текста страницы (иногда используя тэг Description) Описание сайта для...

  • Счетчики и их основные параметры (803)

    Счетчики, установленные на сайт, позволяют анализировать много параметров Вашего сайта. Как правило, используются два основных счетчика - от Яндекс и от Гугль. Счетчик от Яндекса называется Метрика и находится здесь https://metrika.yandex.ru В рамках одного аккаунта можно заводить несколько счетчиков на разные сайты. В Яндексе...

  • Что хотят роботы (поисковых систем) (728)

    Попробуем оценить со стороны этого здравого смысла, ЧТО НАДО и ЧТО НЕ НАДО делать, что бы поисковые машины хорошо относились к сайту. В целом любая поисковая машина/робот пытаются оценить два основных параметра сайта (используя самые разнообразные алгоритмы): А) насколько сайт интересен для...

  • Биржи ссылок (679)

    Поисковые роботы оценивают Ваш сайт. в том числе, насколько он интересен другим сайтам. Т.е. по объему ссылочной базы. Если никто не ссылается на Ваш сайт - значит там нет ничего интересного.Как пример - сайт www.adme.ru - порядка 1 млн. визитов в месяц при 300 000 страниц и 300 000 ссылок. Кстати, простая грубая оценочная...

  • Семантическое ядро (404)

    Семантическое ядро сайта - вот оно :)Или все-таки не оно?На Ваш сайт посетители переходят на конкретные страницы, а не в целом на сайт. Соответственно можно и нужно говорить о семантическом ядре каждой страницы.Зачем это нужно? К сожалению, роботы пока не такие умные, как хотелось бы. Например, Вы...

  • "Черное" SEO (243)

    Черное SEO - продвижение сайта за счет обмана поисковых систем. Поисковые системы обижаются и выбрасывают сайт из поиска.1. Накрутка поведенческого фактора - бан 6 месяцв - Userator, Movebo, WebEffector, SerpClick, Seopult2. Накрутка подсказок в поисковой строке