Несмотря на все громкие заявления ПС = на первом месте для хорошей индексации идут ссылки, все остальное (юзабилити, глубина просмотра, объем сайта слабо влияет на индексацию). Т.е. если у Вас есть супер новый хороший сайт — без наличия ссылок на его страницы со стороны других сайтов нормальной индексации не будет (точнее нормального показа в выдаче).

Яндекс все проиндексирует (но не покажет это все), Гугль проиндексирует порядка 30% (и тоже не все покажет).
Где можно взять ссылки для нового сайта?
— ручная работа на всех форумах, регистрация, ссылка, переписка с сисадминами других сайтов = в результате ссылка на Ваш сайт (это как раз то, что Вы видите бессмысленную рекламу, немного текста и ссылка = это для поисковиков, а не для людей)
— размещение информации с сайта в группах соцсетей или поставить модуль размещения инфо с сайта на соцсети, итого выкладка раз в день в соцсеть = 365 ссылок в год с каждой соцсети на сайт. Если готового модуля нет для Вашей CRM — можно использовать сайт-посредник http://novapress.pro
— купить на биржах www.sape.ru или www.rookee.ru = тут надо крайне осторожно, если поисковые машины «заподозрят» что ссылки покупаются, можно получить бан на 1 год :(
Для нового сайта у поисковых систем существует «песочница» — в течении первого года индексируется только главная 1 (ОДНА) страница сайта. Все остальные страницы сайта поисковый робот будет анализировать только после года работы.
Следует также понимать:
— если сайт не проиндексирован — в поисковой выдаче НИЧЕГО не будет
— если сайт проиндексирован (т.е. поисковые системы знают о всех страницах Вашего сайта) — показ в выдаче будет будет зависеть от большого количества факторов, подробнее Что хотят роботы
Нас в первую очередь интересует продвижение сайта — а не сам сайт.

Другими словами — мы будет уделять больше внимания тем поисковым машинам, которые являются лидерами в поиске на рынке России. И в первую очередь сайт будет «причесываться» именно для этих поисковых роботов.
По статистике на 2015г:
1. Яндекс — 49%
2. Гугль — 40%
3. Mail.ru — 5%
4. Рамблер — 3%
5. Bing — 2%
6. Прочие — 1%

Конечно, никто не обязывает регистрировать свои сайты в поисковых системах через вебмастер. Робот и так доберется до Вашего сайта и его проиндексирует.
Но:
— это будет значительно медленнее
— в индекс могут попасть не все страницы сайта или не те страницы, которые необходимы
Сервис Webmaster Mail
Находится здесь http://webmaster.mail.ru/
Для входа достаточно регистрации и наличии почты mail.ru
Сервиса Webmaster Rambler не существует, т.к. используется поиск Яндекса
Сервис Webmaster Bing
Находится здесь http://www.bing.com/toolbox/webmaster/
Необходима регистрация аккаунта Microsoft
Почитать в разделе
ИНДЕКСИРОВАНИЕ САЙТА

Несмотря на все громкие заявления ПС = на первом месте для хорошей индексации идут ссылки, все остальное (юзабилити, глубина просмотра, объем сайта слабо влияет на индексацию). Т.е. если у Вас есть супер новый хороший сайт - без наличия ссылок на его страницы со стороны других сайтов нормальной индексации не будет (точнее нормального показа в выдаче). Яндекс все проиндексирует (но не покажет это все), Гугль проиндексирует порядка 30% (и тоже не все покажет).
Где можно взять ссылки для нового сайта?
- ручная работа на всех форумах, регистрация, ссылка, переписка с сисадминами других сайтов = в результате ссылка на Ваш сайт (это как раз то, что Вы видите бессмысленную рекламу, немного...
(Читать полностью...)
- Всего статей в разделе: 8
- Показано статей в списке: 8
- Сортировка: название по алфавиту
Update поиска

Многие слышали про какие-то загадочные апдейты у Яндекса и у Гугль. Так сказать - иконы сеошников. Так что это? Ответ простой.
Все изменения по нашему сайту (число проиндексированных страниц, число ссылок и прочая) - мы видим пока только в Вебмастере :) Это никак не отражается на поисковой выдаче. С определенным периодом все эти изменения становятся доступны в выдаче - и посещаемость сайта резко меняется. Вот скан из Вебмастера Гугль - хорошо видна вертикальная линия с отметкой "Обновление". Это как раз все изменения по сайту были выложены для участия в поисковой выдаче. Все радуются. Скажем, после обновления можно увидеть результат работы сеошников над сайтом. Пока...
(Читать полностью...)
Индексация и коды сервера

Индексация всех страниц сайта выполняется автоматически. Но если Вы хотите использовать сайт активно - то это Ваша головная боль, необходимо подправлять робота, что бы он все делал правильно (именно с Вашей точки зрения). 1. Все страницы для индексации должны быть указаны в файле Sitemap 2. Все запрещенные страницы для индексации должны быть указаны в файле robots.txt 3. Все страницы с конфиденциальной информацией должны быть спрятаны в отдельном каталоге, запрещены к индексации в файле robots.txt и каталог должен быть закрыт на уровне сервера логином и паролем. 4. Если Вы видите в вебмастере Яндекса страницы "Найдено по внутренней ссылке" - значит, Яндекс нашел...
(Читать полностью...)
Кто такой User Agent?

User agent - кто это? Не кто - а что.
При обращении к Вашему сайту (точнее серверу, на котором находится Ваш сайт) - сервер получает много информации о запросе.
Это может быть запрос от: браузера по отображение сайта
заход поискового бота
запрос программы на проверку ответа сервера
запрос программы, которая маскируется под браузер И каждый такой запрос оставляет следы на сервере: ссылка, с которой был переход
IP-адрес
и тот самый User Agent - идентификатор того, кто обратился В целом поле с указанием user agent можно подделать, чем и пользуются спамеры и хакеры. Но официальные программы работают честно.
Данные посетителя (это текстовая инфомация) хранятся в...
(Читать полностью...)
Поисковая машина Google

Поисковая машина Гугль для российского сегмента находится здесь www.google.ru
Для международного сегмента находится здесь www.google.com Search Google
Есть проблема - гугль все равно Вас переадресует на российский вариант, определив Ваше расположение. Если Вы хотите искать без привязки к территории, то нужно использовать вариант www.google.com/ncr (и Вы останетесь в домене .com)
Наиболее известные сервисы Гугль для вебмастеров:
Вебмастер - https://www.google.ru/webmasters/
Контекстная реклама - https://www.google.ru/adwords/
Анализ сайта на быстродействие - https://developers.google.com/speed/pagespeed/insights/
Основные ключевые слова Гугль для поиска: Ключевое слово
Как...
(Читать полностью...)
Поисковая машина Яндекс

Поисковая машина Яндекс https://www.yandex.ru/ - для поиска Поиск Яндекс
Поисковые алгоритмы
Фильтры
Показ сайта в выдаче зависит от Индекса сайта (ранее у Яндекс был Тиц - тематический индекс цитирования).
Индекс сайта - это показатель того, насколько полезен ваш сайт для пользователей с точки зрения Яндекса.
Какие конкретно параметры влияют на X - является тайной Яндекса.
ВАЖНО!
Яндекс.Вебмастер достаточно сильный формалист (в отличии от Гугль). Смотрите все позиции, на которые робот ругается. Иначе не будет хороших позиций в выдаче.
Например:
- недостаточно фавикон разместить в корне сайта, гугль его видит, браузер показывает - а робот Яндекс не видит...хочет еще и явно код...
(Читать полностью...)
Счетчики и их основные показатели

Счетчики, установленные на сайт, позволяют анализировать много параметров Вашего сайта.
Что такое счетчик: это скрипт, который фиксирует заход на сайт
поисковые машины просят устанавливать вызов скрипта как можно ранее (в секции <HEAD></HEAD>)
сейчас это практически не влияет на скорость загрузки страницы, т.к. это асинхронный код Основные показатели сайта от счетчиков
Базовые параметры: посещения - все заходы на сайт, включая повторные
визиты - по уникальным посетителям, т.е. для одного и того же визитера с двумя заходами будет 2 посещения и 1 визит
новые посетители - заходы на сайт новых визитеров (контроль по IP, кукам и прочем...
(Читать полностью...)
Файл robots.txt

Основная задача этого файла - сообщать роботам поисковых систем, что можно и что нельзя индексировать на сайте.
Точнее - это рекомендация роботам. По факту поисковые машины все равно индексируют запрещенные страницы, но не показывают их в выдаче. Иногда происходит сбой и запрещенные страницы оказываются в выдаче. Если Вам необходимо действительно что-то полностью на сайте закрыть от роботов (и людей) - надо на уровне хостинга закрыть папку логином и паролем. Также записи в этом файле используются для удаления страниц из индекса Гугль. Гугль (в отличии от Яндекса) удаляет страницы из индекса при наличии двух условий: - запрос на удаление страницы - страница должна быть...
(Читать полностью...)
Файл Sitemap.xml

Файл sitemap.xml нужен для роботов поисковых систем, что бы они "понимали", какие страницы нужно индексировать. Без файла sitemap.xml в первую очередь проиндексирована только одна главная страница. По ссылкам с нее роботы пойдут намного позже (страниц и сайтов стало много и робота на всех не хватает). Файл sitemap влияет только на индексацию сайта и никак не влияет на показ сайта в поисковой выдаче (т.е. роботы про сайт знают, а уж как его показывать в выдаче - это их дело).
Может быть ситуация: сами страницы URL есть
а на сайте на них ссылок нет Как это может быть?
А это нормальный интернет-магазин. Проблема в том, что есть основная страница товара...
(Читать полностью...)