G|Translate: English EN Français FR Deutsch DE Italiano IT Русский RU Español ES

Поисковая машина Google

Нам важен твой голос!

Поисковая машина Гугль для российского сегмента находится здесь www.google.ru
Д
ля международного сегмента находится здесь www.google.com

Поисковая машина Google

Search Google

Есть проблема — гугль все равно Вас переадресует на российский вариант, определив Ваше расположение. Если Вы хотите искать без привязки к территории, то нужно использовать вариант www.google.com/ncr (и Вы останетесь в домене .com)

Наиболее известные сервисы Гугль для вебмастеров:

Вебмастер — https://www.google.ru/webmasters/
Контекстная реклама — https://www.google.ru/adwords/
Анализ сайта на быстродействие — https://developers.google.com/speed/pagespeed/insights/

Основные ключевые слова Гугль для поиска:

Ключевое словоКак работает
 site:somesite.ru – найдет все страницы по данному домену и поддоменам Поиск только на указанном сайте. Учитывает только url
 inurl:news – найдет все страницы, где в uri встретится данное слово Поиск по словам, присутствующим в uri. В отличие от кл. слова “site”, ищет совпадения после имени сайта
 intext:”пробки” – полностью аналогично обычному запросу “пробки” Поиск в теле страницы
 intitle:”index of”  — найдет все страницы с листингом директории Поиск в заголовке страницы. Текст, заключенный между тэгами <title>
 ext:pdf – найдет все pdf-файлы Поиск страниц с указанным расширением
 filetype:pdf – аналогично В настоящее время полностью аналогично кл. слову “ext”
 Поиск сайтов со схожей тематикой related:google.ru – покажет свои аналоги
 link:somesite.ru  — найдет все сайты, на которых есть ссылка на данныйПоиск сайтов, ссылающихся на данный
 define:0day  — определение термина Показать определение слова
 cache:google.com – откроет страницу из кэша Показать содержимое страницы в кэше (если имеется)

Поисковые алгоритмы

Фильтры

PR — page rank

PageRank — это числовая величина, характеризующая «важность» веб-страницы. Чем больше ссылок на страницу, тем она «важнее». Кроме того, «вес» страницы А определяется весом ссылки, передаваемой страницей B. Таким образом, PageRank — это метод вычисления веса страницы путём подсчёта важности ссылок на неё.
В 1996 году Сергей Брин и Ларри Пейдж, тогда ещё аспиранты Стэнфордского университета, начали работу над исследовательским проектом BackRub — поисковой системой по Интернету, использующей новую тогда идею о том, что веб-страница должна считаться тем «важнее», чем больше на неё ссылается других страниц, и чем более «важными», в свою очередь, являются эти страницы. Через некоторое время BackRub была переименована в Google. Первая статья с описанием применяющегося в ней алгоритма ранжирования, названного PageRank, появилась в начале 1998 года, за ней следом вышла и статья с описанием архитектуры самой поисковой системы. Их система значительно превосходила все существовавшие тогда поисковые системы, и Брин с Пейджем, осознав её потенциал, основали в сентябре 1998 года компанию Google Inc., для дальнейшего её развития как коммерческого продукта.
PageRank можно перевести с английского языка как «ранг страницы», однако Google Inc. связывает слово Page в названии алгоритма не с английским словом «страница», а с именем Ларри Пейджа (англ. Larry Page).

Analytics.Google

 

Webmaster.Google

Сервис Webmaster Google
Находится здесь https://www.google.ru/webmasters/

Регистрируем аккаунт (если еще нет), заходим в сервис и регистрируем свои сайты (через разные варианты подтверждения прав). Ничего сложного.

Важные нюансы, которые совсем не очевидны.

1. Гугль достаточно условно реагирует на инструкции в файле robots.txt

1.а Запрет индексирования отдельных частей/страниц сайта. Гугль все равно проиндексирует все, до чего дотянется, просто страницы, запрещенные к индексированию, не будет показываться в выдаче. Если Вы хотите полностью что-то закрыть от Гугля — надо ставить пароль на папку на сервере.
1.б Основное зеркало сайта — на инструкцию в robots.txt Гугль не обращает внимания, робот выбирает вариант автоматически. Можно вручную дать указание в вебмастере: завести два варианта сайта (с www и без www), указать нужный вариант (например, без www), второй вариант сайта из вебмастера удалить.
1.в Файл sitemap. Робот сам обходит сайт, не обращая внимания на sitemap, нужно указать вручную в настройках вебмастера (где этот файл находится и загрузить его в сервис).

2. Удаление отсутствующих страниц (код ошибки 404) сайта из индекса Гугль. Само не удаляется.
Надо:
2.а Внести запрет на страницы/папки в robot.txt
2.б Указать вручную роботу, что их надо удалить из индекса

3. Гугль хочет «видеть» сайт как человек, т.е. просто текста ему недостаточно. Нужны картинки и таблицы стилей. Если на них стоит запрет в robots.txt — надо разрешить, иначе сайт будет понижаться в выдаче.

Для использования возможностей сервисов необходимо подтвердить права на сайт. Скрин из панели Гугль.Вебмастер

Поисковая машина Google

Т.е. основные способы:
— указание специального кода в заголовке head
— размещение файла с кодом в корневой директории сайта
— настройка записи в редакторе DNS


Вы можете сохранить ссылку на эту страницу себе на компьютер в виде htm файла



Вы будете видеть наш сайт у себя в ленте


Нажмите "Подписаться"


Нажмите "Нравится" или напишите сообщение



Почитать в разделе: ИНДЕКСИРОВАНИЕ САЙТА

  • Всего статей в разделе: 6
  • Показано статей в списке: 5
  • Сортировка: название по алфавиту

Update поиска

Многие слышали про какие-то загадочные апдейты у Яндекса и у Гугль. Так сказать - иконы сеошников. Так что это? Ответ простой. Все изменения по нашему сайту (число проиндексированных страниц, число ссылок и прочая) - мы видим пока только в Вебмастере :) Это никак не отражается на поисковой выдаче. С определенным периодом все эти изменения становятся доступны в выдаче - и посещаемость сайта резко меняется. Вот скан из Вебмастера Гугль - хорошо видна вертикальная линия с отметкой "Обновление". Это как раз все изменения по сайту были выложены для участия в поисковой выдаче. Все радуются. Скажем, после обновления можно увидеть результат работы сеошников над сайтом. Пока...
(Читать полностью...)

Индексация и коды сервера

Индексация всех страниц сайта выполняется автоматически. Но если Вы хотите использовать сайт активно - то это Ваша головная боль, необходимо подправлять робота, что бы он все делал правильно (именно с Вашей точки зрения). 1. Все страницы для индексации должны быть указаны в файле Sitemap 2. Все запрещенные страницы для индексации должны быть указаны в файле robots.txt 3. Все страницы с конфиденциальной информацией должны быть спрятаны в отдельном каталоге, запрещены к индексации в файле robots.txt и каталог должен быть закрыт на уровне сервера логином и паролем. 4. Если Вы видите в вебмастере Яндекса страницы "Найдено по внутренней ссылке" - значит, Яндекс нашел...
(Читать полностью...)

Поисковая машина Яндекс

Поисковая машина Яндекс https://www.yandex.ru/ - для поиска Поиск Яндекс Поисковые алгоритмы Фильтры Показ сайта в выдаче зависит от Индекса сайта (ранее у Яндекс был Тиц - тематический индекс цитирования). Индекс сайта -  это показатель того, насколько полезен ваш сайт для пользователей с точки зрения Яндекса. Какие конкретно параметры влияют на X - является тайной Яндекса. ВАЖНО! Яндекс.Вебмастер достаточно сильный формалист (в отличии от Гугль). Смотрите все позиции, на которые робот ругается. Иначе не будет хороших позиций в выдаче. Например: - недостаточно фавикон разместить в корне сайта, гугль его видит, браузер...
(Читать полностью...)

Файл robots.txt

Основная задача этого файла - сообщать роботам поисковых систем, что можно и что нельзя индексировать на сайте. Точнее - это рекомендация роботам. По факту поисковые машины все равно индексируют запрещенные страницы, но не показывают их в выдаче. Иногда происходит сбой и запрещенные страницы оказываются в выдаче. Если Вам необходимо действительно что-то полностью на сайте закрыть от роботов (и людей) - надо на уровне хостинга закрыть папку логином и паролем. Также записи в этом файле используются для удаления страниц из индекса Гугль. Гугль (в отличии от Яндекса) удаляет страницы из индекса при наличии двух условий: - запрос на удаление страницы - страница должна быть...
(Читать полностью...)

Файл Sitemap.xml

Файл sitemap.xml нужен для роботов поисковых систем, что бы они "понимали", какие страницы нужно индексировать. Без файла sitemap.xml в первую очередь проиндексирована только одна главная страница. По ссылкам с нее роботы пойдут намного позже (страниц и сайтов стало много и робота на всех не хватает). Файл sitemap влияет только на индексацию сайта и никак не влияет на показ сайта в поисковой выдаче (т.е. роботы про сайт знают, а уж как его показывать в выдаче - это их дело). Официальный сайт правил находится здесь sitemap.org (версия на русском языке) Общие требования к файлу sitemap.xml ВАЖНО: название файла может быть любым и находиться он может в любой папке -> нужно...
(Читать полностью...)