G|Translate: English EN Français FR Deutsch DE Italiano IT Русский RU Español ES

Поисковая машина Google

5/5 - (1 голос)

Поисковая машина Гугль для российского сегмента находится здесь www.google.ru
Д
ля международного сегмента находится здесь www.google.com

Поисковая машина Google

Search Google

Есть проблема – гугль все равно Вас переадресует на российский вариант, определив Ваше расположение. Если Вы хотите искать без привязки к территории, то нужно использовать вариант www.google.com/ncr (и Вы останетесь в домене .com)

Наиболее известные сервисы Гугль для вебмастеров:

Вебмастер – https://www.google.ru/webmasters/
Контекстная реклама – https://www.google.ru/adwords/
Анализ сайта на быстродействие – https://developers.google.com/speed/pagespeed/insights/

Основные ключевые слова Гугль для поиска:

Ключевое словоКак работает
 site:somesite.ru – найдет все страницы по данному домену и поддоменам Поиск только на указанном сайте. Учитывает только url
 inurl:news – найдет все страницы, где в uri встретится данное слово Поиск по словам, присутствующим в uri. В отличие от кл. слова “site”, ищет совпадения после имени сайта
 intext:”пробки” – полностью аналогично обычному запросу “пробки” Поиск в теле страницы
 intitle:”index of”  — найдет все страницы с листингом директории Поиск в заголовке страницы. Текст, заключенный между тэгами <title>
 ext:pdf – найдет все pdf-файлы Поиск страниц с указанным расширением
 filetype:pdf – аналогично В настоящее время полностью аналогично кл. слову “ext”
 Поиск сайтов со схожей тематикой related:google.ru – покажет свои аналоги
 link:somesite.ru  — найдет все сайты, на которых есть ссылка на данныйПоиск сайтов, ссылающихся на данный
 define:0day  — определение термина Показать определение слова
 cache:google.com – откроет страницу из кэша Показать содержимое страницы в кэше (если имеется)

Поисковые алгоритмы

Фильтры

PR – page rank

PageRank — это числовая величина, характеризующая «важность» веб-страницы. Чем больше ссылок на страницу, тем она «важнее». Кроме того, «вес» страницы А определяется весом ссылки, передаваемой страницей B. Таким образом, PageRank — это метод вычисления веса страницы путём подсчёта важности ссылок на неё.
В 1996 году Сергей Брин и Ларри Пейдж, тогда ещё аспиранты Стэнфордского университета, начали работу над исследовательским проектом BackRub — поисковой системой по Интернету, использующей новую тогда идею о том, что веб-страница должна считаться тем «важнее», чем больше на неё ссылается других страниц, и чем более «важными», в свою очередь, являются эти страницы. Через некоторое время BackRub была переименована в Google. Первая статья с описанием применяющегося в ней алгоритма ранжирования, названного PageRank, появилась в начале 1998 года, за ней следом вышла и статья с описанием архитектуры самой поисковой системы. Их система значительно превосходила все существовавшие тогда поисковые системы, и Брин с Пейджем, осознав её потенциал, основали в сентябре 1998 года компанию Google Inc., для дальнейшего её развития как коммерческого продукта.
PageRank можно перевести с английского языка как «ранг страницы», однако Google Inc. связывает слово Page в названии алгоритма не с английским словом «страница», а с именем Ларри Пейджа (англ. Larry Page).

Analytics.Google

 

Webmaster.Google

Сервис Webmaster Google
Находится здесь https://www.google.ru/webmasters/

Регистрируем аккаунт (если еще нет), заходим в сервис и регистрируем свои сайты (через разные варианты подтверждения прав). Ничего сложного.

Важные нюансы, которые совсем не очевидны.

1. Гугль достаточно условно реагирует на инструкции в файле robots.txt

1.а Запрет индексирования отдельных частей/страниц сайта. Гугль все равно проиндексирует все, до чего дотянется, просто страницы, запрещенные к индексированию, не будет показываться в выдаче. Если Вы хотите полностью что-то закрыть от Гугля – надо ставить пароль на папку на сервере.
1.б Основное зеркало сайта – на инструкцию в robots.txt Гугль не обращает внимания, робот выбирает вариант автоматически. Можно вручную дать указание в вебмастере: завести два варианта сайта (с www и без www), указать нужный вариант (например, без www), второй вариант сайта из вебмастера удалить.
1.в Файл sitemap. Робот сам обходит сайт, не обращая внимания на sitemap, нужно указать вручную в настройках вебмастера (где этот файл находится и загрузить его в сервис).

2. Удаление отсутствующих страниц (код ошибки 404) сайта из индекса Гугль. Само не удаляется.
Надо:
2.а Внести запрет на страницы/папки в robot.txt
2.б Указать вручную роботу, что их надо удалить из индекса

3. Гугль хочет “видеть” сайт как человек, т.е. просто текста ему недостаточно. Нужны картинки и таблицы стилей. Если на них стоит запрет в robots.txt – надо разрешить, иначе сайт будет понижаться в выдаче.

Для использования возможностей сервисов необходимо подтвердить права на сайт. Скрин из панели Гугль.Вебмастер

Поисковая машина Google

Т.е. основные способы:
– указание специального кода в заголовке head
– размещение файла с кодом в корневой директории сайта
– настройка записи в редакторе DNS

Подпишитесь в VKontakte - нажмите кнопку
Подпишитесь в Telegram - нажмите кнопку
Наша группа ODNOKLASSNIKI

Вы можете сохранить ссылку на эту страницу себе на компьютер в виде htm файла




Запрос на размещение Вашего рекламного поста (тема и email будут добавлены автоматически в письмо)

В Вашем браузере должна быть настроена обработка ссылок mailto

site_post@bk.ru

или просто скопируйте адрес e-mail



Почитать в разделе

ИНДЕКСИРОВАНИЕ САЙТА

Несмотря на все громкие заявления ПС = на первом месте для хорошей индексации идут ссылки, все остальное (юзабилити, глубина просмотра, объем сайта слабо влияет на индексацию). Т.е. если у Вас есть супер новый хороший сайт - без наличия ссылок на его страницы со стороны других сайтов нормальной индексации не будет (точнее нормального показа в выдаче). Яндекс все проиндексирует (но не покажет это все), Гугль проиндексирует порядка 30% (и тоже не все покажет). Где можно взять ссылки для нового сайта? - ручная работа на всех форумах, регистрация, ссылка, переписка с сисадминами других сайтов = в результате ссылка на Ваш сайт (это как раз то, что Вы видите бессмысленную рекламу, немного...
(Читать полностью...)

  • Всего статей в разделе: 8
  • Показано статей в списке: 7
  • Сортировка: название по алфавиту

Update поиска

Многие слышали про какие-то загадочные апдейты у Яндекса и у Гугль. Так сказать - иконы сеошников. Так что это? Ответ простой. Все изменения по нашему сайту (число проиндексированных страниц, число ссылок и прочая) - мы видим пока только в Вебмастере :) Это никак не отражается на поисковой выдаче. С определенным периодом все эти изменения становятся доступны в выдаче - и посещаемость сайта резко меняется. Вот скан из Вебмастера Гугль - хорошо видна вертикальная линия с отметкой "Обновление". Это как раз все изменения по сайту были выложены для участия в поисковой выдаче. Все радуются. Скажем, после обновления можно увидеть результат работы сеошников над сайтом. Пока...
(Читать полностью...)

Индексация и коды сервера

Индексация всех страниц сайта выполняется автоматически. Но если Вы хотите использовать сайт активно - то это Ваша головная боль, необходимо подправлять робота, что бы он все делал правильно (именно с Вашей точки зрения). 1. Все страницы для индексации должны быть указаны в файле Sitemap 2. Все запрещенные страницы для индексации должны быть указаны в файле robots.txt 3. Все страницы с конфиденциальной информацией должны быть спрятаны в отдельном каталоге, запрещены к индексации в файле robots.txt и каталог должен быть закрыт на уровне сервера логином и паролем. 4. Если Вы видите в вебмастере Яндекса страницы "Найдено по внутренней ссылке" - значит, Яндекс нашел...
(Читать полностью...)

Кто такой User Agent?

User agent - кто это? Не кто - а что. При обращении к Вашему сайту (точнее серверу, на котором находится Ваш сайт) - сервер получает много информации о запросе. Это может быть запрос от: браузера по отображение сайта заход поискового бота запрос программы на проверку ответа сервера запрос программы, которая маскируется под браузер И каждый такой запрос оставляет следы на сервере: ссылка, с которой был переход IP-адрес и тот самый User Agent - идентификатор того, кто обратился В целом поле с указанием user agent можно подделать, чем и пользуются спамеры и хакеры. Но официальные программы работают честно. Данные посетителя (это текстовая инфомация) хранятся в...
(Читать полностью...)

Поисковая машина Яндекс

Поисковая машина Яндекс https://www.yandex.ru/ - для поиска Поиск Яндекс Поисковые алгоритмы Фильтры Показ сайта в выдаче зависит от Индекса сайта (ранее у Яндекс был Тиц - тематический индекс цитирования). Индекс сайта -  это показатель того, насколько полезен ваш сайт для пользователей с точки зрения Яндекса. Какие конкретно параметры влияют на X - является тайной Яндекса. ВАЖНО! Яндекс.Вебмастер достаточно сильный формалист (в отличии от Гугль). Смотрите все позиции, на которые робот ругается. Иначе не будет хороших позиций в выдаче. Например: - недостаточно фавикон разместить в корне сайта, гугль его видит, браузер показывает - а робот Яндекс не видит...хочет еще и явно код...
(Читать полностью...)

Счетчики и их основные показатели

Счетчики, установленные на сайт, позволяют анализировать много параметров Вашего сайта.    Что такое счетчик: это скрипт, который фиксирует заход на сайт поисковые машины просят устанавливать вызов скрипта как можно ранее (в секции <HEAD></HEAD>) сейчас это практически не влияет на скорость загрузки страницы, т.к. это асинхронный код Основные показатели сайта от счетчиков Базовые параметры: посещения - все заходы на сайт, включая повторные визиты - по уникальным посетителям, т.е. для одного и того же визитера с двумя заходами будет 2 посещения и 1 визит новые посетители - заходы на сайт новых визитеров (контроль по IP, кукам и прочем...
(Читать полностью...)

Файл robots.txt

Основная задача этого файла - сообщать роботам поисковых систем, что можно и что нельзя индексировать на сайте. Точнее - это рекомендация роботам. По факту поисковые машины все равно индексируют запрещенные страницы, но не показывают их в выдаче. Иногда происходит сбой и запрещенные страницы оказываются в выдаче. Если Вам необходимо действительно что-то полностью на сайте закрыть от роботов (и людей) - надо на уровне хостинга закрыть папку логином и паролем. Также записи в этом файле используются для удаления страниц из индекса Гугль. Гугль (в отличии от Яндекса) удаляет страницы из индекса при наличии двух условий: - запрос на удаление страницы - страница должна быть...
(Читать полностью...)

Файл Sitemap.xml

Файл sitemap.xml нужен для роботов поисковых систем, что бы они "понимали", какие страницы нужно индексировать. Без файла sitemap.xml в первую очередь проиндексирована только одна главная страница. По ссылкам с нее роботы пойдут намного позже (страниц и сайтов стало много и робота на всех не хватает). Файл sitemap влияет только на индексацию сайта и никак не влияет на показ сайта в поисковой выдаче (т.е. роботы про сайт знают, а уж как его показывать в выдаче - это их дело). Может быть ситуация: сами страницы URL есть а на сайте на них ссылок нет Как это может быть?  А это нормальный интернет-магазин. Проблема в том, что есть основная страница товара...
(Читать полностью...)

X

    Пожалуйста, докажите, что вы человек, выбрав автомобиль.