Под индексированием понимается процесс сканирования страниц сайта роботом поисковой системы (ПС) и их дальнейшее добавление в базу данных, которая называется Индексом. Индекс необходим для поиска страниц сайтов с корректным ответом на запросы пользователей поисковика. Он происходит не в интернете, а в заранее сформированной базе.
К примеру, в Яндексе веб-документы, успешно прошедшие индексирование, разделяют на отдельные смысловые кластеры. Получается, что в момент, когда посетитель набирает поисковый запрос, система моментально ищет нужную информацию в конкретном кластере. далее она ранжируется (сортируется по важности) согласно заданным алгоритмам и формируются страницы выдачи, первая из которых – ТОП-10. На то какое место занимает конкретный сайт в выдаче, влияет то, насколько грамотно проведена внешняя и внутренняя оптимизация страницы под ключевые слова.
Для попадания на верхние строчки в выдаче необходимо, чтобы сайт присутствовал в индексе у целевых поисковиков. А попасть туда действительно важно, так как первые 10 ссылок собирают 95% поискового трафика.
Как выполняется индексация
Процесс выполняется автоматически при помощи специально разработанных роботов, которых называют пауками либо краулерами. Создано несколько десятков подобных программ для разных целей, подробный перечень представлен в Яндекс. Проанализировав этот список, можно классифицировать всех роботов по назначению:
- Общие. Программы, необходимые для сканирования веб-пространства в поиске новых интернет-ресурсов.
- Специализированные. Их основная задача состоит в индексации графических изображений, видеороликов, фавиконок и т.д.
- Роботы-проверяльщики. Эти пауки определяют, адаптирован ли ресурс под мобильные устройства (смартфоны, планшеты), подтверждены ли права на владение конкретным доменным именем, имеется ли валидатор микроразметки, наличие RSS для турбо-страниц. Наличие этих элементов сказывается на месте веб-сайта на страницах выдачи.
- Пауки от конкретных сервисов. В Yandex есть несколько десятков сервисов, отдельный робот предусмотрен для некоторых из них. Например, разработаны краулеры для «Яндекс.Справочника», «Яндекс.Маркета», «Яндекс.Трекера», «Яндекс.Вебмастер» и т.д.
Работа пауков происходит по следующему алгоритму:
- Роботы переходят по определенному адресу и проверяют, появились ли новые веб-страницы.
- Если в ходе поиска обнаружены новые разделы, они сканируют следующие ключевые показатели:
- Соответствие требованиям поисковика. При обнаружении нарушений сайт или страница не добавляется в индекс.
- Содержательная сторона. Выполняется проверка оригинальности опубликованных материалов (статей, графических изображений, видеороликов). Тексты и фотографии, скопированные со сторонних источников, которые уже есть в базе поисковика – не добавляются.
- Система считывает сигналы релевантности страницы и определяет, в какие смысловые кластеры её добавить.
- Страница попадает в базу данных и начинает участвовать в формировании выдачи ПС.
Сколько времени занимает попадание в Индекс
Время, за которое конкретный URL-адрес появляется в Индексе, зависит от ряда факторов. Ключевое значение имеет периодичность добавления изменений на нем. Индексация новостных порталов, форумов проводится за несколько минут, для них предназначены специальные быстроботы, которые реагируют на ежеминутные изменения. Если информация редко обновляется, а новые материалы практически не публикуются, то частота просмотра ботами снижается. Отсюда рекомендация оптимизаторов регулярно добавлять новые статьи и новости на продвигаемые сайты.
Как ускорить индексацию сайта в Яндекс и Google
Любой веб-сайт рано или поздно попадает в базу данных, но без грамотного подхода на это уходит достаточно длительное время. Избежать этого получится, если следовать этим правилам.
Добавить сайт в панели вебмастеров: «Яндекс.Вебмастер» и Google Search Console
Регистрация в сервисе от Yandex занимает несколько минут. Действуйте согласно инструкции:
- Зарегистрируйте новый аккаунт (почтовый ящик) на Yandex или войдите в существующий.
- Перейдите по ссылке: https://webmaster.yandex.ru/sites/add/, укажите URL главной страницы своего ресурса в поле и нажмите кнопку «Добавить».
- Подтвердите права, что вы являетесь владельцем сайта. Скопируйте предложенный сервисом мета-тег и добавьте его в код страницы в раздел <head></head>.
- После проверки сервисом мета-тег, сайт будет добавлен и отобразится информация о нем.
Чтобы повысить точность данных, установите «Яндекс.Метрику» и привяжите её аккаунту Вебмастера. Данные, оказавшиеся в метрике, используются поисковым пауком.
Через Вебмастер получится проверить индексацию отдельных разделов. Перейдите на вкладку «Индексирование» и найдите пункт «Проверить статус URL».
Добавление веб-страниц в Google Search Console также занимает всего несколько минут и происходит по следующей схеме:
- Перейти по ссылке: https://search.google.com/search-console/welcome.
- Завести почтовый ящик в Гугл или воспользоваться существующим аккаунтом.
- Выбрать тип ресурса. Это может быть:
- Доменный ресурс;
- Ресурс с префиксом в URL.
- Подтвердить права на сайт.
- Нажать на кнопку «Продолжить», и адрес попадет в систему.
Программы от этих поисковиков схожи по многим параметрам. Оба сервиса предоставляют пользователям доступ к отчетам о текущем состоянии индексирования. С их помощью легко отследить, какие разделы добавлены поисковиком, увидеть обнаруженные на сайте ошибке, получить рекомендации по доработкам.
Создать файл robots.txt
Этот файл предназначен для того, чтобы указывать роботам ПС, какие разделы доступны для проверки, а какие - нет. Любой веб-ресурс состоит из содержательных и технических разделов. К последним относятся результаты поиска, системные файлы, личный кабинет, корзина и другие сведения, не представляющие пользы для посетителей или поисковика.
Чтобы ограничить индексирование подобных разделов, в корневой папке сайта создают файл robots.txt и добавляют туда ссылки на них. Главное - проверить перед запуском сам файл и его синтаксис, иначе он будет действовать некорректно. Например, запрещено использовать кириллицу. Если домен прописан русскими буквами, нужно воспользоваться конвертерами.
Рекомендации Яндекса по файлам robots.txt.
Поисковик даёт рекомендации:
- По наполнению файла, какие директивы использовать.
- Как добавлять информацию о доменах на кириллице – сайт.рф.
- Как создать файл robots.txt.
С помощью robots.txt можно закрыть сайт от индексирования Google и открыть его только для Яндекса. Это выполняется двумя способами. Добавьте следующие правила:
- User-agent: Google
- Disallow:/
- User-agent: Yandex
- Allow:/
Если надо распространить для всех ПС, в «User-agent» вместо поисковика, добавляют символ «*». Подробнее про настройку файла robots.txt.
Также запрет на индексацию страниц сайта реализуется с помощью мета-тегов. На странице, которую нельзя индексировать требуется прописать тег:
<meta name=«robots» content=«noindex, nofollow»/>.
Создать файл sitemap.xml
Sitemap - отдельный xml-документ, где собраны все URL-адреса сайта. Такой файл становится своеобразным путеводителем для поисковиков. Используя предоставленные данные, они узнают, какие материалы доступны и как их найти. Благодаря карте XML ускоряется работа краулеров, так как им не надо переходить на сайт, есть отдельный URL на каждый новый документ.
Создание карты XML предусматривают все популярные CMS. Если сайт работает без движка, сделайте карту при помощи сервисов Gensitemap и XML-Sitemaps, но бесплатно можно добавить не более 1000 страниц.
Чтобы sitemap.xml действительно ускорил проверку, нужно следовать следующим правилам:
- Добавить путь до карты в документ robots.txt. Так робот быстрее сможет перейти в этот раздел.
- Добавить ссылку в сервисы для вебмастеров. Там также выполняется его проверка. Есть различия у «Яндекс.Вебмастера» и Google Search Console. Вебмастер автоматически обнаруживает файлы Sitemap в robots.txt. В Google Search Console с этим возникают проблемы. Иногда сервис не находит карту сайта, поэтому приходится указывать путь к нему вручную.
- Настроить динамический sitemap.xml. Файл будет автоматически обновляться при добавлении новых страниц на сайт или корректировке старых. Нередко владельцы веб-ресурсов забывают об этом и непреднамеренно оставляют на карте устаревшие сведения.
Создать HTML-карту
Ссылки на карту встречаются в подвале сайта, то есть в самом нижнем блоке, расположенным под основным контентом. Грамотно разработанная HTML-карта способствует повышению скорости сканирования ресурса поисковыми роботами и помогает им ориентироваться.
Создать понятную многоуровневую структуру
Продуманная структура также способствует повышению скорости индексирования. Чтобы она действительно помогла снизить время проверки, нужно при разработке учитывать требования ПС:
- структура должна быть понятной;
- не стоит придумывать длинные URL, в них отражается суть раздела или страницы;
- URL должны быть понятны не только паукам, но и посетителям.
При этом стоит учитывать, что ее разработка во многом зависит от формата веб-ресурса: структуры лендинга или сайта-визитки отличаются от интернет-магазина или тематического форума.
Оптимизировать скорость загрузки
Чтобы ускорить загрузку, надо:
- уменьшить размер страниц;
- упростить код - вынести стили и скрипты в отдельные файлы;
- уменьшить размер изображений до актуальных, оптимизировать их вес.
Определить скорость загрузки получится при помощи бесплатных сервисов. Для этих целей разработаны tools.pingdom.com и gtmetrix.com.
Создать внутреннюю перелинковку
Желательно, чтобы в отдельных разделах присутствовали ссылки на другие страницы. Если ведется перелинковка в интернет-магазине, добавьте ссылки на аналогичные и сопутствующие товары. Например, при публикации содержательных статей можно ссылаться на дополняющие материалы, опубликованные ранее, а также сделать рубрику с ссылками «Также полезно знать».
Как подобрать материал, в который может добавить ссылку на новый? Для этого используется поисковик и особый тип запроса «ключевое слово site:domen.ru», например, для это статьи можно подобрать следующие страницы для перелинковки:
Внешние сигналы
Сделайте репост опубликованного материала в социальные сети (например, личные страницы или сообщества в Facebook и ВКонтакте), добавьте ссылки на тематические форумы, доски объявлений и другие сторонние ресурсы (партнерские или спонсорские). Это позволяет поисковым краулерам быстрее обнаружить страницу. Видя, что ей поделились, он считает информацию, размещенную там полезной для пользователей, что ускоряет анализ содержимого.
Проверка индексации сайта в поисковых системах
Проверить, проиндексирован ли веб-адрес, можно несколькими способами, как через поисковики, так и с помощью сторонних сервисов.
Специальные операторы
Число проиндексированных разделов через ПС получится проверить с помощью специального оператора «site:domen.ru». Для этого нужно после него в строке добавить адрес веб-ресурса. Примерное количество указано в верхней части поисковой выдачи.
Пример для Яндекс:
«Нашлось 640 результатов», говорит о том, что в индексе поисковика 640 страниц с этого сайта.
Пример с Google:
Фраза «Результатов: примерно 603» указывает на 603 проиндексированные страницы сайта студии.
Если результаты в разных ПС сильно отличаются, это говорит, о том, что есть проблемы в обнаружении страниц роботами сайтам или других проблемах. Посмотрите на ошибки, которые указаны в сервисах для Вебмастеров.
Сервисы для вебмастеров
Если вы пользуетесь Google Search Console, выберите ресурс, информацию о котором хотите посмотреть, и в блоке «Индекс», кликните на «Покрытие». Так вы увидите, какие страницы попали в индекс Гугла, а на каких страницах обнаружены проблемы.
При работе с панелью для вебмастеров от Yandex надо открыть меню «Индексирование сайта» и перейти во вкладку «Страницы в поиске».
Такой метод позволяет увидеть, сколько URL-адресов попало в индекс, и отследить динамику.
Сторонние сервисы
Выполнить проверку получится бесплатно с помощью сторонних сервисов. Для этого подходят инструменты от pr-cy.ru. Чтобы просмотреть данные об индексации, нужно указать ссылку в свободную строку и нажать «Проверить». После этого на экране появится информация о попадании в индекс, трафике, последних событиях. Ресурс показывает количество ошибок и успешных текстов.
Аналогично работают инструменты от be1.ru. Указав адрес и нажав на кнопку «Анализировать», пользователь переходит к ключевым показателям. Здесь также легко просмотреть, адаптирован ли сервис под использование на мобильных устройствах, какова скорость загрузки и динамика посещаемости.
Видеоролик про проверку и ускорению индексации
В обучающем видеоролике, который специалисты студии подготовили для SEO-марафона, идет речь про поисковую индексацию. В нем мы рассказываем, что это такое, почему она важна для SEO, а также как и где проверять индексацию сайта. Даем рекомендации по ускорению индексации страниц поисковиками.
Резюме
Исходя из этой информации, становится понятно, что индексация важна при продвижении в интернете. Если результаты Гугл и Яндекс отличаются в десятки раз, это говорит об ошибке. Из-за них роботам труднее выполнять проверку, частота которых снижается. Если в базу данных не внесена ни одна из страниц или только несколько из них, это также сигнализирует о возможных санкциях со стороны ПС. Эффективное продвижение возможно только при постоянном контроле индексации сайта и исправлении ошибок, которые усложняют доступ роботов к страницам и содержанию.