Органический трафик из поиска — это цель любого сайта: ведь безо всяких разорительных рекламных кампаний вы получаете постоянный поток посетителей. Но для этого нужно попасть хотя бы в первую тридцатку поисковой выдачи по релевантным запросам. Это трудно, особенно в высококонкурентных нишах, где за место в топе идет настоящая бойня. Внутренние факторы оптимизации отвечают за то, чтобы сайт одинаково понравился поисковым ботам и живым пользователям. В их отладке и заключается в основном работа SEO-оптимизатора.
Эту статью мы посвятим проработке факторов внутренней оптимизации сайта, дадим подробную инструкцию по подтягиванию web-ресурса до требований поисковых систем.
Что такое внутренняя оптимизация
Для объяснения проще пойти от обратного: если внешняя оптимизация — это все, что относится к ссылочному профилю сайта, его упоминаниям на сторонних площадках, то внутренняя — это все остальное: работа над кодом, контентом, структурой, юзабилити. В общей сложности внутренняя оптимизация затрагивает все пласты ресурса, это комплексная работа — сложная, но чрезвычайно эффективная.
Внутренняя оптимизация сайта занимает большую часть времени и усилий в СЕО. Зато вдумчивое улучшение внутренних факторов повышает качество ресурса и отражается на позициях в поисковиках. Краулеры быстро индексируют страницы, четко определяют, каким запросам релевантен контент, а удобный и полезный сайт имеет хорошие поведенческие факторы, которые играют решающую роль в ранжировании Google и Яндекса.
Если вы хотите поднять позиции своего сайта, привести на него органический трафик, улучшить поведенческие факторы, то без внутренней оптимизации не обойтись.
Инструкция по внутренней оптимизации
Анализ внутренней оптимизации сайта идет по 6 направлениям:
- Технические факторы.
- Семантическое ядро и контент.
- Внутренняя перелинковка.
- Оптимизация изображений.
- Юзабилити.
- Кликабельность сниппета.
Планомерная оптимизация каждого из этих внутренних факторов дает в перспективе хорошие результаты. Сразу нужно подготовиться, что SEO — это не про взрывной рост позиций. Если вам надо быстро взлететь в топ, поможет только реклама или черные методы продвижения. Но трафик с рекламы заканчивается в момент, когда вы перестаете платить, а головокружительный взлет за счет черного SEO обычно заканчивается не менее головокружительным падением и долгим, мучительным выводом сайта из-под санкций поисковиков.
Мы занимаемся только легальным продвижением, которое дает на выходе качественный сайт с прочными позициями в топе поисковиков по релевантным запросам.
Оптимизация технических параметров: чек лист
Склейка зеркал
Зеркало — это доменное имя, по которому находится дубль сайта. Поисковики считают дублирующийся контент признаком некачественного сайта. Вы уверены, что никаких дублей и копипастов на вашем сайте нет и быть не может, а тем временем поисковый бот вдруг обнаруживает, что сайт оказывается доступен аж по 4 адресам:
www.site.com;
site.com;
http://site.com;
https://site.com.
URL-адреса с разными префиксами бот индексирует как разные сайты. Чтобы закрыть дубли, нужно определить главное зеркало, т.е. приоритетный URL, и дать команду поисковым системам по всем адресам отдавать основную страницу. Если вы оформили SSL-сертификат, обеспечивающий защищенное соединение, то главное зеркало должно быть с протоколом https. С прочих адресов на него должен быть настроен постоянный 301 редирект.
Файлы robots.txt и sitemap.xml
Robots.txt и sitemap.xml — служебные файлы, которые помогают краулерам корректно и быстро проводить индексацию. Если их не прописать, боты будут индексировать сайт на свое усмотрение, что часто оказывается не в ваших интересах. Во внутренней оптимизации каждый фактор дает преимущество, в том числе корректное оформление robots.txt и карты сайта.
Robots.txt — руководство по индексации для краулера. Если на этапе разработки программист прописал директиву «User-agent: *Disallow: /» (т.е. полностью закрыл от индексации все страницы) и забыл об этом в процессе запуска, то сайт просто будет игнорироваться поисковиками. Это распространенный косяк, полностью убивающий все усилия по продвижению, так что любой аудит нужно начинать с проверки служебного файла robots.txt.
С помощью определенных команд robots.txt можно настроить под краулеры популярных поисковых систем:
- User-agent: * # — указания для всех ботов;
- User-agent: YandexBot # — указания для Яндекса;
- User-agent: Googlebot # — указания для Google.
Команды Disallow/Allow запрещают или разрешают индексацию либо всех страниц ресурса (#), либо каких-то конкретных. Закрытые от индексации страницы в robots.txt решают множество проблем с дублями и безопасностью конфиденциальной информации. Подробно об оформлении служебного файла мы писали в статье Robots txt - как правильно настроить файл.
В конце robots.txt нужно указать путь к файлу карты сайта. Sitemap передает поисковику информацию о страницах, которая существенно ускоряет их индексацию:
- URL,
- дату последнего обновления,
- частоту обновлений,
- приоритетность.
Поисковый робот воспринимает этот файл как маршрут, по которому должна проходить индексация. Нужно следить, чтобы закрытые от индексации страницы в robots.txt не попали в карту: это только запутает поискового робота.
Файл sitemap.xml можно сгенерировать на одном из онлайн-сервисов, например, Sitemap генератор. В большинстве CMS есть плагины, которые не только создают карту сайта, но и следят за ее обновлениями.
Корректность индексации страниц и ссылок
Чем быстрее поисковик индексирует страницы, тем лучше. Этот процесс можно и нужно контролировать. Самый простой способ узнать, сколько документов уже проиндексировано, ввести URL главного зеркала в поисковую строку с оператором «site:» без пробелов. Способ работает в Яндексе и Google.
Яндекс проиндексировал 567 страницы нашего сайта
В индексе Google 575 страницы
Статистика по индексации доступна в панелях Яндекс.Вебмастер и Google Search Console, есть и онлайн-сервисы, предоставляющие такие отчеты, например, https://xseo.in/indexed.
Индексацией можно управлять не только с помощью служебных файлов. Атрибуты nofollow и noindex для метатега robots в html-коде закрывают от краулеров нежелательный контент или ссылки. Работает это так:
- <meta name="robots" content="index,follow" /> — команда роботу индексировать контент и переходить по ссылке;
- <meta name="robots" content="noindex,nofollow" /> — команда не индексировать и не переходить по ссылке;
- <meta name="robots" content="index,nofollow" /> — разрешено индексировать контент, но по ссылке переходить нельзя;
- <meta name="robots" content="noindex,follow" /> — не индексировать, но по ссылке переходить.
Подробно про метатег robots читайте в справке Google.
Качественный хостинг
К выбору хостинга нужно сразу подходить с умом: прикинуть сложность и перспективы развития своего проекта, изучить надежность хостинг-провайдера. Главная задача хостинга — обеспечивать круглосуточную и быструю работу сайта, поэтому первое, на что надо смотреть:
- uptime — соотношение бесперебойной работы к общему рабочему времени, норма — 99, 95 % и выше;
- время отклика сервера, норма 200 мс и ниже;
- геолокация сервера в вашем регионе;
- на виртуальных хостингах важно проверить соседство: если соседи мошенники, делить с ними IP-адрес чревато неприятностями.
Подробно о проблеме мы писали в статье Как хостинг влияет на SEO продвижение сайта.
Настройка 404 страницы
Если со страницей все в порядке, она отдает код 200. 404 код сообщает об ошибке: ссылка ведет на несуществующий документ. Проблема битых ссылок не обязательно говорит о некачественном сайте. Часто, наоборот, это признак живого, регулярно обновляющегося ресурса. Но пользователи думают иначе: 404 ошибка обычно становится поводом вернуться к поиску, а это ухудшает поведенческие факторы, и вы теряете позиции в выдаче.
От появления битой ссылки никто не застрахован, поэтому обязательно нужно оформить «заглушку» — страницу, которая не просто сухо сообщает «404. Page not found», а предлагает сценарий, по которому заблудившийся пользователь сможет вернуться на «живые» разделы сайта.
Обычно, попадая в тупик, человек испытывает негативные эмоции, поэтому многие web-мастера снижают градус недовольства уместной шуткой и извинениями. Хорошая 404 страница выполнена в стилистике сайта, предлагает пользователю несколько точек выхода (как минимум, на главную) и нивелирует раздражение.
Настройка 301 и 302 редиректов
Редирект — это перенаправление пользователя с нежелательной страницы на приоритетную. Переадресация в частности решает проблему дублей, когда по нескольким адресам расположен одинаковый контент.
301 редирект — настраивается для постоянной переадресации, когда приоритетный URL назначается раз и навсегда, а весь ссылочный вес и трафик с устаревшего адреса переходит на новый. Основные причины для 301 редиректа:
- замена домена;
- переход на другую CMS, потянувший за собой смену адресов;
- подключение SSL-сертификата и переезд на безопасный протокол https;
- структурные изменения сайта, которые привели к смене адресов документов;
- замена нечитабельных URL на «человекопонятные».
302 редирект — это временное перенаправление, которое настраивается в случае непродолжительных технических работ на адресе. При этом вес с закрытого URL не переходит на временную заглушку.
Важно корректно настраивать редиректы. Проверить их можно в онлайн-сервисах типа Redirect Checker. Основная ошибка, возникающая при настройке переадресации, цепочка редиректов, когда страница №1 перенаправляет пользователя на страницу №2, а та, в свою очередь, считает приоритетной страницу №3 и перекидывает посетителей туда. Для группы дублирующихся страниц должен быть определен только один главный адрес, на который настраивается редирект. С главного адреса никаких переадресаций быть уже не может — это конечный пункт назначения.
ЧПУ
Человекопонятный URL — это важный фактор внутренней оптимизации сайта. Доступный для восприятия адрес нравится и поисковому роботу. Идеальный URL:
- легко читается: написан или на английском языке, или русские слова латинскими буквами, для корректной записи можно использовать онлайн сервис Транслитерация для поисковиков Яндекс и Google;
- вписывается в пределы 110 символов;
- наглядно демонстрирует вложенность страницы: site.com/razdel/tovar;
- включает 1–2 ключа.
Избавление от дублей
Дубли контента и метатегов тормозят индексацию, сжирают краулинговый бюджет (лимит на индексацию за определенный период времени), негативно влияют на ранжирование. К тому же поисковые системы считают любые дубли признаком некачественного сайта и манипуляций выдачей, поэтому за них легко схлопотать понижение позиций в выдаче.
Выявление и профилактику дублей нужно проводить регулярно. Основные факторы возникновения одинакового контента на разных адресах одного домена:
- Возможность захода на страницу с по-разному прописанных адресов: с www и без, со слешем (/) и без, с протоколами http и https. Лечится грамотной склейкой зеркал и прописыванием 301 редиректа.
- Адреса с GET-параметрами, прописанными после ? по формуле запрос–ответ. Таких параметров может быть много, и каждый URL с новым GET-параметром становится дублем исходной страницы. Лечится запретом индексирования в файле robots.txt.
- Карточка товара, доступная в разных разделах, соответственно, имеющая разные URL. Лечится настройкой атрибута rel="canonical" для тега , который указывает краулеру, какую страницу считать канонической. Подробно мы разбирали эту тему в статье Атрибут rel canonical - где прописывать тег.
- Пагинация — разделение длинных списков товаров или статей на отдельные страницы. Лечится также настройкой rel="canonical".
Обнаружить дубли можно с помощью специальных программ: платной Screaming Frog (бесплатный российский аналог SiteAnalyzer) и бесплатной Xenu's Link Sleuth.
Валидность HTML-кода
Валидность кода — это соответствие стандарту, утвержденному консорциумом всемирной сети The World Wide Web Consortium. Сайты с валидным кодом одинаково корректно отображаются на разных устройствах и браузерах, т.е. являются кроссплатформенными и кроссбраузерными.
Ошибки в HTML затрудняют:
- сканирование и индексирование сайта;
- подстройку под разные платформы и мобильные устройства;
- внедрение структурированной разметки.
Валидность проверяется онлайн-валидаторами, которые анализируют синтаксис, вложенность и корректность написания тегов и атрибутов. Например, инструмент, созданный непосредственно консорциумом The W3C Markup Validation Service.
Скорость загрузки
Скорость загрузки страниц — это официально признанный поисковиками фактор ранжирования. Оптимальной считается скорость в 1-3 секунды, каждая последующая доля секунды задержки увеличивает процент отказов, когда пользователи, не в силах больше ждать, покидают сайт.
Быстро проверить скорость сайта можно на бесплатном сервисе PageSpeed Insights от Google.
Тормозят загрузку несколько факторов: медленные хостинг или CMS, тяжелые файлы, замусоренный код, огромное количество страниц. Борьба за секунды идет по нескольким направлениям:
- оптимизировать картинки: уменьшить их вес, размер, поставить превью с возможностью перехода на полную версию;
- оптимизировать CSS и JavaScript, почистить код;
- выбрать сервер, находящийся недалеко от целевой аудитории;
- настроить кэширование;
- сделать легкие версии страниц: Turbo для Яндекса и AMP для Google.
Подробно об оптимизации скорости читайте в статье Как проверить скорость загрузки сайта.
Адаптивная версия сайта
Адаптация под мобильные устройства — ключевой фактор ранжирования не только в мобильном, но и в десктопном поиске. Больше половины всех пользователей интернета заходят на поиск через смартфоны, и эта цифра только растет. Без удобной адаптивной версии у ресурса практически нет шансов пробиться в ТОП Яндекса, а Google просто не допустит его появление на высоких позициях в выдаче.
Проверить адаптацию под мобильные устройства, можно Google-инструметом Mobile-Friendly Test.
Оптимизация контента
Семантическое ядро
Семантическое ядро составляется из фраз, по которым люди будут находить вас в поисковиках. Именно семантика, сгруппированная в тематические кластеры, определяет структуру сайта, характер контента и заполнение метатегов.
Сбор и кластеризация семантики — это глобальная стратегическая работа. При сборе запросов нужно учитывать их частотность, конкурентность, интент, геозависимость и сезонность.
Семантику для небольшого сайта можно собрать и вручную, правда, так вы рискуете упустить какие-то неочевидные, но полезные для продвижения запросы. Эффективнее использовать специальные программы, которые ищут ключи в базах данных самих поисковых систем.
Самый популярный бесплатный инструмент для сбора семантики Яндекс-Wordstat. Здесь собирается ежемесячная статистика Яндекса по тематическим запросам в поиске.
Так выглядит отчет в Вордстате по запросу «внутренняя оптимизация». Цифры в столбике «Показов в месяц» демонстрируют базовую частотность ключевой фразы
В Вордстате обычно собирают базу, но чем богаче семантическое ядро, тем выше шансы попасть в лидеры. Поэтому нужно использовать разные инструменты, а потом очистить список от мусорных и нерелевантных запросов.
Бесплатно расширить семантику можно с помощью сервиса Мутаген и базы Букварикс. Самая авторитетная платная программа для составления семантического ядра — Key Collector. Ее использует большинство специалистов по SEO-продвижению.
О том, как собирать семантику, мы писали в статье Как сделать подбор ключевых слов - онлайн-сервисы для подбора ключей.
Контент
Оптимизация контента — это написание новых статей под собранные кластеры запросов и обновление старых материалов: редактирование, чистка от переспама, внедрение подходящих ключевиков.
Поисковики активно агитируют за качественный контент: полезный, достоверный, интересный, хорошо структурированный, уникальный, написанный понятным языком. Этого же ждут от сайта и пользователи.
Оптимизированный текст должен соответствовать нескольким важным требованиям поисковиков к контенту.
- Высокая уникальность, но без ущерба достоверности: если вы пишете о юридических законах или публикуете рецепт блюда, нельзя в погоне за технической уникальностью искажать статьи Уголовного Кодекса или заменять сахар на крахмал.
- Гармоничное распределение ключей, отсутствие переспама и пересечения запросов с разным интентом (информационных с коммерческими).
- Контент на странице должен давать полную информацию по запросу, по которому она продвигается. Также не должно быть пересечений по запросам с другими страницами сайта.
- Текст должен быть отформатирован и иметь ясную структуру с заголовками, делением на абзацы, визуальными маркерами.
- Хорошие, но устаревшие статьи можно и нужно актуализировать: обновлять информацию в соответствии с текущей повесткой.
Все про вдумчивую проверку качества контента мы рассказали в статье Текстовый анализ сайта.
Не ограничивайтесь только текстовым контентом. Видео, иллюстрации, инфографика, подкасты отлично дополняют текст.
Метатеги
Метатеги сообщают поисковому роботу важную информацию о содержании страницы. Чем точнее сформулированы Title, Description и теги иерархии H1-H6, тем проще краулеру определить релевантность документа. Правильные метатеги едва ли не сильнее влияют на ранжирование, чем тексты внутри платформы, поэтому их обязательно нужно прописывать, следуя требованиям поисковых систем.
- Title — заголовок страницы, отображается в сниппете и в названии открытой вкладки в браузере. Базовые требования:
- оптимальная длина 70 знаков с пробелами,
- обязательное присутствие основного ключа в начале заголовка;
- уникальность тега относительно других страниц сайта и сторонних ресурсов в сети;
- заголовок должен кратко, но емко отражать суть страницы.
- Description — краткое описание содержимого страницы, отображается в виде анонса в сниппете, дает более полное, чем в Title, представление о сути контента, влияет на CTR (кликабельность). Базовые требования:
- оптимальная длина 255 знаков с пробелами для Яндекса, 120 для Google.
- должны быть прописаны ключи, наиболее релевантные содержимому документа;
- метаописание должно цеплять и мотивировать перейти по ссылке.
- Заголовки H1-H6 — это теги, формирующие структуру и иерархию внутри документа. Отображаются в тексте в виде заголовков и подзаголовков. Базовые требования:
- заголовок H1 не должен дублировать Title, на странице его нужно прописывать только 1 раз;
- подзаголовки должны четко сохранять иерархию и вложенность: например, после подзаголовка H2 не может вдруг появиться H4 вместо H3. Вложенность глубже H3–H4 уместна только в лонгридах с большим объемом структурированной информации;
- здесь желательно также прописывать основные запросы, по которым продвигается страница.
Внутренняя перелинковка
Перелинковка — это размещение в документе ссылок на другие релевантные материалы сайта. Это полезная штука во всех отношениях:
- пользователь может без лишних телодвижений быстро получить дополнительную информацию;
- вы ненавязчиво удерживаете посетителя на своем сайте, тем самым улучшая поведенческие факторы;
- поисковый бот учитывает внутренние линки в ссылочном профиле страницы: грамотная внутренняя перелинковка вместе с полезным контентом способствует попаданию сайта в ТОП по низкочастотным запросам без покупки внешних ссылок.
Активная перелинковка также работает на трастовость сайта: поисковик видит, что ресурс не заброшен, постоянно обновляется и развивается, пользователи переходят по внутренним ссылкам, поэтому ему можно доверять и пропускать в ТОП.
Кроме ссылок, внедренных в тело статьи, перелинковку можно делать в виде блока в конце публикации со списком похожих статей.
Сквозная перелинковка работает как навигатор: пользователь по хлебным крошкам или по постоянным ссылкам в шапке всегда может вернуться в нужный раздел.
Оптимизация изображений
Оптимизация изображений на сайте дает небольшое преимущество, которое может выстрелить при прочих равных в конкурентной борьбе за место в ТОПе. Плюс оптимизированные иллюстрации отображаются в поиске Яндекса и Google по картинкам, а это дополнительный источник трафика.
- Полновесные картинки в высоком разрешении тормозят загрузку, поэтому необходимо все картинки перед заливкой на сайт прогонять через сервисы сжатия, например, TinyPNG. Если качество картинки важно, делайте превью, с которого можно перейти на полновесный файл.
- ля каждого изображения заполняйте тег Alt — это текстовое описание картинки, куда можно дополнительно вписать ключи, и которое отображается, если пользователь отключил отображение графики.
- По возможности публикуйте уникальные изображения.
- Настройте для картинок разметку schema.org.
Проверка юзабилити: чек-лист
Юзабилити — это удобство пользования сайтом. Когда человек не понимает логику, не может разобраться, как ему совершить целевое действие, блуждает по сайту в поисках нужной информации, он испытывает негативные эмоции и вряд ли когда-нибудь вернется обратно, если только это не портал Госуслуг.
Посмотрите на свой сайт как бы сторонним взглядом, а еще лучше спросите мнение пользователей. Особенно важно качество юзабилити при внутренней оптимизации интернет-магазина. Здесь покупатель остается один на один с сайтом, поэтому главное для разработчиков продумать все сценарии и предупредить все вопросы.
Для проверки юзабилити используйте краткий чек-лист:
- Дизайн: нравится вашей ЦА.
- Кнопки: удобно нажимать, имеют понятные надписи или иконки, не вызывающие разночтений.
- Навигация: продумана, имеет прозрачную логику, главное меню на виду, не перегружено и отображает основные разделы сайта. На страницах размечены хлебные крошки, на больших площадках есть поиск по сайту.
- Контакты: указаны все возможные способы связи в текстовом формате, чтобы их легко можно было скопировать, карта, схема проезда, есть форма обратной связи.
- Страницы категорий: имеют гибкие настройки для удобного отображения и сортировки карточек, есть настраиваемые фильтры и возможность сравнения товаров.
- Карточки товаров предоставляют полную информацию:
- фото с разных ракурсов, видеообзор;
- полное наименование;
- технические характеристики и описание;
- цену;
- отзывы;
- кнопку «Купить»;
- специальные метки (акция, последняя пара, хит продаж и т.п.);
- информацию о гарантии и условиях возврата;
- способы оплаты и доставки;
- ссылки на сопутствующие или похожие товары.
- Оформление текстов: читабельные шрифты, заголовки, абзацы, крупный кегль (12–16 pt), неплотный интерлиньяж, недлинные строки.
- Изображения: качественные, уместные, раскрывают тему, сохраняют стилистическое единообразие.
Сайт необходимо делать удобным, тестировать варианты, анализировать поведение пользователей, заимствовать хорошие идеи по улучшению юзабилити на крупных площадках и внедрять их у себя.
CTR сниппета
Сниппет — визитная карточка сайта на странице поисковой выдачи. У вас только один шанс зацепить пользователя, чтобы он захотел перейти по ссылке. Сниппет формируется автоматически поисковым роботом, но влиять на этот процесс все-таки можно.
Что предпринять для повышения кликабельности (CTR) сниппета:
- Сделать внятный и запоминающийся фавикон (иконку-символ сайта).
- Прописать для каждой страницы цепляющий Title и интригующий Description.
- Настроить микроразметку Schema.org, которая дает шанс получить расширенный сниппет.
- Зарегистрироваться в Яндекс-Справочнике и Google Maps.
- Подключиться к сервисам поисковых систем Яндекс-Маркет и Google Merchant Center.
- В консолях web-мастеров оформить быстрые ссылки.
- Внедрить хлебные крошки.
Вывод
Внутренняя оптимизация — это глобальная работа, охватывающая практически все пласты сайта. Содержание нашей статьи можно использовать в качестве плана действий для «генеральной уборки» на своем web-ресурсе. Шаг за шагом приводя в порядок все внутренние факторы оптимизации, вы гарантированно сдвинетесь с мертвой точки и улучшите свои позиции в поисковых системах.
Комментарии