Базовое SEO

В последнее время многие заказчики, которые обращаются к нам в студию, часто говорят примерно следующее: «Мне нужен качественный современный сайт и базовое SEO». При этом, что такое базовое SEO мало кто из них понимает.

Дело в том, что сейчас многие бизнесмены интересуются развитием своего проекта в интернете и стараются узнать об этом больше. Однако информация в сети по этой теме довольно разрозненная и неподготовленному человеку трудно в этом всём разобраться сразу.

Базовое SEO

Вот и получается, что у заказчика есть понимание того, что сегодня недостаточно иметь просто красивый сайт, его нужно еще и продвигать, чтобы он приносил прибыль. А один из каналов продвижения – это раскрутка сайта в органическом поиске. Многие также понимают, что не любой сайт можно взять и продвинуть в ТОП, ведь для этого желательно ещё на этапе создания учесть все требования поисковых систем, т.е. выполнить базовую оптимизацию. Но вот из чего эта база состоит, понимают немногие.

Минимальное SEO, или что обычно предлагают недобросовестные разработчики

Пользуясь некомпетентностью заказчика, недобросовестные, непрофессиональные разработчики или даже студии обещают сделать сайт с базовыми настройками по SEO. На самом же деле всё ограничивается несложным набором простейших элементов, о назначении и функционале которых подрядчики и сами в лучшем случае имеют отдалённое представление.

И дело здесь даже не в недобросовестности или некомпетентности. Многие веб-студии, занимающиеся разработкой сайтов, не имеют в своём штате SEO-специалистов, которые могли бы поставить грамотное ТЗ и проконтролировать создание сайтов с учётом требований поисковой оптимизации.

Что обычно делают «специалисты» таких студий?

  1. Ставят бесплатный SEO-плагин – куда же без этого… Но сам плагин ничего не даёт, его нужно ещё правильно настроить. Т.е. это инструмент для работы веб-мастера, которым нужно уметь пользоваться, а не просто установить и забыть.
  2. Подключают сайт к Google Search Console и Яндекс.Вебмастер. Да, это нужно, но что дальше? Это ведь тоже рабочий инструмент, который сам по себе в пассивном режиме не выведет интернет-ресурс в ТОП.
  3. Более «продвинутые» разработчики могут даже заполнить мета-теги title на основных страницах. Но опять-таки, нужно знать, как правильно их составить, чтобы они работали и не приводили к фильтру от поисковых систем за спамный контент.
  4. Некоторые идут «ещё дальше» и добавляют на сайт файлы sitemap.xml и robots.txt. Да, это важные файлы (хотя в последнее время не такие уж и важные). Но если XML-карту сайта ещё можно автоматически сгенерировать и она будет почти правильной, то в robots.txt нужно прописать директивы конкретно для вашего сайта. Обычно же разработчики «заливают» в корневой каталог шаблонный файл и на этом всё заканчивается.
  5. Также могут добавляться «хлебные крошки». Это важный элемент навигации, но простого его существования недостаточно. Желательно сделать микро-разметку «хлебных крошек», чтобы снипет сайта в поисковой выдаче был более привлекательным и информативным, а значит и более кликабельным, чем у конкурентов.
  6. Иногда к сайту подключают системы веб-аналитики – Google Analytics и Яндекс.Метрику. Без правильной работы с этими системами, как сказал один из сотрудников Google, они превращаются просто в счётчик трафика. Вообще веб-аналитика – это отдельная фундаментальная область интернет-маркетинга и к базовым SEO-настройкам её невозможно отнести, т.к. веб-аналитику саму нужно правильно настроить и в дальнейшем правильно использовать. А это требует специальных знаний.
  7. Ну и самый большой ляп в условиях Mobile-first indexing – это когда сайт хорошо работает на стационарных устройствах (компьютер, ноутбук), но медленно грузится или не полностью функционирует на мобильных. А ведь сейчас поисковые системы, в частности Google, считают именно мобильную версию сайта основной, и от её качества напрямую зависит успех поискового продвижения.

Правильная базовая поисковая оптимизация. Как это делаем мы?

В студии Polyarix имеется свой SEO-отдел. Он принимает активное участие с самого начального этапа разработки веб-ресурсов наших клиентов. Как же у нас проходит этот процесс в разрезе SEO?

  1. Вначале мы пишем техническое задание для разработчиков, в котором описываются все требования по базовой поисковой оптимизации.
  2. Затем это ТЗ отдаётся в отдел разработки.
  3. В процессе работы осуществляется непосредственная коммуникация программистов с SEO-шниками, чтобы избежать возможного недопонимания и правильно выполнить все пункты техзадания.
  4. В конце работы, когда сайт готов, наш отдел поискового продвижения выполняет технический аудит сайта, чтобы выявить возможные ошибки, недоработки, несостыковки с ТЗ и устранить их до момента открытия сайта для индексации поисковыми роботами.

Что входит в пакет «Базовое SEO» в агентстве Polyarix?

Правильная структура сайта

Прежде всего, для успешного продвижения веб-ресурса необходимо составить правильную структуру. Это позволит распределить на страницах ключевые слова, соответствующие поисковым запросам пользователей, так, чтобы они не конкурировали друг с другом (канибализация), а гармонично дополняли друг друга.

Структура сайта

С этой целью мы собираем основное ключевое ядро. Детальная проработка семантического ядра – это уже работа, выходящая за рамки базовых SEO-настроек, поэтому на данном этапе определяются основные ключи.

Исходя из собранных данных, а также следуя пожеланиям заказчика, разрабатывается архитектура сайта.

ЧПУ – человеко-понятные УРЛ

После того как мы определились со структурой, утверждаем с заказчиком, какой контент будет на каждой странице. При этом каждой странице присваивается так называемый ЧПУ – адрес страницы, транслитерированный с кириллицы на латиницу. Почему это важно?

  • Во-первых, увидев снипет вашей страницы в результате поиска, пользователь скорее поймёт, что именно эта страница соответствует его запросу и перейдёт на неё.
  • Во-вторых, находясь на сайте, человеку проще понять, в каком именно разделе он находится.

И наконец, в-третьих,  поисковые системы отдают приоритет сайтам с ЧПУ, поскольку заинтересованы в том, чтобы пользователи получали релевантные ответы на вводимые запросы. Т.е. ЧПУ является одним из факторов ранжирования.

Правильные мета-теги: закладываем возможность их формирования

Мета-теги (особенно title) являются важным фактором, по которому поисковые роботы определяют релевантность страницы поисковому запросу. Сейчас их значение для ранжирования уже не такое большое, как несколько лет назад, тем не менее, это по-прежнему важная часть контента для поисковой оптимизации.

Мета теги

Мета-описания title, description и keywords заполняются по-разному — на этот вопрос у разных оптимизаторов разное мнение. Но на этапе создания сайта важно заложить возможность их заполнения из админпанели, чтобы SEO-шник не бегал каждый раз с просьбами к разработчику. Также важно, особенно для больших интернет-магазинов, иметь возможность прописывать мета-теги группы страниц по маске.

Именно поэтому ещё на этапе создания сайта мы учитываем данные требования.

Устраняем дубли страниц до открытия сайта для индексации

Очень важно не допустить наличие дублей страниц. Дубли могут быть разные, например, страница site.com/page1 может открываться по адресу site.com/page1.html. С точки зрения человека — это одна и та же страница, но с точки зрения поискового робота — это две разные страницы с дублирующимся контентом.

Чем чревато наличие на сайте дублирующихся страниц, мы расскажем в другой статье. Здесь же отметим, что этого нужно избегать. Поэтому перед тем, как открыть новый сайт для индексации поисковыми системами, мы тщательно выявляем все возможные виды дублей и устраняем их на этом этапе.

Основное зеркало сайта

В продолжение предыдущего пункта отметим важность настройки основного зеркала.

Зеркало сайта – это его копия с полным или частичным дублированием контента. При создании сайт доступен по двум адресам с www и без. Например, site.com и www. site.com/. Опят таки, для пользователя это один и тот же сайт, но для поисковой системы — это два разных сайта, которые дублируют друг друга.

То, что поисковики пессимизируют сайты с ненастроенным основным зеркалом – это одна сторона медали. Кроме того, при наращивании ссылочного профиля возможно ошибочное проставление части ссылок на одно зеркало, а другой части на второе. В результате ссылочная масса размывается, а продвижение сайта замедляется.

Чтобы указать основное зеркало сайта, обычно мы настраиваем редиректы с версии www на без www (можно наоборот). Затем в панелях для вебмастеров Яндекс.Вебмастер и Google SearchConsole указываем предпочтительную версию URL.

HTTPS – сегодня это must have

Сейчас поисковые системы всё более настойчиво рекомендуют переходить сайтам на защищённый протокол обмена данными (HTTPS-протокол). Это связано с тем, что ПС заботятся о безопасности пользователей и стремятся свести к минимуму возможную утечку персональных данных, например, в руки мошенников.

Для того чтобы использовать HTTPS-протокол, необходимо установить на сайте SSL–сертификат. Не будем вдаваться в технические подробности – это выходит за рамки темы данной статьи. А вот то, что использование защищённого протокола является фактором ранжирования – это доказано не одним исследованием ведущих мировых SEO-кампаний.

HTTPS

Кроме того, современные браузеры всё чаще выдают предупреждение о риске утечки информации, если посетитель заходит на сайт, использующий не защищённый HTTP-протокол. Это в свою очередь приводит к уходу пользователя с сайта, а значит и потере возможной прибыли. Не говоря уже о том, что подобного рода отказы отрицательно влияют на ранжирование сайта в выдаче.

Правильная настройка пагинации

Если на сайте есть страницы с порядковой нумерацией внизу – это называется пагинацией. Подобная ситуация часто встречается в интернет-магазинах или контентных проектах (блоги, новости и т.п.)

Пагинация

Проблема в том, что поисковые роботы «видя» такие старицы могут воспринять их как дубли. Ведь зачастую мета-теги у них совпадают, а также может повторяться сквозной текст. Чтобы этого не допускать, следует уникализировать мета-теги и правильно указать каноническую страницу.

Важно помнить, что для указания канонической страницы необходимо использовать атрибут rel=«canonical», а не rel=«prev|next» о котором Google заявил, что он «давно его не учитывает».

Так если у нас есть две старицы пагинации с адресами site.com/catalog/page-1 и site.com/catalog/page-2, то d секции <head></head> HTML-кода каждой страницы мы прописываем следующее <link rel=»canonical» href=»site.com/catalog/page-1″/>.

Вообще вариантов использования этого атрибута несколько, всё зависит от конкретного проекта. Гугл, например, вообще не рекомендует разбивать контент пагинацией. Но как тогда быть большим магазинам с десятками тысяч товаров? Если все карточки товара поместить на одну страницу, то грузиться она будет очень долго.

Обычно мы используем описанный выше метод. Правильно настроенная пагинация поможет избежать таких проблем с индексацией как:

  • попадание в индекс не тех страниц, которые выбраны для продвижения;
  • непопадание приоритетных страниц в индекс;
  • восприятие вашего сайта как низкокачественного и понижение его в выдаче.

Все редиректы должны быть только 301

Для начала отметим, что в основном используются 2 вида перенаправления:

  • 301 – постоянное;
  • 302 – временное.

Безусловно, бывают случаи, когда нам нужно перенаправить посетителя на нужную нам страницу временно. Если мы проводим акцию и желаем, чтобы пользователь переходил на страницу с акционным предложением по конкретному товару и при этом не хотим переделывать основную страницу этого товара. В таком случает нам как раз подойдёт 302 редирект, ведь с точки зрения SEO:

  • не передаётся ценный ссылочный вес с основной страницы на временную;
  • основную страницу поисковые роботы «не забывают» и продолжают индексировать;
  • основная страница не выпадет из результатов поиска.

Такой вариант подходит для частных случаев. Если же вы заказали производство сайта под ключ с нуля, то, конечно, все перенаправления на рабочие страницы должны выполняться 301-м редиркектом.

301 редирет

 

Это важно потому что мы будем отправлять страницы на индексацию и соответственно изначально указывать поисковым роботам, что та структура, которую мы выстроили, является основной.

Закрытие исходящих ссылок

Бывают ситуации, когда по той или иной причине заказчику нужно сослаться со своего сайта на другой. Например, сайт школы по закону обязан ставить ссылки на государственные нормативные акты, расположенные на сайтах государственных структур.

С одной стороны, ссылка на трастовый ресурс – это плюс для продвижения сайта. Но с другой стороны, происходит утечка веса страницы на сторонний ресурс, что затрудняет работу по распределению внутреннего веса сайта. Чтобы этого избежать Google рекомендует использовать атрибут в исходящих ссылках rel=»nofollow», запрещающий роботу переходить по этим ссылкам.

Атрибут rel="nofollow"

Оптимизирована скорость загрузки

Реалии современной мировой веб-сети таковы, что посетители, избалованные скоростью интернета и большим числом сайтов, зачастую уходят с ресурса, не дождавшись его загрузки, если страница открывается более 3-4 секунд. К тому же имеется следующая не утешительная статистика. Увеличение скорости загрузки сайта более чем на 1 секунду приводит к:

  • падению числа конверсий более чем на 7%;
  • уменьшению числа просмотренных страниц на 11%;
  • снижению удовлетворённости посетителя на 16%.

Скорость загрузки мобильной версии

Поэтому крайне важно, что бы ваш сайт быстро открывался как с главной, так и с внутренних страниц. Оптимизации скорости работы сайта мы уделяем особое внимание на всех этапах разработки. Сюда входит и настройка кэширования файлов для браузера, и GZIP-сжатие, и много других технических моментов.

Скорость загрузки сайта

 Качественная мобильная или адаптивная версия сайта

В последнее время доля мобильного трафика во многих сегментах интернета стремительно возрастает. Иметь на сайте быстро работающую и удобную для пользователя мобильную или адаптивную версию – это уже не роскошь, а жизненная необходимость.

Что же касается SEO, то вообще качественная мобильная версия – это весомый фактор ранжирования. Например, Google с марта 2018 года ввёл так называемый Mobile-First Indexing. Это значит, что теперь основной версией сайта для индексации и ранжирования является мобильная или адаптивная.  Яндекс также очень большое значение придаёт качеству сайта в мобильном поиске.

Mobile first indexing

Безусловно, разрабатывая сайт, мы ориентируемся на качество его мобильной версии, не забывая и о десктопной.

Мобильная версия сайта

Здесь важно учесть множество факторов и избежать разного рода ошибок. Так, если неправильно составить файл robots.txt, о котором речь пойдёт ниже, можно запретить индексацию важных скриптов, css-файлы или изображения. В результате даже если интернет-ресурс на самом деле хорошо работает на мобильных устройствах, поисковые системы могут это просто «не увидеть» и соответственно «не оценить», что приведёт к проблемам в продвижении.

Кроссбраузерность

С учётом двух предыдущих пунктов мы разрабатываем все наши проекты таким образом, чтобы они качественно работали во всех распространённых браузерах. Это очень важно с точки зрения пользовательского опыта. Ведь если какие-то элементы не будут отображаться, то это помимо негативного отношения может привести и к снижению числа конверсий, отказам или другим негативным последствиям, которых владельцы ресурса хотели бы избежать.

Правильное указание мультиязычности

Сегодня много сайтов в сети используют несколько языковых версий. Особенно это актуально, если контент ресурса предназначен для пользователей из разных стран с разной языковой средой. При этом очень важно при продвижении верно таргетироваться, т.е. показывать соответствующую языковую версию в соответствующих региональных выдачах.

Есть несколько вариантов решения. Наиболее распространенный, который в основном используем мы, можно описать на следующем примере.

Есть сайт, имеющий 3 языковые версии:

  • русская https://site.com – по умолчанию;
  • английская https://site.сом/en;
  • французская https://site.сом/fr.

В этом случае в теге <head></head> кода главной страницы мы формируем следующий блок тегов:

<link rel=»alternate» hreflang=»ru» href=»https://site.com/» />

<link rel=»alternate» hreflang=»en» href=»https://site.com/en/» />

<link rel=»alternate» hreflang=»fr» href=»https://site.com/fr/» />

Для внутренних страниц пишем следующее:

<link rel=»alternate» hreflang=»ru» href=»https://site.com/{Директория} /» />

<link rel=»alternate» hreflang=»en» href=»https://site.com/en/{Директория} /» />

<link rel=»alternate» hreflang=»fr» href=»https://site.com/fr/{Директория} /» />

В отдельных случаях может понадобиться использование атрибута “x-default”, указывающего на использование нескольких языков на странице:

  • если есть возможность динамического выбора контента на нужном языке;
  • если есть страницы с выбором языка и региона;
  • если есть зависимые от IP страницы, перенаправляющие пользователя на подходящую языковую версию.

В этом случае используется следующая запись в HTML:

<link rel=»alternate» href=»https://site.com/» hreflang=»x-default» />

Оптимизация внутренней перелинковки

Выше мы уже упоминали настройку внутренней перелинковки, говоря об атрибуте rel=»nofollow». Для чего она нужна?

Дело в том, что поисковые роботы, индексируя страницы web-ресурса, учитывают, сколько на каждую из них ведёт ссылок с других страниц, и сколько ссылок указывают на другие страницы. Таким образом рассчитывается внутренний вес каждой страницы, который указывает на важность её по сравнению с другими (так называемый PageRank). Так, например, наибольший вес имеет главная страница, т.к. на неё ссылаются все веб-страницы.

Внутренняя перелинковка

Что это даёт для SEO? Грамотно выстраивая внутреннюю перелинковку, мы можем помочь наиболее важным страницам подниматься в ТОП за счёт роста их важности в глазах поисковиков. Именно поэтому ещё до начала создания важно правильно продумать и составить такую структуру сайта, работая с которой в дальнейшем не возникнет проблем с «прокачкой» нужных страниц внутренним весом.

Правильная иерархия заголовков группы <h></h>

В продолжение темы внутренней перелинковки отметим важность грамотного использование тегов H1-H6. Дело в том, что часто не очень добросовестные разработчики оборачивают этим тегом рабочие кнопки, элементы дизайна и тому подобные элементы. В то время как заголовки Н1-Н6 – это важный текстовый (и ни какой иной) элемент, который помогает поисковому роботу определить тематику страницы и её структуру.

Если, например, на странице заголовками H2 выделена корзина и форма подписки, то сканируя её, поисковый бот может воспринять эти элементы как части контента, что «размоет» его восприятие реальной текстовой составляющей страницы. Это в свою очередь помешает ранжироваться по нужным запросам, которые оптимизатор так старательно подбирал и интегрировал в текст.

Основные правила использования заголовков H1-H6:

  1. На странице обязательно должен быть заголовок H1 и располагаться как можно выше в HTML коде.
  2. Далее текст разбивается подзаголовками H2 на логические блоки.
  3. Блоки с заголовками H2 разбиваются по необходимости подзаголовками H3 и т.д. При этом важно соблюдать приоритетность. Т.е. нельзя сначала разбить текст заголовками H4, а затем эти блоки делить заголовками H2, например.

Мы строго следим за правильностью и иерархичностью заголовков на сайте.

Юзабилити

Тема User Experience Design напрямую не связана с SEO, поэтому останавливаться в этой статье на ней не будем. Отметим главное – представители поисковых систем уже давно и настойчиво на всех конференциях для веб-мастеров повторяют одно и то же:

«Делайте сайты удобные и полезные для ваших пользователей. Это залог успеха!»

Да, есть много примеров ресурсов, которые находятся в ТОПе и при этом неудобны и непривлекательны. Но в конкурентных тематиках такие сайты уже давно в лучшем случае на 3-4 странице выдачи. А с учётом усиливающейся конкуренции нет никаких сомнений, что скоро таких сайтов в ТОПе мы больше не увидим.

Юзабилити сайта

Поэтому при создании веб-проекта мы тщательно прорабатываем все аспекты юзабилити с учётом пожеланий заказчика, опыта и знаний, которые мы накопили за годы работы. Например, такая «мелочь», как «хлебные крошки» позволит:

  • улучшить навигацию по сайту;
  • настроить разметку снипета (смотрите далее);
  • косвенно повлиять на посещаемость и популярность ресурса.

Микроразметка

Для того, чтобы снипет вашего сайта в поисковой выдаче выглядел привлекательным и кликабельным, а также чтобы помочь поисковым системам правильно «понять» содержимое страницы, используется так называемая микроразметка. Что это такое?

Микроразметка – это внедрение в HTML-код страницы специальных атрибутов и тегов, которые помогают правильно определять содержимое страницы.

Существует несколько словарей микроразметки. Наиболее популярный и поддерживаемый всеми основными современными поисковиками – это Schema.org, которую мы в основном используем. Также для того чтобы, например, посты в соцсетях со ссылками на страницы вашего сайта выглядели привлекательно, используется микроразметка Open Graph.

Вообще, семантическая разметка не входит в список базовых услуг SEO-оптимизации, но в нашей практике заказчики часто выбирают этот пункт, т.к. понимают его возрастающую важность.

Файлы sitemap.xml и robots.txt

Оба эти файла лучше работают «в паре», т.е. они оба должны присутствовать в корневой директории сайта. Эти файлы нельзя назвать строго обязательными, теоретически можно обойтись и без них. Но на практике умелая работа с ними позволяет существенно влиять на индексацию сайта, а значит и на его ранжирование в поисковой выдаче.

Если говорить обобщенно, то sitemap.xml показывает краулеру поисковика страницы, которые нужно индексировать, а robots.txt – которые не нужно. При этом если не очень компетентный SEO-шник «закинет на хост» шаблонный robots.txt и сгенерированный sitemap.xml, то, как уже говорилось выше, может получиться так, что важные скрипты не будут доступны для сканирования, и наоборот, «мусорные страницы», такие как админка, корзина и т.п. попадут в индекс.

robots.txt

При всей кажущейся простоте этих двух файлов, работа с ними требует довольно глубокого знания принципов работы современных поисковых систем. Мы всегда тщательно проверяем все директивы robots.txt и строки sitemap.xml.

Заключение

Итак, мы рассмотрели основные пункты базовой поисковой оптимизации сайта на этапе его разработки:

  1. Формирование правильной структуры сайта;
  2. Настройка ЧПУ;
  3. Подготовка к оптимизации мета-данных;
  4. Устранение дублей страниц;
  5. Настройка основного зеркала;
  6. Внедрение HTTPS-протокола;
  7. Работа со страницами пагинации;
  8. Редиректы;
  9. Закрытие исходящих ссылок для поисковых ботов;
  10. Оптимизация скорости загрузки;
  11. Создание качественной, адаптированной под мобильный поиск, версии сайта;
  12. Кроссбраузерность;
  13. Мультиязычность;
  14. Внутренняя пререлинковка;
  15. Соблюдение иерархии заголовков;
  16. Юзабилити;
  17. Микроразметка;
  18. Настройка sitemap.xml и robots.txt.

Есть ещё много мелких и не очень моментов, которые мы не затронули в статье, чтобы не растягивать её до размеров супер лонгрида.

К тому же в нашем портфолио есть сайты совершенно разной направленности и масштаба: от сайта частной школы до большого интернет-магазина. Каждый из этих проектов имеет свою специфику, поэтому что-то из описанного выше может не понадобиться, а какие-то моменты, не затронутые в статье, могут быть необходимыми.

Обращаясь к нам, вы всегда можете рассчитывать на индивидуальный подход, основанный на нашем опыте в раскрутке сайтов в сети Интернет.

 

Заказать базовую оптимизацию сайта
6 Май 2019
Спасибо ваша заявка принята.
В ближайшее время мы свяжемся с вами!