12.11.2017

Самостоятельный аудит сайта: SEO-аудит


Содержание статьи:
  • Индексация с Robots.txt
  • Канонические URL
  • Склеиваем домены с и без www
  • Sitemap – карта ресурса
  • Оптимизируем Title и Descriptions
  • Теги для изображений – Alt и Title
  • Оптимизируем заголовки h1-h6
  • Разбираемся с уровнем вложенности
  • Как обращаться с ссылками
  • Микроразметка
  • Делаем качественный контент
  • Безопасность с SSL-сертификатом
Всем привет! Наконец выдалась свободная минутка, так что пришло время продолжить обсуждение самостоятельного аудита сайта, которое я начал в прошлый раз. Мы поговорили о технических аспектах проверки, а теперь я расскажу главные принципы SEO-аудита. Тема обширная и важных деталей тут много, так что приготовьтесь много читать. Все-таки качественная оптимизация влияет на результаты вашего продвижения, тут нельзя работать спустя рукава. От этого зависит отношение посетителей и поисковых систем. Итак, приступим.

Индексация с Robots.txt


В текстовом файле robots.txt прописываются правила для ботов поисковых систем, которые будут индексировать сайт. Там, например, можно указать страницы, которые вы не хотите пускать на индексирование, тогда файл их скроет. Делается robots.txt просто:
  1. Создаем файл с расширением txt и соответствующим именем robots – все буквы пишем в нижнем регистре.
  2. По всем правилам заполняем файл, указываем свои уточнения по индексации ресурса – кодировка, кстати, UTF-8.
  3. Загружаем наш robots в корневую директорию сайта – готово.
Правила, которые задаются поисковику, называются система директив, она и описывается в этом файле. Формат строк при этом выглядит таким образом – Директива: (пробел) значение. После каждой директивы User-agent должн идти Disallow, чтобы файл корректно работал.
Базовые директивы в robots.txt:
  • «User-agent:»
Главная, открывающая директива в нашем файле – с её помощью конкретизируется поисковая система, для которой прописывается следующий ряд правил. Например, User-agent: Googlebot открывает список команд для поисковика Гугл, для Яндекса – User-agent: Yandex, а User-agent: * обратится сразу ко всем роботам.
  • «Disallow:»
Эта директива отвечает за запрет индексации, обозначая весь ресурс в целом или отдельные его части. Команда Disallow: / скроет от индексирования весь сайт, Disallow: /blog закроет только папку “blog”, а пустой Disallow: покажет, что весь ресурс открыт для поисковика.
  • «Allow:»
В отличие от предыдущей напротив разрешает индексацию. Используя аналогичные уточнения, вы можете указать роботу, какие элементы сайта внести в поисковую базу. Например, команда User-agent: Yandex Allow: /forum Disallow: / (все с новой строки) запретит Яндексу индексировать весь ресурс, кроме папки “blog”. Эту директиву используют редко, так как боты поисковиков применяют её автоматически.
  • Спецсимволы * и $
С помощью спецсимволов можно задать конкретные регулярные выражения. Так, * может обозначить любую, даже пустую, последовательность символов. Disallow: /support/*.html запретит индексировать все страницы с расширением .html в папке “support”. Обычно спецсимвол * воспринимается поисковиками по умолчанию. А знак $ используется, чтобы отменить *: «Disallow: /example$», например, запретит example, но не example.html.
  • «Sitemap:»
Данная директива покажет боту поисковика файл с картой сайта, благодаря чему он быстрее проиндексирует карту ресурса. Так что страницы быстрее попадут в результаты поиска: User-agent: * Sitemap: http://example.com/sitemap.xml (все с новой строки).
Также у каждого поисковика есть свои отдельные директивы, о которых можно в подробностях узнать на сайтах со справочными материалами от Гугл и Яндекс. Кроме того у Яндекса есть сервис, который проверит правильность кода в файле robots.txt.

Канонические URL

Если на ресурсе есть страницы, которые доступны сразу по нескольким адресам, это плохо может сказаться на трафике или даже привести к санкциям от поисковиков за дублирование. Процесс индексации будет происходить сложнее, так как роботы воспримут каждую такую страницу, как отдельный элемент. Чтобы избежать таких проблем существует атрибут link, который указывает поисковому боту главную версию документа – каноническую страницу между тегами <head> </head> в коде каждого дубля: <link rel=”canonical” href=”http://site.com/stranica1″/;.

Главное указать полный адрес страницы. Тогда ссылочный вес будет направляться на нужную версию, контент будет верно индексироваться, а вы будете защищены от фильтров поисковиков из-за дублей. Подобный фокус часто применяют в интернет-магазинах, когда есть товар с одинаковым описанием, но в разных цветах, и у каждого своя страница.

Склеиваем домены с и без www

Технически поисковики и тут воспринимают домены с наличием и отсутствием www, как два разных ресурса. Это, соответственно, приводит к снижению поисковой выдачи, фильтрам (ведь один сайт выглядит, как дубль другого), также могут возникнуть проблемы с авторизацией и функционалом с применением cookie. Решается тут все просто: редирект 301 и указание основного зеркала. Если мы говорим о продвижении сайта, то отсутствие www лучше, ведь адрес получается короче.

Сначала происходит определение основного зеркала. После того, как вы произведете нужные настройки для каждой системы, поисковикам потребуется примерно пара недель для обработки данных. Только после этого можно применять 301 редирект, иначе можно полностью пропасть из выдачи. В корне сайта создается или уже существует файл .htaccess, в него добавляется такой код:
  1. RewriteEngine on
  2. RewriteCond %{HTTP_HOST} ^www\.(.*) [NC]
  3. RewriteRule ^(.*)$ http://%1/$1 [R=301,L]

Sitemap – карта ресурса


Еще один полезный файл в помощь поисковикам – sitemap.xml. В нем содержатся данные о страницах ресурса, подлежащих индексации. Особенно полезно это будет для динамически создаваемых страниц и страниц, к которым ведет слишком длинный путь. Карта поможет ботам быстро найти все нужные ссылки.

Чтобы создать sitemap существуют как онлайн-сервисы, так и специальные ПО. А в большинстве CMS для этого вообще есть готовые решения. Можно, конечно, сделать все вручную, но это трудоемкий процесс, его выбирают, если остальные варианты недоступны. К файлу sitemap есть определенные требования:
  • размещается на одном с сайтом домене и ведет только на его страницы;
  • сервер возвращает http-статус с кодом 200 ОК, обращаясь к файлу;
  • максимум ссылок в файле – 50 000 URL, а размер не более 10 Мб – в обратном случае файл следует разбить на части;
  • кодировка UTF-8;
  • ссылки должны оставаться в пределах того же каталога и его подкаталогов, где лежит сама карта сайта;
  • протокол ссылок в sitemap должен совпадать с протоколом сайта;
  • местоположение файла sitemap прописывается в robots.txt, о котором я написал выше.

Оптимизируем Title и Descriptions

Тег title находится в блоке <head> и указывает заголовок сайта, по которому поисковик поймет, что содержится на странице. Этот тег обязан отражать суть контента, включать максимум 2-3 ключевых слова, без лишнего текста, а еще быть максимально лаконичным и уникальным как по сайту, так и среди ресурсов-конкурентов. Кроме того идеальный объем для title от 50 до 150 символов и он не должен совпадать с заголовком h1. Поисковики отображают максимум 60-70 символов, поэтому самый высокочастотный ключ вставляют в этот промежуток.
Мета-тег description также помещается в блок <head> и содержит краткий анонс страницы. Является ключевым составляющим сниппета, появляющегося в результатах поиска. Правила к description принимаются аналогичные title, кроме двух моментов. Объем составляет от 100 до 200 символов. А ключей разрешено добавлять больше – это не особо повлияет на показы, за то может склонить пользователя кликнуть именно по вашей ссылке. Главное – делайте текст осмысленным, а не спамным.

Теги для изображений – Alt и Title

Для начала пара слов о названии картинок – набор символов или заспамливание ключами тут неприемлемо. Название следует писать только на латинице по всем правилам – для этого есть онлайн-сервисы, которые сами проведут транслитерацию. Давайте краткое и информативное название, с одним ключом, которое отразит суть изображения.

Аналогичные правила можно отнести и к тегу alt – он содержит текстовое описание картинки. Его можно увидеть на странице, если по каким-то причинам браузер не способен отобразить фото – тогда на месте изображения появляется текст, прописанный в alt. Он влияет на результаты поиска по картинкам и лучшую позицию сайта. При спаме ключевиками не только изображение может не попасть в выдачу, но и пострадает весь ресурс.
Атрибут title появляется в виде текста при наведении курсора на картинку. Требования остаются аналогичными, разве что наличие ключей уже влияет не так сильно. Title больше отвечает за комфорт пользователей, которые могут узнать, что изображено, если это не очевидно.

Оптимизируем заголовки h1-h6

Заголовки помогают структурировать текст, делать его более читабельным для пользователей. Теги h1-h6 строят иерархию текста, ограничивая разделы и подразделы. При этом h1 по важности стоит сразу за title. Разумеется, есть несколько правил и советов по использованию заголовка h1 и подзаголовков h2-h6.
  • Заголовок h1 (первый уровень) на странице может быть только один. В Яндексе это жесткое правило. Гугл же позволяет иногда два h1 – имя сайта и, например, статьи.
  • Необходимо соблюдать порядок заголовков. Яндекс предпочитает четкую иерархию и может снизить рейтинг в выдаче, если h1 окажется после h3. Гугл относится к этому вопросу менее критично.
  • H1 не должен совпадать с title страницы – лучше внести туда разные ключи для более высокой релевантности, при этом не переспамив текст. Однако это не относится к новостным сайтам – там наоборот необходимо совпадение h1, title и ссылок на страницу, чтобы пробиться в Яндекс ссылки и Гугл новости.
  • В H1 нельзя добавлять гиперссылки.
  • Объем рекомендуется ограничивать 10-50 символами, при этом передавать смысл и сохранять правильное написание.

Разбираемся с уровнем вложенности


Уровень вложенности представляет собой положение страницы на сайте – т.е. за сколько переходов можно на нее попасть с главной. Речь идет о минимальном числе шагов. Таким образом стартовая страница имеет УВ 1, все, на которые она ведет сразу, УВ 2, чем больше кликов – тем выше уровень. Как правило, не принято превышать УВ 4: из-за этого вес сильно удаленных страниц снижается, может упасть конверсия, а также медленнее происходит индексирование поисковиками. Последнее решается наличием карты сайта или созданием HTML-карты сайта – страницы с УВ 2 со всеми остальными ссылками.

Как обращаться с ссылками

Внутренние ссылки чаще всего служат в качестве направления пользователей на похожие и полезные материалы на том же домене. Также это помогает поисковикам индексировать такие страницы, придавая им больший вес. Не стоит дублировать ссылки или размещать слишком много на одной странице. Соблюдайте баланс. Также используйте анкорные и безанкорные ссылки – это текстовые и простые URL. А в анкорах используйте ключевые слова, но не повторяйтесь, так как поисковик скорее всего примет тогда только первую ссылку. Если страница продвигается, то на нее должно вести больше ссылок, чем количество исходящих.

Внешние ссылки уводят посетителя на другой сайт. Поисковые боты рассматривают их, как рекомендацию – это также придает больше веса странице, на которую они ведут. Если на вас много ссылаются сторонние ресурсы, то вероятность подняться выше в выдаче растет. Заодно такая ссылочная масса наращивает трафик и помогает в продвижении. Особенно ценны внешние ссылки на авторитетных ресурсах с хорошим положением у поисковых систем. Злоупотреблять ссылочной массой не стоит, так как это может привести к обратным последствиям.

Микроразметка

Микроразметка по большей части призвана помогать поисковикам разбираться, какая информация расположена на сайте. При её использовании можно выделить ссылку на ваш сайт в выдаче дополнительными ссылками и данными – сниппет, что привлекает больше посетителей. Например, подобным образом действует микроразметка schema.org, в ней большая коллекция схем в виде тегов html-кода. В Facebook и вовсе есть свой стандарт микроразметки – OpenGraph. Он регулирует корректность отображения ссылки в соцсетях – превью, описание. картинка и прочее.



Делаем качественный контент


В первую очередь контент – это основной инструмент по управлению лояльностью пользователей, ведь именно через статьи, изображения, аудио и видео мы обращаемся к потребителям. Но при этом большое влияние он оказывает и на оценку поисковых систем. Они анализируют поведенческие факторы пользователей: как долго они пробыли на сайте, переходили ли по перекрестным ссылкам, посмотрели ли видео, дочитали статью и вернулись ли на сайт еще раз. При хорошей статистики ранжирование сайта сильно вырастает.
Поэтому есть список требований и пожеланий к контенту:
  • Уникальность текста должна быть высокой. Копировать чужой контент в целом нежелательно, так как ваш ресурс разом потеряет всякую ценность для поисковиков и пользователей.
  • В текстах должно быть минимум “воды” и максимум полезных данных. Язык должен быть простым для понимания, чтобы читать было легко и интересно.
  • Нельзя забывать и про грамотность. Тут и так все понятно – куда приятнее читать правильный текст без глупых ошибок и помарок.
  • Вспоминая заголовки h1-h6 – текст нужно структурировать и разбивать на абзацы для удобства восприятия.
  • Статьи должны соответствовать требованиям поисковиков, нужно соблюдать такие показатели, как тошнота, заспамленность и прочие.

Безопасность с SSL-сертификатом



Если кто не знал, то расшифровывается это, как Secure Sockets Layer – сертификат протокола защищенного соединения между сайтом и браузером пользователя. Это позволяет защитить обмен данными от вмешательства и воровства. Наличие такого сертификата особенно важно для интернет-магазинов и других сайтов, где используются персональные данные пользователей и проводятся финансовые операции. В свою очередь это влияет на доверие пользователей и поисковиков. Так, Google и вовсе призвал всех владельцев сайта перейти на защищенный HTTPS-протокол.