Оптимизируем сайт на wordpress под Google

В дополнение к seo приемам, описанным тут, есть много других способов создать сео оптимизированный сайт. В данной главе мы рассмотрим некоторые идеи и объясним, как они нам могут помочь.

Боремся с дублями контента

Чтобы определить, как наш сайт проиндексирован в гугл, достаточно сделать запрос вида site:yoursite.com, который выведет список всех страниц, проиндексированных поисковиком. Для начала сравните количество проиндексированных страниц и общее фактическое число страниц на вашем сайте, они не должны сильно отличаться. Если страниц существенно меньше, значит проблема с индексацией, если страниц найдено существенно больше — проблема с дублями. В найденных результатах можно покопаться и поискать неправильные варианты, а также порадоваться, если все в порядке.

Во-вторых, стоит поискать конкретные примеры дублированных страниц, для этого делайте запрос с фрагментом урл записи

site:yoursite.com inurl:urlzapisi

или же

site:yoursite.com поисковый запрос

И еще про контент

Уделяя внимание разным нюансам оптимизации и настройки, не забывайте про главный критерий поискового ранжирования — контент. Убедитесь, что каждая страница предлагает максимальное содержание с оптимальным количеством слов. Также, при разработке шаблона, убедитесь, что контент размещается максимально близко к верху страницы в коде. Из этих соображений размещение сайдбара справа более выгодное. Или же пусть он визуально находится слева, но фактически в коде идет после кода основной части вывода контента. И избегайте размещения кучи разных скриптов и кода перед контентом в шапке сайта.

Хороший способ реализации этой стратегии, это представить, как видит страницу вашего сайта поисковый робот. Посмотрите исходный код страницы, какое количество кода и служебной информации он содержит, какую часть его составляет текст записи и полезный контент, сколько кода и данных придется пропустить, прежде чем робот доберется до сути страницы? Чтобы почувствовать себя поисковым роботом, воспользуйтесь утилитой

https://tools.seobook.com/general/spider-test/

И придерживайтесь максимально высокой пропорции соотношения контента к коду.

Ищите дублированный контент

Уже не раз говорили о способах обнаружения и предотвращения дублирования контента. Кроме этого есть масса утилит, позволяющих проанализировать ваш сайт или страницу, как, например,

https://www.virante.org/seo-tools/duplicate-content

Формируется отчет типа такого

Результат дублированного контента
Результат дублированного контента

  1. Проверяется наличие редиректа с урла сайта без www на с www
  2. Проверяет наличие проиндексированной копии страницы в кеше гугл
  3. Проверяет наличие слишком похожих страниц в выдаче
  4. Проверяет наличие редиректов с различных вариантов обращения к главной странице сайта
  5. Проверяет наличие корректной ошибки, возвращаемой при обращении к несуществующим страницам
  6. Проверяет наличие присвоенного PR к копии страницы

это лишь малый набор возможных тестов.

Как видим, многое завязано на требовании склейки сайтов при обращении к нему с www и без www в адресе.

Данный код в htaccess выполнит редирект всех адресов, содержащих www на адреса без www

RewriteEngine On RewriteBase /
RewriteCond %{HTTP_HOST}!AdomainYtld$ [NC]
RewriteRule A(.*)$ https://domain.tld/$1 [R=301,L]

где вместо domain.tld вписать свой домен

Оптимизируем заголовки

Другой важный момент в оптимизации контента сайта — это оптимизация элементов заголовка. Речь идет про теги, с помощью которых размечают различные заголовки <h1> - <h6>. Например, довольно часто тегом h1 обозначают название сайта, тегом h2 описание сайта, тегом h3 название каждой записи, h4 элементы заголовков в сайдбаре и т. д.

Проблема такого подхода прежде всего в seo. Поисковый робот видит, что самый важный с точки зрения алгоритмов тег помечает на всех страницах одно и то же — название сайта. Поэтому гораздо правильнее будет помечать тегом h1 заголовок записи, h2 использовать для подтитулов записи, а название сайта писать простым текстом, отформатированным с помощью стилей.

Но точно также, как не все однозначно с атрибутом нофолоу, не все так просто и с этими тегами. Использование тега h1 для названий записей может привести к санкциям со стороны поисковика за манипуляции, т.к. на архивных страницах и страницах рубрик будет выведено несколько заголовков с тегом h1, что не совсем корректно с точки зрения семантики.

Для простоты понимания есть правило, что количество вставок тега на странице определяется по его номеру, для тега h1 допустимо 1 раз, для тега h2 — 2 раза и т.д. С другой стороны есть сторонники, считающие корректным использование тега h1 только для названия сайта, поэтому не будем слишком заострять на этом свое внимание.

Все дело в том, что новый стандарт HTML5 допускает для документов структуры с множественными заголовками любых типов любое нужное количество раз, поэтому классической можно считать схему, в которой тег h1 используется и для названия сайта, и для названия статьи.

Оптимизируем названия статей

Названия статей — следующий шаг оптимизации сайта. Потенциально стоит улучшить заголовок, декларируемый тегом <title> в секции <head>, т.к. он отображается в поисковых результатах, сохраненных закладках и на панели браузера. И в общем, не обязательно, чтобы этот заголовок полностью совпадал с названием статьи.

В текущей версии вордпресс, заголовок формируется тегом шаблона wp_title(), в зависимости от типа страницы он выводит следующую информацию.

Главная  —  wp_title() ничего не выводит

  • Страница  —  wp_title() отображает название страницы
  • Запись  —  wp_title() отображает название записи
  • Архивы  —  wp_title() ничего не отображает
  • Архив по дате  —  wp_title() отображает год иили месяц
  • Рубрики  —  wp_title() отображает название рубрики
  • Страница автора  —  wp_title() отображает имя автора
  • Страница 404 ошибки  —  wp_title() ничего не отображает
  • Результаты поиска  —  wp_title() ничего не отображает
  • Теги  —  wp_title() отображает название тега

Во многих шаблонах используется такое применение этого тега

<title><?php wp_title('&raquo;','true','right'); ?><?php bloginfo('name'); ?></title>

Которое выводит Заголовок отображаемой записи » Название сайта

Такое использование позволяет выводить название сайта рядом с названием записистатьи или рубрики и отображать просто название сайта на страницах, где тег wp_title() ничего не отображает.

В разделе 3.3 мы уже рассматривали, как создать более приятные заголовки страниц. Хотя тогда мы были обеспокоены посетителями, удобством использования сайта и эстетики, эта же самая концепция также важна и для сео. Как говорит Яндекс «делайте сайты для людей — и поисковые роботы к вам тоже потянутся»

Войны нофолоу

Несколько лет назад гугл инициировал повсеместное использование атрибута нофолоу для платных ссылок и определения приоритетов индексации. Несмотря на усилия гугл по требованию соблюдения их рекомендаций, многие люди считают это плохой идеей и большой проблемой.

Многие блогеры считают, что лишение комментаторов их вознаграждения за комментарий просто несправедливо. Так возникло движение дуфолоу блогов, которые демонстративно отключают атрибут nofollow с ссылок в комментариях и активно призывают других к ним присоединиться. Довольно часто так поступают молодые блогеры и малоизвестные блоги с целью привлечь к себе внимание и раскрутиться за счет желающих получить бесплатную индексируемую обратную ссылку. И если комментарии модерируются, то какой-никакой порядок на этих сайтах есть, но если же все комментарии публикуются автоматически, то сайты превращаются в загаженные свалки.

Очень многие дуфолоу вордпресс блоги, да и обычные блоги с нофолоу вовлечены в массовую спам атаку. Т.к. в большинстве случаев атакуют с помощью программ, то не разбираются заранее — открыта ли ссылка для индексации или нет, поэтому спамят всех подряд. Кроме этого, сам гугл многократно предупреждал о санкциях за несоблюдение требований по борьбе со спамом в комментариях и штрафовал сайты с избыточным количеством незакрытых внешних ссылок.

Поэтому если не обращать внимание на то, что нофолоу ссылки уже не влияют на расчет веса страниц, то стоит держать ссылки помеченными таким атрибутом если вы не способны тщательно контролировать, куда и на что вы ссылаетесь в ссылках, которые вам напихали в комментариях.

Ну и как говорили, nofollow ссылки остаются полезными для управления индексацией дублированным контентом, не пускать ботов на определенные страницы и защищать блог от комментариев с ссылками, ведущими на сомнительные сайты.

Фиксируем битые ссылки

Каждый блогер знает, как быстро меняется интернет. Мертвые ссылки появляются все время и могут существенно повлиять на качество вашего сайта. Если посетители и поисковые боты переходят с вашего сайта по ссылкам на несуществующие сайты и страницы, то какого мнения они будут о вас и о вашем сайте. Будь входящая или исходящая, ссылки должны быть актуальными и рабочими.

Есть несколько стратегий проверки качества всех ссылок вашего сайта. Больше всего времени и труда уйдет на ручную проверку. Это может сработать разве что на совсем маленьких сайтах, но по мере роста все равно встанет вопрос автоматизации проверки.

Для проверки одной страницы сайта можно воспользоваться сервисом https://validator.w3.org/checklink

Но чтобы проверить весь свой сайт автоматически, стоит воспользоваться плагином Broken Link Checker, который проверит правильность ссылок, картинок, роликов ютюб и т.п.. Этот плагин работает периодически в фоновом режиме, регулярно создавая отчеты о найденных проблемах.

А вот альтернативный вариант — адд-он для Мозиллы, проверяющий ссылки на загруженной странице за 1 клик.

Для более подробной и тотальной проверки можно использовать десктопную программу Xenu’s Link Sleuth с набором утилит для поиска и анализа ссылок на сайте, определением нормальных, битых, изображений, ифреймов, плагинов, стилей и т.п..

Использование карты сайта

Самый простой и быстрый способ улучшить индексацию сайта, это создать карту сайта. Карта сайта представляет собой структурированный файл в  XML (eXtensible Markup Language) формате. Сайтмап содержит список всех ссылок сайта и помогает поисковикам сориентироваться на сайте в поисках нового контента. Автоматические плагины создания карт сайта обновляют ее, как только добавляется новый контент, а также выполняют пинги — отправляют специальные сообщения поисковикам об обновлениях.

Также карту сайта можно создать и без плагина, с помощью онлайн сервисов типа www.xml-sitemaps.com и десктопных программ. Созданные с их помощью файлы карты сайта заливаются на хостинг и используются, однако проигрывают плагинам тем, что требуют периодического ручного обновления.

SEO плагины

Вордпресс можно расширять, практически, бесконечно. Пользователи этого движка постоянно создают новые и усовершенствуют старые плагины. И применительно к сео ситуация точно такая же. Вот пример некоторых самых полезных и выгодных плагинов:

  • All-in-One SEO — оптимизирует вордпресс, позволяя применить большинство описанных тут техник и приемов
  • HeadSpace2 SEO — оптимизирует сайт настройкой различных метаданных
  • Redirection — управляет редиректами, отслеживая недоступные страницы и страницы, изменившие свои адреса
  • Robots Meta — помогает настроить разрешенные и запрещенные для индексирования страницы
  • SEO Smart Links — помогает создать внутреннюю перелинковку по заданным вручную и автоматически фразам

Эти плагины позволяют разработать и воплотить оптимальную стратегию продвижения. Но это еще не все — много интересных плагинов можно найти в репозитории вордпресс https://wordpress.org/plugins/tags/seo

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Scroll Up
Adblock detector