Блог о продвижении сайтов

Новости, события, эксперименты,
статьи о SEO

Техническая оптимизация

Техническая оптимизация

19:55 08/05/2015

Первое, что стоит сделать прежде чем приступать к продвижению нового сайта - это провести техническую оптимизацию.

1229

Мы уже рассматривали такие важные параметры подготовки к продвижению сайта, как оптимизация изображений и текстовая оптимизация. Однако есть еще один существенный момент, с которого следует начинать работу, – это техническая оптимизация сайта.

Можно сказать, что это первый и наиболее важный этап. В основном подобная  операция проводится один раз перед началом продвижения ресурса, а в дальнейшем она лишь корректируется и подправляется. Иными словами, это комплекс действий, которые направлены на корректировку технических нюансов сайта для улучшения взаимодействия его с поисковым роботом.

Главная задача технической оптимизации – обеспечивать максимальную индексацию страниц сайта. Если же упустить из виду какие-либо технические моменты, то это станет значительной преградой на вашем пути к ТОПу в выдаче, а, возможно, и сделает продвижение невозможным.

Безусловно, все технические доработки должны выполняться специалистами-разработчиками сайта. Пользователю или даже владельцу ресурса не стоит «лезть» в HTML-код, так как это может привести к непоправимым последствиям, а в большинстве случаев компании не несут ответственность за нарушения по вине иных лиц.

Рассмотрим основные технические проблемы и пути их решения. Однако еще раз напомним:  любые изменения должны вносить специалисты. 

При правильной технической оптимизации у поискового робота нет никаких претензий к отображению страниц и сайта в целом, ресурс не выдаёт ошибки и сбои, а – следовательно - индексируется быстро и хорошо.

Пять основных моментов технической оптимизации

Этот текстовый файл должен быть в корневой категории вашего сайта. Он содержит определенные инструкции для поискового робота, который обращается к нему в первую очередь. В этом файле можно указать те страницы, которые нельзя индексировать (допустим, системные или дублированные). Также в нём указывается адрес зеркала сайта, адрес карты сайта, а также иная информация для правильной индексации, предназначенная для поисковых роботов.

  • Адреса всех страниц ресурса

Все адреса должны формироваться по следующей схеме (проверьте это):

  • использование слешей.

Например, http://mysite.ru/katalog/ и http://mysite.ru/cost/ - правильно.
http://mysite.ru/katalog и http://mysite.ru/cost/ - неправильно;

  • все адреса должны быть написаны латинскими буквами, не смешивайте русский язык и латиницу в одном адресе. Этот пункт особенно касается сайтов доменной зоны .рф.  

Например, http://mysite.ru/katalog/dress/ - правильно,
http://mysite.ru/katalog/платья/ - неправильно;

  • не советуем использовать в адресах различные символы, они могут некорректно обрабатываться и отображаться. Речь идёт о «?», «@», «#» и т.д.

Для проверки адресов будет удобно воспользоваться картой сайта.

  • Sitemap или карта сайта

Помимо того, что картой сайта пользуются роботы, она полезна и удобна для пользователей.  С её помощью легко искать информацию на сайте. Для робота на карте видна структура, а посетителю удобно ориентироваться на сайте. В файле Sitemap  вы также можете прописать инструкции для Яндекса, какие страницы следует индексировать в первую очередь, как часто вы делаете обновления на сайте. Не забывайте, что карта может содержать не более 50000 страниц, иначе вам необходимо создавать второй экземпляр.

  • Ошибки сайта

В тот момент, когда пользователь открывает страницу или робот начинает её проверку,  сервер с расположения сайта даёт ответ, то есть информацию о состоянии вашего ресурса и необходимой страницы.

Основные коды таковы:

  • 200 – со страницей все в порядке,
  • 404 –страница не существует,
  • 503 – сервер временно недоступен.

Правда, иногда даётся и неверный код. Предположим, страница может быть рабочая, а код ошибки 404 (либо другие комбинации). Этот момент нужно заранее проверить и отследить, чтобы сделать правильную настройку кодов в файле .htaccess.

Пристальное внимание уделите настройке ошибки 404. Если какая-то страница существует, а сервер сообщает код 404, то индексироваться она не будет. Сделать проверку кодов статусов можно при помощи известного вам Яндекс.Вебмастера.

  • Настройка редиректа

Наиболее часто встречающаяся ошибка – не настроен редирект с домена www на домен без www (или же обратная ситуация). Выберите, какое доменное имя будет главным и укажите это в файле .htaccess для поисковых систем. Иначе один и тот же сайт будет восприниматься как дубль, что приведёт к проблемам в ранжировании. Это касается и иных редиректов с других зеркал – страницы вида «index.htm», «index.html» и т.д.

  • Теги Title и Description также относятся частично к технической оптимизации. Они должны быть уникальны на каждой странице, отображать её суть и содержимое.
  • Проверьте время загрузки сайта. Рекомендованные показатели таковы:  до 0.7 сек (700 мс) должно уходить на скачку исходного кода документа и до 0.2 сек (200 мс) для получения ответа сервера.
  • На каждой странице должно быть не более одного заголовка уровня H1. Проверьте также, чтобы заголовки всех уровней от H1 до H6 не использовались в оформлении страниц.
  • Иконка favicon. Мелочь, на которую тоже стоит обратить внимание.
  • Обязательно протестируйте отображение вашего сайта в основных браузерах – Сhrome, Android Browser, FireFox, Mobile Safari, Opera. Особое внимание уделите различным заполняемым формам (если такие есть на сайте).
  • Закройте от индексации страницу доступа в административную панель CMS - /wp-login, /administrator, /bitrix, /admin.
  • Необходимо проверить вёрстку на наличие незакрытых парных тегов. Если тег Td открыт, он должен быть обязательно закрыт /Td.
  • В файле Robots также следует закрыть от индексации служебные папки (cache, wp-includes) и документы разрешения .pdf и .doc, если они не несут никакой информации.
  • Если у вас интернет-магазин, то вам следует закрыть страницы авторизации, фильтрации, поиска, страницу оформления заказа и логина пользователя.

Альтернативой файлу robots.txt считается мета-тег name=“robots” со значениями полей «content=“noindex, follow“». Он требует немного более сложной настройки, но при этом более внимательно соблюдается поисковыми системами.

Даже после окончательного формирования списка страниц, закрытых от индексации, всё равно стоит периодически проводить мониторинг сайта на момент возможного появления дублей каких-либо страниц.

Любая ошибка в технической оптимизации, которая будет пропущена изначально, так или иначе будет вам вредить и мешать на пути к ТОПу в выдаче. Постарайтесь убрать каждую из них. В нашем списке мы собрали наиболее распространённые ошибки, которые допускаются создателями сайтов или просто упускаются из вида. 

1229

предыдущие записи

  • Анализ неявных предпочтений пользователей.

    Анализ неявных предпочтений пользователей.

    17:31 10/03/2015

    Анализ неявных предпочтений пользователей — важнейший фактор в ранжировании документов в результатах поиска или, например, показе рекламы и рекомендации новостей.

  • Landing Page по ремонту квартир

    Landing Page по ремонту квартир

    00:58 27/11/2014

    Хотите сделать Landing Page по ремонту квартир? Мы подобрали для Вас примеры лучших лендингов, которые нашли в поисковых системах.

  • Как проверить скорость сайта

    Как проверить скорость сайта

    23:25 30/03/2015

    Скорость загрузки сайта - это, конечно, прежде всего показатель, который заметен пользователю сайта. Но в результате он влияет и на позицию Вашего сайта

  • Landing Page для услуги наращивания волос

    Landing Page для услуги наращивания волос

    20:07 06/05/2015

    Хотите сделать Landing Page для услуги наращивания волос? Мы подобрали для Вас примеры лучших лендингов, которые нашли в поисковых системах.