Внутренняя перелинковка сайта. 7 шагов


Здравствуйте уважаемые читатели блога. Вы покупаете обратные ссылки на Ваш не коммерческий сайт в бирже типа Sape и не понимаете почему Ваш проект не в ТОПе? Вы не уделяете должного внимания внутренней оптимизации сайта? Да и вообще не совсем понимаете что это такое? Тогда, я думаю, эта статья поможет Вам понять основные моменты внутренней оптимизации своего сайта и Вы будите четко знать, к чему приложить свои усилия.
Что такое внутренняя оптимизация сайта и как она способствует продвижению

Внутренняя оптимизация — комплекс мер по улучшению содержания, навигации, ссылочной структуры сайта. К внутренней оптимизации также можно отнести составление семантического ядра и грамотное формирование файлов robots.txt и sitemap.xml.

Я привел примерное объяснение этого термина, однако это еще далеко не все. Ниже я буду по пунктам описывать все те основные моменты, которые необходимо сделать для улучшения оптимизации сайта.

Интернет сегодня развивается семимильными шагами. Прогресс не стоит на месте, развиваются и поисковые системы, совершенствуются алгоритмы определения релевантности документа запросу. Если несколько лет назад хватало для попадания в ТОП 10 Яндекса и Google закупить трастовых ссылок на сайт, то сегодня сработает комплексный подход с затратой не только денег, но и времени. Теперь более подробно для новичков. Представим на минуту, что поисковые алгоритмы не меняются какое-то долгое время. Продвинутые веб мастера и сеошники проделали ряд экспериментов и узнали схему по которой поисковики определяют какое сайт более релевантен запросу, а какой нет. Казалось бы для чего нужна такая информация? Ответ на вопрос достаточно прост. Выяснив, как работают ПС, сеошники настрогали за ночь сотню вторую своих сайтов-сателлит, и заполнив их каким-то непонятным контентом, начали раскручивать. В итоге эти ГС(Говно-сайты) выходят в ТОП и посетитель, зайдя на такой сайт тут же его закроет, так как не нашел для себя полезной информации. Он будет это же в другой поисковой системе, что повлечет несомненно убытки для первой ПС, так как она потеряла своего потенциального клиента. Только по этой причине Яндекс ввел на сегодняшний день около 400! факторов ранжирования и определения:какой именно сайт из возможных более релевантен вводимому запросу. Если учесть, что поисковые систему это проекты, приносящие огромную прибыль, то работа по улучшению качества поиска ведется чуть ли не круглосуточно. Конкуренция!

Это был такой экскурс в историю. Сегодня SEO включает в себя как покупку ссылок, так и поведенческие факторы, факторы времени, а также качество и уникальность контента. Работать, например, только над покупкой ссылок(синоним внешней оптимизации) уже не приносит былого эффекта. На самом деле это не мои выводы, это уже неоднократно доказанные факты всевозможными seo компаниями и веб-мастерами. Внутренняя оптимизация помогает улучшить содержимое сайта как для людей, так и для ПС.
Внутрення сео оптимизация сайта: начинаем разбираться

Я начал статью с теоретической основы, сейчас перехожу непосредственно к объяснению основных моментов оптимизации.

Качество контента, его уникальность и полезность должна быть всегда на первом месте. Ни в коем случае нельзя копировать чей-то материал. Рано или поздно поисковики заметят это и смерть Вашего сайта под каким-либо фильтром обеспечена. Можно купить контент на всевозможных биржах. Копирайтеры за приемлемую цену будут рады настрочить 2000—3000 тысячи символов для вашей заметки. Менее этого размера не рекомендуется, по причине того, что текст на общем фоне страницы теряет уникальность.

Далее следует обратить внимание на два файла, о которых я упоминал в начале статьи: robots.txt и Sitemap.xml. Robots.txt отвечает за индексацию сайта. Если Ваш сайт под управлением CMS, то настройка этого файла необходима. О том как создать блог на CMS WordPress я писал в статье Как создать свой личный блог на WordPress бесплатно. Дело в том, что разные системы управления контентом создают всевозможные дубли страниц, страницы профилей пользователей и т.д. Для того, чтобы эти станицы не попали в индекс поисковиков следует грамотно составить robots.txt

Что касается sitemap.xml (карта сайта для ПС), то это файл напротив показывает поисковым роботам что именно и с какой регулярностью нужно индексировать. Правильное составление такой карты сайта поможет улучшить качество индексации сайта.

Есть возможность закрыть для индексации отдельную страницу. Для это в внутри тега нужно прописать мета тег robots с параметром nofollow noindex.

Здесь директива noindex указывает на то, что станицу нельзя индексировать. А nofollow — нельзя следовать по ссылкам внутри страницы. Возможны вариации:index,follow ,noindex,follow, index,nofollow.

Идем далее. На начальном этапе создания сайта определите главное зеркало: с www или без www. Нужно сделать так, чтоб для поисковиков это был один единый сайт, что уменьшит количество дублей. Для Яндекса следует в файле robots.txt прописать директиву «Host» и указать главное зеркало сайта с www или без него.

Зеркалирование указывается в файле .htaccess. Его можно найти в корне сайта, подключившись по FTP для доступа к своему серверу. Здесь нужно прописать 301 редирект на домен с www на без www, либо наоборот. О том, как это технически реализовать, я напишу в следующих статьях, не забывайте подписываться на обновления блога, чтобы не пропустить новые статьи.

Также стоит поговорить и о ЧПУ(Человеко-Понятных-Урлах). Это своего рода красивые имена урлов страниц. По умолчанию на WordPress стоят вот такие постоянные ссылки:

Согласитесь, что это набор цифр нам не о чем не говорит. Если Вы хотите сделать красивыми URL, то необходимо в админке блога зайти в: «Настройки»—»Постоянные ссылки(ЧПУ)»—»Произвольная структура» и вписать следущее:
/%category%/%postname%.html

На этом наши оптимизаторские идеи не заканчиваются, и мы переходим к борьбе с дублированным контентом. Замечательный плагин All In One Seo Pack поможет нам в произвести необходимые настройки. Относительно недавно вышел в свет новый атрибут rel=»canonical» который внедрила компания Google. Он указывает что те страницы, где он есть представляют один и тот же документ, который в единичном экземпляре отправиться «жить» в базы данных поисковика Google. Для того, чтобы включить опцию канонических URL зайдите в настройки плагина All In One Seo Pack и поставьте галочку напротив:

Далее следует сказать, что для улучшения скорости загрузки страниц и упрощения жизни поисковиков следует весь CSS и javascript код вынести в отдельный файл, а не хранить в html документах. Это хоть и малость, но все же поможет улучшить внутреннюю seo (сео) оптимизацию сайта.

Вот мы с Вами и подошли к самому интересному: внутренней перелинковки страниц и работе над текстом. По перелинковке хотелось сказать, что это мощный инструмент, который часто недооценивают. Дело в том, что статический вес в системах управления контентом распределяется по правилу: главная страница — максимум веса, все последующие уровни вложенности по убывающей. Если мы хотим исправить эту ситуации, необходимо грамотно переликовывать страницы внутри сайта. Можно пользоваться как плагинами, которые вставляют блоки из ссылок на другие страницы или же самим по ходу текста производить линкование. Второй вариант предпочтительнее, так как гиперссылки ведут на релевантые тексту страницы. Благодаря грамотно спланированной внутренней перелинковки можно продвинуть в ТОП низкочастотный запрос за несколько месяцев, не прибегаю к внешней оптимизации. Что касается работе над текстами, то здесь следует придерживаться некоторых правил:
КС(ключевое слово) в начале тега title
КС в заголовках уровня H2-H6
Атрибут alt и title для картинок
По возможности использовать списки и таблицы
Выделять КС и словоформы КС жирным шрифтом(последнее время теряет актуальность)
Плотность КС не более 6%
По возможности исключать слова-паразиты, которые превалируют в тексте

Следуя этим несложным правилам, Вы значительно улучшите внутреннюю сео оптимизацию вашего проекта.
Работа над юзабилити сайта

Юзабилити — удобство и простота использования сайта. Сюда можно отнести грамотную навигацию, наличие HTML карты сайта, приятная цветовая гамма. Здесь работа ведется в большей степени для посетителей. Поисковые роботы еще не имеют искусственного интеллекта и повинуются всего лишь машинным алгоритмам. Признак хорошего юзабилити сайта — доступность в 2-3 клика ко всем страницам сайта, а также тот факт, что когда посетитель впервые зашел на Ваш сайт, то сразу разобрался в его структуре, должно быть все интуитивно и просто. Текста должны содержать не просто информацию, а побуждать к действию, например купить какой-то товар или подписаться на рассылку.

Руководствуйтесь этими несложными правилами, и я уверен отдача от Ваших проектов много возрастет. На этой оптимистической ноте я с Вами прощаюсь. До встречи на страницах блога.

Sorry. No data so far.

Окно для комментирования

Вы должны заполнить данные для комментария.