Сео-оптимизация: с чего начать продвижение сайта в поисковых системах

Если сайт есть, а посещаемости на нем нет, необходимо произвести некоторые мероприятия по продвижению сайта в поисковых системах с помощью оптимизации. Сео-оптимизация сайта бывает внутренняя и внешняя. Внутренняя оптимизация — это когда применяются меры по приведению сайта в соответствие с требованиями поисковых систем, а также производятся манипуляции направленные на улучшение показателей, по которым ранжируется сайт в поисковой выдаче. Внешняя оптимизация сайта — это создание ссылочного профиля сайта, являющегося одним из показателей влияющих на ранжирование сайта.

Внутренняя оптимизация сайта — это основная составляющая принятых мер по продвижению сайта в интернете, на сколько грамотно будут проведены все мероприятия, настолько успешными получатся результаты. Поэтому, приняв решение начать раскручивать сайт, в первую очередь, необходимо предпринять действиями, входящие в обязательный перечень СЕО, а про внешнюю можно пока забыть, так как положительного эффекта она не даст.

Внутренняя сео-оптимизация: как подготовить сайт к продвижению

Каждый вебмастер или сеошник проводит внутреннюю оптимизацию опираясь на собственный опыт и рекомендации найденные в интернете на различных площадках, мы, для вашего удобства, перечислим что необходимо сделать для подготовки сайта к продвижению:

  • добавить сайт в сервисы поисковых систем Яндекс-Вебмастер и Гугл-Вебмастер;
  • добавить сайт в Яндекс-Метрику, в Гугл Аналитику и настроить статистику сайта;
  • если нет, то добавить на сайт фавикон;
  • проверить прописаны ли мета-теги: Title, description, keywords (посмотри пример составления мета-тегов)
  • проверить сайт на аффилиаты;
  • проверить сайт на дублирование страниц;
  • составить файлы .htaccess и robots.txt и залить их в коневую папку сайта на хостинге;
  • составить файл sitemap.xml;
  • проверить скорость загрузки файла;
  • проверить мобильную версию;
  • проверит наличие нежелательных исходящих ссылок и по возможности удалить их;
  • проверить наличие страницы о Политике конфиденциальности;
  • наличие кнопок социальных сетей и возможности оставить комментарий пользователем;
  • настроить ЧПУ;
  • проверить сайт на вирусы.

Добавить сайт в сервисы поисковых систем Яндекса и Гугла

Добавление сайта в сервисы поисковых систем Яндекс-Вебмастер и Гугл-Вебмастер производится с первого же дня его существования. Возможно ваш сайт создан уже давно и даже проиндексирован поисковыми системами, то все-равно, необходимо проверить, зарегистрирован ли он в поисковиках, если нет, то это необходимо исправить. Яндекс-Вебмастер и Гугл-вебмастер — это бесплатные сервисы, помогающие не только представить вебмастеру свой сайт поисковикам, но и проверять статистику сайта, получать рекомендации и советы от службы поддержки по улучшению сайта и его позиций в выдаче. Для этого у вас должны быть зарегистрированные аккаунты в Яндексе и в Гугл (электронная почта).

Добавление сайта в сервисы Яндекс-Метрика, в Гугл Аналитика позволяет установить специальный код, который поможет вебмастеру получать подробную статистику по посещаемости. Благодаря собранной статистике вебмастер может узнать не только какие страницы его сайта чаще всего посещаются, но подробно изучить свою аудиторию, узнать пол, возраст, регион проживания, какие запросы используются и какие действия на сайте совершаются и многое другое. Без данной статистики невозможно контролировать качество сайта и как-либо принимать решения по его улучшению.

Добавить фавикон на сайт

Казалось бы, что общего может иметь добавление фавиконки со внутренней оптимизацией? Дело в том, что фавиконка — это важный элемент, влияющий на CTR сайта, а это уже находит отражение в поведенчиских факторах ранжирования. Фавиконка сайта показывается в поисковой выдаче и частично ее наличие и ее дизайн влияют на решение пользователя — перейти на сайт или нет. Конечно, добавление одной картинки не решит все проблем, ведь пользователи в большей степени концентрируются на заголовках и описаниях сайта или статьи, представленных на странице поисковой выдачи. Однако, фавиконка, благодаря своей уникальности, может не только привлечь внимание пользователя к заголовку, но и отложиться в его памяти, а это значит, сайт становится узнаваемым, что обеспечивает увеличение кликабельности по заголовку в поисковой выдаче и числу переходов посетителей на сайт.

Создать фавиконку можно самостоятельно в любом онлайн-генераторе, либо заказать уникальную у фрилансера, которая действительно будет привлекать внимание и увеличит число посетителей на сайте. Стоит такая услуга всего от 100 руб на сервисе work-zilla.com, главное найти человека специализирующегося на создании фавиконок, а для этого понадобится не более 10 мин.

Мета-теги Title, description, keywords — важный аспект в оптимизации сайта

Существует мнение, что поисковые системы уже давно не обращают внимание на прописанные мета-теги и основную информацию о сайте или конкретной страницы они берут из основной части контента. Но мы не будем соглашаться с этим утверждением, возможно поисковики и ослабили значение мета-тегов, но все-таки учитывают их при анализе релевантности страницы по отношению к запросу пользователя. Title, description  — должны быть на каждой странице сайта, тем более на главной, а вот keywords (ключевые запросы) прописывать необязательно. Если на вашем сайте не прописаны мета-теги, то в Title пропишите полное название сайта, а не только его домен, постарайтесь, чтобы в текст названия входил самый основной ключевой запрос. Также пропишите описание сайта.

Пример составления мета-тегов — как это делают профессиональные сеошники

Для примера возьмем один из самых популярных онлайн-сервисов оказывающих услуги по продвижению сайтов в интернете — SeoPult.ru, наверняка у передовиков сео-индустрии мета-теги прописаны самым лучшим образом.

  • Title сайта SeoPult.ru: «Автоматизированная рекламная система: поисковое продвижение, контекстная реклама, реклама в соцсетях и другие инструменты для привлечения клиентов из интернета — SeoPult.Ru»
  • Description сайта SeoPult.ru: «Сервис по привлечению клиентов из интернета для малого и среднего бизнеса, а также для интернет-маркетологов. Автоматизированное продвижение сайтов (SEO), ведение контекстной рекламы, рекламы в соцсетях и других рекламных каналов. Собственный обучающий центр, ТВ.»

Как видите в заголовок и описание сервиса вписаны все основные запросы, которые помогают поисковикам ранжировать сайт в соответствии с релевантностью этих запросов. Посмотрите сами, сервис Сео-Пульт практически по всем сео-запросам расположен на первых строчках поисковой выдачи. Если вы хотите получить такой же результат и быть в ТОП-10 в своей нише, регистрируйтесь в этом сервисе, там вы найдете не только много платных и бесплатных профессиональных инструментов для продвижения сайта, но и массу полезной и обучающей информации. Кроме того, некоторые оплачиваемые услуги сервиса можно попробовать бесплатно!

Проверка сайта на аффилиаты и как влияет аффилированность на продвижение сайта

Аффилиаты — это 2 и более сайта, как правило, одной и той же коммерческой тематики, чаще всего принадлежащие одному владельцу. Создаются такие сайты с целью занять как можно больше мест в поисковой выдаче по конкретным запросам. Обнаруживая аффилированные сайты, поисковые системы применяют к ним санкции, занижая позиции основного сайта и вытесняя из поиска остальные аффилиаты. Поэтому идея создать 10 сайтов, продвинуть их в ТОП-10 и вытеснить с первой страницы всех конкурентов — не проканает, поисковики на раз вычисляют подобные попытки мошенничества. Но стоит ли проверять на аффилированность свой сайт, если вы даже и не думали о такой возможности борьбы с конкурентами в выдаче? Однозначно — стоит. Поисковики — это роботы, некий вычислительный инструмент, и они могут неправильно распознать схожесть некоторых сайтов, поэтому приступая к продвижению сайта, каждый опытный сео-оптимизатор или веб-мастер, обязательно проверяет сайт на  аффилированность, чтобы потом не вытаскивать свой ресурс из под фильтра поисковика.

Факторы, влияющие на наложение аффилиат-фильтра

Думаем, мы ответили на вопрос, но уточним: тот факт, что аффилированность на продвижение сайта в интернете влияет и весьма пагубно. А как проверить сайт аффилированность, мы расскажем в одном из следующих постов, а пока проверьте самостоятельно по факторам отображенным на рисунке выше.

Проверка сайта на дубли

Ни для кого не секрет, что поисковые системы не терпят копипаст на сайтах, и если они допускают возможность появления дублированного контента на разных сайтах, то появление одинаковых страниц с разными адресами на одном сайте — не допустимо. В эпоху сайтов на html, таких проблем не наблюдалось, т.к каждая страничка на сайте делалась в ручную и вебмастера зная о санкциях от поисковых систем, каждый раз создавали уникальные страницы. Сейчас же 99% вебмастеров используют разного вида CMS (Системы Управления Контентом — иногда их называют еще «движки» сайта), которые несмотря на все свои преимущества, возможности и обновляемость версий, продолжают создавать проблемы владельцам сайтов, автоматически генерируя в большом количестве страницы с дублируемым контентом. К сожалению, поисковики находят и индексируют созданные CMS страницы-дубли и при значительном их количестве загонят сайт под фильтры. Кроме того, бороться с дублями нужно еще потому, что они пагственубно влияют на продвижение сайта и его индексацию:

  • из индекса может выпасть оригинальная страница, а дубли остаться;
  • у сайта размывается релевантность;
  • есть вероятность потери естественных ссылок поставленных на страницы-дубли.

Стоит отметить, что дубли страниц бывают полные (еще их называют: явные) и частичные, бороться нужно и с теми, и с другими.

Как определить наличие дублей на сайте

Несмотря на то, что с CMS может разобраться только специалист, определить наличие дублей способен даже неопытный вебмастер. Для начала нужно узнать, сколько всего страниц опубликовано на сайте — это легко сделать через административную панель на сайте, а затем сравнить это число с результатами поисковой выдачи, введя в поисковой строке Яндекса вот такую формулу: site:vashdomen.ru. Если количество опубликованных на вашем сайте записей численно совпадает с количеством найденных результатов в поисковой выдаче, значит все хорошо, дублей на сайте нет, если «результатов» больше чем «записей», то пора принимать меры и закрывать дубли от индексации. Практически все «лишние» страницы, представленные поисковиком в поисковой выдаче являются дублями и их следует закрывать от индексации. Исключением могут быть страницы рубрик, подрубрик, категорий — многие оставляют из для индексации, а вот страницы поиска, страницы с адресом загруженных фото и галерей, страницы для скачивания и просмотра PDF-файлов и прочих служебных страниц, многие из которых как раз и являются частичными дублями. Иногда появляются дубли из-за сбоя в работе CMS.

Как еще можно проверить есть ли дубли на сайте:

  • если не настроен редирект на основное зеркало сайта, т.е сайт открывается и «с www» и «без www», в идеале должно быть автоматическое перенаправление на один из вариантов;
  • адрес главной страницы может иметь дополнительную приставку в конце, например, самые распространенные варианты — http://mysite.com/index,  либо приставки: …/index/,  …/index.php,  …/index.php/,  …/index.html, …/index.html/;
  • одна и та же контентная страница может иметь различные расширения, например: http://mysite.com/stranica.html, .htm или .php;
  • дубли генерируемые партнерскими, реферальными ссылками, имеющие в своем составе параметр «?ref=…»;
  • дубли создаваемые utm-метками.

Вариантов появления дублей на сайте еще очень много — это тема целой статьи, поэтому при проведении работ по сео-оптимизации сайта, специалист должен выявить их все и принят меры для их устранения или вывода из индекса.

Для того чтобы найти адреса страниц дублей можно воспользоваться поиском, как это было упомянуто выше, с помощью оператора «site:«. А можно воспользоваться софтом, рекомендуем программу Linken Sleen (TM) Xenu, скачать ее, а также изучить подробное описание программы, возможности, ответы на частые вопросы и прочее, можно тут.

Как при оптимизации сайта избавиться от дублей

Самый простой и доступный способ избавления от дублей на сайте — это настройка редиректа в файле .htaccess, закрытие страниц от индексации поисковыми роботами в файле robots.txt, а также установка тега «rel=canonical» —  для страниц пагинации, фильтров и сортировок, utm-страниц. Поэтому выявив все дубли, приступаем к работе с файлами .htaccess и robots.txt.

О важности правильного составления файлов .htaccess и robots.txt

Правильное составление файлов .htaccess и robots.txt кардинально влияет на результат продвижения сайта в поисковых системах, сейчас мы не будем рассказывать о том, как правильно прописать эти файлы, да и незачем, более подробной и экспертной информации полно в интернете, главное, хотим вас предостеречь, что не стоит прибегать к помощи плагинов, установка которых может только тормозить работу сайта, и пользоваться генераторами онлайн-сервисов. Никто кроме вебмастера не сможет грамотно настроить работу этих файлов.

Создание карты сайта для роботов поисковых систем: файл sitemap.xml

Еще один файл, который требует внимания при продвижении сайта — это файл sitemap.xml, просим не путать с Картой сайта, выводимой в качестве отдельной страницы со списком всех статей — это делается для удобства пользователей и для перелинковки, а вот файл sitemap.xml создается специально для роботов поисковых систем.

Поисковый робот использует файлы .htaccess, robots.txt  и соответственно файл sitemap.xml, как инструкцию к действию. Файл sitemap.xml помогает роботам индексировать сайт, показывая ему сроки индексирования, появление новых страниц и размещение их на сайте, прежде всего, робот заходит и анализирует эти файлы и после чего принимает решение о сканировании страниц и их индексации. Создать файл sitemap.xml можно при помощи упомянутой выше программы Linken Sleen (TM) Xenu.

Если вы не готовы самостоятельно разбираться с информацией, изучать нюансы составления файлов .htaccess, sitemap.xml и robots.txt, то лучше обратитесь к специалистам на бирже фриланса work-zilla.com. Вы экономите уйму времени, а потратите не более двух, максимум, трех сотен рублей. Нанятый специалист провернет эту работу примерно за час, при полном описании ТЗ (укажите какие страницы являются дублями, главное зеркало сайта, ответьте на дополнительные вопросы исполнителя), и у вас не останется сомнений в том, что файлы составлены профессионально, подходят к особенностям вашей CMS и соответствуют требованиям поисковых систем. Кроме того, фрилансер сам зальет эти файлы в корневую папку сайта, если вы предоставите ему такие полномочия.www.work-zilla.com

Скорость загрузки сайта и ее влияние на продвижение ресурса в поисковиках

Сначала Гугл, а затем и Яндекс объявили о том, что страницы сайтов загружающиеся быстрее остальных, будут иметь приоритет при ранжировании в поисковой выдаче. Поэтому проверка скорости загрузки страниц и дальнейшее улучшение этого показателя является не менее важным пунктом в оптимизации работы сайта. Проанализировать скорость загрузки можно на сервисе Гугла: для перехода жмите на скриншот.

Сервис анализа скорости загрузки страницы сайта
Сервис анализа скорости загрузки страницы сайта

Ранее сервис показывал общую статистику сайта, теперь он анализирует именно ту страницу, адрес которой был прописан в поле для ввода, а значит выдает более конкретные результаты и по мобильной версии сайта и по «компьютерной».

Рекомендации у сервиса стандартные, но их необходимо выполнить, иначе ТОП-выдачи вашему сайту не видать никогда. Если вы не разбираетесь в коде, не знаете что такое php, cms, JavaScript и CSS, то вам точно не обойтись без помощи специалистов с Work-Zilla.com.

Мобильная версия сайта

С появлением мобильных устройств и мобильного интернета, появилась и мобильная поисковая выдача, которая представлена в виде облегченной версией основного поиска. Стоит отметить, что в мобильной поисковой выдаче появляются только те сайты, которые интегрируются под мобильные гаджеты. Если сайт не соответствует мобильному формату, он просто отсутствует в выдаче, а значит теряет львиную долю аудитории, ведь пользователи сейчас больше проводят времени с гаджетом в руках, чем за столом у компьютера. Проверить сайт на наличие и исправное действие мобильной версии можно на еще одном сервисе Гугла: перейдите по этой ссылке, проанализируйте свой сайт и следуйте рекомендация сервиса.

Сервис выдал ответ, что сайт оптимизирован для мобильных устройств, а также представил рекомендации по улучшению мобильной версии.

Наличие исходящих ссылок и их влияние на продвижение сайта

Давайте вспомним тот неоспоримый факт, что качество проведения мероприятий по сео-оптимизации напрямую влияет на результат. Поэтому нужно обратить внимание на наличие нежелательных исходящих ссылок на сайте. Даже если вашему сайту, созданному на стандартной CMS, всего несколько минут от роду, на нем уже есть несколько исходящих ссылок:

  • ссылка на разработчика CMS;
  • ссылка на разработчика дизайна или шаблона сайта;
  • ссылки на разработчиков виджетов и плагинов.
  • ссылки на системы аналитики (счетчики посещаемости)

И это только основные ссылки, которые могут быть вшиты в код сайта. Проверить их наличие можно с помощью инструмента Анализа исходящих ссылок на сайте megaindex.com — сервис ограничивает возможности неавторизованных пользователей, поэтому рекомендуем зарегистрироваться на этом ресурсе прямо сейчас, тем более что этот сервис еще понадобится и не раз, так как имеет массу полезных инструментов для вебмастера и оптимизатора.

Чем же плохи ссылки, вшитые в сайт без нашего ведома? Практически ничем, особенно, если ссылки скрыты от индексации, например, как у счетчиков посещаемости. Множество сайтов оставляют эти ссылки и чувствуют себя хорошо в поисковой выдаче. Однако, рассмотрим вопрос влияния этих ссылок на процесс продвижения:

  • во-первых, эти ссылки, как правило, сквозные и расположены одновременно на всех страницах, а значит, передают вес со всего вашего сайта, сайту разработчиков;
  • во-вторых, эти ссылки могут быть расположены где угодно на странице сайта, но не в теле статьи, а значит, они определяются поисковиками как сео-ссылки, а не контекстные;
  • в-третьих, ссылки ведут на разработчиков, что явно не соответствует тематики вашего сайта, а значит, не должным образом характеризует сайт.

Конечно, поисковики — «не дураки», они отлично распознают эти ссылки как «технические», но репутация сайта в их глазах уже  запятнана, особенно если сайт молодой и имеет меньше страниц, чем исходящих ссылок. Помните тот факт, что  при ранжировании двух сайтов с одинаковыми показателями, поисковые системы отдадут предпочтение грамотно оптимизированному сайту без подобного мусора, как выше описанные ссылки. Вывод — по возможности нужно избавляться от неугодных ссылок путем их удаления, закрытия от индексации или с помощью покупки PRO-версии установленного шаблона, дизайна, плагина или CMS.

Политика конфиденциальности

Политика конфиденциальности — с недавнего времени является обязательной страницей на любом сайте, на котором есть поля для ввода личной информации, например, поля ввода в виджете «Комментарии». Отсутствие страницы Политика конфиденциальности может привести не только к проблемам с поисковиками, но и с законом.

Комментарии на сайте и Социальные сети

Обязательно нужно установить плагины «Комментарии»и кнопки «Социальных сетей». Во-первых, поисковики встречая код этих плагины на страницах сайта, отмечают для себя, что владелец работает над улучшением юзабилити своего сайта, а во-вторых, посетители все-таки иногда оставляют комментарии и «лайкают» понравившиеся им статьи, что улучшает поведенченские факторы и социальные сигналы. Кроме того, комментарии, оставленные на сайте генерируют новый контент, статья периодически обновляется, а ссылки из социальных сетей приводят новых посетителей.

Настроить ЧПУ — человекопонятный урл

ЧПУ, или человекопонятный урл — другими словами, адрес страницы который можно прочитать. Важный момент при оптимизации сайта, адреса статей на сайте должны прописываться буквами латинского алфавита, например: vashdomen.ru/novaya-statiya/ — никаких русских букв и числовых значений и служебных знаков в урле быть не должно, поэтому либо устанавливаем специальный плагин!

Вирусы на сайте

Вирусы на сайте — довольно страшная и долгая тема, поэтому подробности по ней мы оставим для другой статьи, однако при проведении оптимизации сайта, необходимо убедиться в том, что вирусов и взломов на сайте нет, а сделать это можно при помощи сервиса: https://rescan.pro/

Помните: вирусы тормозят работу сайта, заражают компьютеры пользователей, сжирают ресурсы хостинга и много что другого еще делают, что в последствии приводит к бану сайта в поисковых системах. И тогда все выше описанные проведенные работы по оптимизации и продвижению сайта в поисковых системах отправляются коту под хвост!

На чем заканчивается подготовка сайта к продвижению в поисковых системах, все ли нюансы сео-оптимизации были указаны?

Конечно — нет! Выше описаны только первостепенные работы по оптимизации сайта, их должен выполнять каждый вебмастер, который желает заняться продвижением сайта в сети. Есть еще масса других действий, способствующих повышению позиций сайта в поисковой выдаче, но о них мы более подробно поговорим в других статьях, а пока займитесь тем, о чем только что прочитали, а если не хотите заниматься этим самостоятельно, то найдите специалиста, на той же биржи фриланса, проведение вышеописанных работ обойдется не дорого, примерно 1000р, но все будет выполнено быстро, идеально и эффективно.

www.work-zilla.com

1 Trackback / Pingback

  1. Серега

Комментарии закрыты.