Внутренние факторы ранжирования, как основная задача веб-мастеров

Содержание

Ранжирование. Что это? | Joomlasecret.ru

Термин «ранжирование» появился практически одновременно с поисковыми системами.


К тому времени количество сайтов в интернете начало неуклонно расти, а, значит, было необходимо как-то упорядочить поисковую выдачу, то есть сделать так, чтобы сайты располагались на странице поисковика в соответствии с их авторитетом, респектабельностью, пользой для посетителей. Ранжирование – это процесс, при котором поисковая машина оценивает все показатели сайта на соответствие определенному поисковому запросу пользователя. В результате получается список сайтов, которые могут дать пользователю ответ на интересующий его вопрос, при этом самыми первыми стоят релевантные сайты, то есть такие, которые максимально отвечают требованиям поисковой системы. Ранжирование происходит на основе такой вещи как семантическое ядро. Это набор ключевых слов по тематике сайта и статей в этой теме. В статьях, так же встречаются ключевые слова по которым поисковой бот убеждается что статья именно про то о чем говорит заголовок страницы. В противном случае происходит пессимизация…

Механизм ранжирования

Однако многим непонятно, как же работает механизм ранжирования. К примеру, почему два практически идентичных сайта, посвященных, к примеру, Forex, занимают в выдаче совершенно разные места.

Один из сайтов неизменно находится на первых строчках в выдаче, а второму так и не удается подняться выше 300-й или 400-й позиции по одному и тому же поисковому запросу. Почему это происходит? Ответ очевиден: в глазах поисковой системы первый сайт более релевантен, то есть все его показатели в сумме гораздо выше, чем у сайта-конкурента, а, следовательно, первый сайт более полезен для пользователей.

Факторы ранжирования

Так как ранжирование – это ответ поисковой системы на пользовательский запрос, то стоит отдельно остановиться на различных факторах, которые определяют место сайта в поисковой выдаче.

В первую очередь ПС  смотрит количество внешних ссылок, ведущих на сайт – это называется ссылочным ранжированием. Количество ссылок – определяющий, но далеко не единственный фактор.

Имеет значение и внутренняя перелинковка страниц сайта, семантическое ядро сайта, количество ключевых слов, расположенных в статьях. То есть текстовые факторы ранжирования. Также можно отметить такие факторы, как возраст страницы, траст, а также различные пользовательские факторы.

Общая структура сайта

Структура сайта должна быть древовидной. Должна быть главная страница, которая индексируется, прежде всего. Статьи сайта должны быть разбиты на разделы и подразделы. Для молодых сайтов, не делайте глубину подразделов длиннее  двух, а лучше одного подраздела, для раздела.

Говоря об общей структуре сайта, нужно вспомнить о семантическом ядре сайта, который вы должны были заранее собрать. тут: 17 сервисов подбора ключевых слов. Зачем? Сейчас поймете.

Вряд ли, следующую структуру сайта, можно назвать классической, но удачной точно можно:

  • Главная страница оптимизируется на 1 ВЧ запрос и 2 СЧ запроса.
  • Разделы сайта включают статьи, оптимизированные по НЧ запросам, которые являются расширенными ВЧ и СЧ запросами главной страницы и названий разделов.

Например: Сайт о молоке.

ВЧ запрос «Молоко». СЧ запросы: «Свежее молоко», «Польза молока».

Делаем следующие Разделы/Статьи:

  • Раздел 1: «Свежее деревенское молоко»/Статьи этого раздела: «Польза деревенского молока», «Витамины в деревенском молоке», «Жирность деревенского молока».
  • Раздел 2: «Молоко порошковое»/ Статьи: « Полезно ли порошковое молок», «Как делают порошковое молоко», «Срок хранения порошкового молока».
  • Раздел 3: «Диета с молоком»/ Статьи: «Влияние молока на похудение», «Можно похудеть, если пить молоко», «Мифы о молочных диетах».

Вот как то так. Надеюсь, смысл понятен. Все ключевые слова нужно брать из заранее составленного (собранного) семантического ядра.

Примечание: Если вы оптимизируете, готовый сайт, то идти нужно, наоборот. По содержанию статей, составлять семантическое ядро, дополнять его, соответственно дополнять сайт статьями. И дальше делать SEO аудит. Но об этом совсем в других статьях.

Часто задаваемые вопросы (FAQ) про ранжирование сайтов

1.     Сколько факторов ранжирования у Яндекс?

Эта информация – коммерческая тайна компании Яндекс. Причем не известно, как точное количество, так и сами факторы. По разным оценкам, эта цифра составляет порядка 1200 факторов.

Но, т.к. ранжирование сайтов происходит автоматически по формуле и на основе алгоритмов, то знание точной цифры в целом ничего не даст.

Для успешной оптимизации под Яндекс важно:

  1. Понимать общие принципы
  2. Знать наиболее весомые факторы, которые мы выделили выше
  3. Думать не как все и делать немного больше конкурентов

2.     Что такое поведенческие факторы ранжирования?

Поведенческие факторы или ПФ – делятся на 2 группы – внутренние и внешние.

Внутренние — это те действия, которые совершаются пользователями внутри сайта.

Внешние – это любые действия на поисковой выдаче. Общий список значимых факторов данной группы дан выше.

Наиболее значимые из них:

  1. Время на сайте
  2. Показатель отказов
  3. CTR на выдаче
  4. Type-in трафик, т.е. переходы по прямому вводу адреса сайта

3.  Как не зависеть от изменения поисковых алгоритмов и сделать так, чтобы сайт всегда оставался в ТОП-10 Яндекс и Google?

Работайте в первую очередь над «удовлетворенностью» пользователя вашего сайта. Яндекс так долго твердил об этом, но на сегодняшний день это действительно так.

При попадании сайта в ТОП-10 в Яндексе – самыми важными становятся поведенческие факторы сайта. Грубо говоря, чтобы сайт переместился с 10й позиции на 1ю, у него должно:

Что такое внешние поведенческие факторы?

К внешним поведенческим факторам относятся все внешние аспекты, характеризующие поведение пользователя, а также значимость самого web-ресурса. Иными словами, внешние факторы — то, что делает пользователь перед тем, как зайти на ваш сайт.

Задача поисковой системы — определить сайты, которые лучше всего отвечают интенту поискового запроса или имеют наибольшее доверие среди посетителей. Полученная информация в дальнейшем используется при ранжировании.

Перечислим, какие поведенческие факторы считаются внешними.

CTR сниппета в поисковой выдаче

С помощью этого сигнала поисковики делают выводы, какой сайт больше соответствует запросу и насколько он удовлетворяет потребностям пользователя. Чтобы повлиять на этот показатель, необходимо делать сниппет более привлекательным и заметным для юзера. По информации, которая выводится в сниппете, можно понять, что за контент размещён на странице, поэтому данные должны быть максимально релевантными.

Как правило, заголовок и описание сниппета в поисковой выдаче формируются из мета-тегов Title и Description, но довольно часто туда попадает контент самой страницы. Google обычно берёт описание из Description, а Яндекс предпочитает отображать текст со страницы, который он считает наиболее подходящим.

Чтобы заголовки и описания были эффективными, обратите внимание на формулу 4U, согласно которой текст должен соответствовать следующим качествам: 

  • Useful (полезный)
  • Ultra-Specific (специфический)
  • Urgent (передающий ощущение времени или срочности)
  • Unique (уникальный)

Можно использовать эмодзи, так как они достаточно сильно привлекают внимание:

Можно использовать эмодзи, так как они достаточно сильно привлекают внимание:


Для получения расширенных сниппетов внедряется микроразметка на посадочные страницы. Выглядит это примерно так:

Возврат с сайта обратно в поисковую выдачу

Такое действие может иметь несколько причин:

  • страница не релевантна запросу, пользователь хотел увидеть совсем другую информацию;
  • контент релевантен, но не интересен по другим причинам — например из-за сильно завышенной цены на товар;
  • сайтом неудобно пользоваться (низкая скорость загрузки, непонятная структура).

Все эти факторы означают, что пользователь не нашёл то, что ему нужно, и хочет изучить другие результаты выдачи.

Длина клика

Показатель, который характеризует время, проведённое на сайте до возврата обратно в поиск.

Клики бывают двух видов:

  • длинные;
  • короткие.

Отследить длинные клики довольно трудно, зато с короткими всё намного проще — их можно определить по показателю отказов. Единственная разница в том, что они рассчитываются на стороне поисковой системы.

Единственный переход из поиска

Показатель, прямо противоположный предыдущему. Он говорит о том, что информация на странице полностью удовлетворяет потребность пользователя и у него нет необходимости просматривать и изучать другие результаты. Нужно стремиться создавать настолько качественный контент, чтобы у пользователя не возникала мысль перейти на другой сайт.

Трафик по брендовым запросам

Достаточно важный фактор. Если пользователи делают много запросов к поисковой системе, используя название компании, бренда или её уникального продукта, — это говорит о хорошей узнаваемости организации и высоком качестве её услуг. Для поисковых систем это сигнал, побуждающий ранжировать сайт компании выше менее востребованных конкурентов.

Переход в другую поисковую систему

Этот фактор вступает в силу, если пользователь не нашёл ответ на свой запрос и решил перейти в другую поисковую систему.

Факторы на уровне сайта

70. Контент несет ценность и заставляет задуматься. В Google заявили, что они с удовольствием будут штрафовать сайты, которые не приносят ничего нового или полезного, особенно некачественные сайты партнерских программ.

71. Страница контактов. В руководстве по качеству говорится, что Google предпочитает сайты с соответствующим количеством данных для связи. Проверьте, чтобы ваша контактная информация совпадала с информацией Whois.

72. Доверие к домену / TrustRank (показатель доверия к сайту). Многие оптимизаторы считают, что показатель TrustRank является чрезвычайно важным фактором ранжирования. И патент Google под названием «Ранжирование результатов поиска на основе фактора доверия» подтверждает это.

73. Архитектура сайта. Хорошо продуманная архитектура сайта, например, «структура бункера», помогает Google тематически организовать контент. Это дает возможность роботу получать доступ и индексировать все страницы вашего сайта.

74. Обновления сайта. Многие оптимизаторы полагают, что обновление сайта – особенно когда добавляется новый контент – работает как фактор новизны для всего сайта. Хотя Google недавно отрицал, что алгоритм учитывает частоту публикации.

75. Наличие файла Sitemap помогает поисковым системам индексировать страницы легче и тщательнее, улучшая видимость сайта. Однако Google недавно заявил, что HTML-карты сайтов не являются «полезными» для SEO.

76. Время непрерывной работы сайта. Большое количество простоев из-за проблем с обслуживанием сайта или сервером может повредить рейтингу (сайт могут даже убрать из индекса, если он не начнет работать).

77. Расположение сервера влияет на ранжирование вашего сайта в разных регионах

Это особенно важно для чувствительных к географическому расположению запросов

78. Сертификат SSL. Google подтвердил, что HTTPS является фактором ранжирования:

«Основной блог веб-мастеров Google»

HTTPS как сигнал ранжирования

Среда, 6 августа 2014 г.

Уровень администратора сайта: все

Безопасность – главный приоритет Google. Мы вкладываем большие средства в обеспечение того, чтобы наши сервисы использовали лучшие в отрасли средства безопасности, такие как надежное шифрование HTTPS по умолчанию. Это означает, что люди, использующие поиск Gmail и Google Drive, автоматически имеют безопасное соединение с Google.

Помимо собственных сервисов, мы также работаем над тем, чтобы область безопасного интернета распространялась шире и сайты, к которым люди получают доступ из Google, были безопасными. Например, мы создали ресурсы, которые помогут веб-мастерам предотвращать и устранять нарушения защиты на своих сайтах».

Однако, согласно Google, HTTPS действует только как «разрушитель связей».


79. Страницы «Персональные данные и конфиденциальность» и «Условия оказания услуг» помогают сообщить Google, что сайт является надежным звеном интернета. Они также улучшают показатели экспертности, авторитета, доверия к сайту.

80. Дублирующаяся метаинформация на сайте может снизить видимость всех страниц.

81. Строка навигации – это вид удобной архитектуры сайта, которая помогает пользователям (и поисковым системам) осознавать, где они находятся.

Google заявляет: «Поисковая система Google использует навигационную разметку в теле веб-страницы для классификации информации со страницы в результатах поиска».

82. Оптимизация для мобильных устройств. Поскольку более половины всех поисковых запросов выполняется с мобильных устройств, ваш сайт должен быть оптимизирован для мобильных пользователей. Фактически Google теперь наказывает сайты, которые плохо отображаются на мобильных устройствах.

83. YouTube. Нет сомнений в том, что в поисковой выдаче видеороликам YouTube предоставляется приоритет (вероятно, потому что YouTube принадлежит Google).

Действительно, Search Engine Land обнаружил, что трафик на YouTube.com значительно вырос после запуска алгоритма Google Panda.

84. Удобство использования сайта. Сайт с неудобной структурой или навигацией может косвенно повлиять на рейтинг, так как люди будут быстро уходить, просматривать мало страниц и показатель отказов будет высоким (другими словами, это факторы системы RankBrain).

85. Использование Google Analytics и Google Search Console. Некоторые специалисты считают, что подключение этих двух программ к сайту может улучшить индексацию страниц. Они могут напрямую влиять на рейтинг, предоставляя Google больше данных для работы (т. е. более точный показатель отказов, независимо от того, получаете ли вы реферальный трафик с входящих ссылок и т. д.).

Продолжение следует.

Оригинал публикации: Backlinko 

Контент

1. Отсутствие ошибок Чем меньше ошибок (как грамматических, так и орфографических) в контенте сайта, тем лучше.

2. Вхождение ключевых слов Первоначально поисковые системы ранжировали сайты по принципу, чем больше вхождений ключевого слова есть в контенте, тем более релеванта страница. Однако сейчас это далеко не так. Считается, что достаточно 1-2 точных вхождений в контенте, а также можно ещё 1-2 разбавленных вхождения. Но не все так просто. Многое зависит от объема статьи. В любом случае, нужно писать тексты, которые будут ориентированы на пользователей, а не на поисковую машину.

3. Возраст контента Со временем вес контента на странице растет. Именно по этой причине в топе почти никогда не появляются свежие статьи.

4. Уникальность Каждая статья должна быть уникальной не только в пределах всего интернета, но и сайта. Уникальность оценивается на момент индексации, то есть, если потом эта статья появилась на других сайтах (после индексации на Вашем сайте!), то ничего страшного нет. Главное, что Яндекс знает кто первоисточник.

Купить недорого уникальный текст для сайта можно в биржах контента.

5. Добавление нового контента Считается, что чем чаще добавляются новые материалы на сайт, тем лучше всему сайту в целом. При этом ценится постепенное добавление контента. Например, за один день выкладывается одна статья и т.п.

6. Обновление контента Считается, что если контент со временем обновляется, то это хороший признак, поскольку значит сайт не заброшен, а его создатели пытаются сделать его лучше.

7. Видимость контента Поскольку контент пишется для пользователя, то он должен быть хорошо читаем. Если текст плохо виден или же вообще не виден, то со временем сайт попадет под какие-нибудь санкции.

8. Клоакинг Некоторые хитрые вебмастеры выводят поисковой машине один контент, а пользователю другой. Поисковые машины научились с этим бороться, поэтому никому не советую обманывать Яндекс, т.к. итог будет печальным. Более подробно про клоакинг читайте здесь.

9

Копии статей на других сайтах Есть мнения, что если статья с Вашего сайта разошлась по многим другим сайтам, то эта статья имеет большой авторитет, а значит Ваш сайт может получить определенные бонусы со стороны Яндекса за то, что именно Вы первоисточник такой важной статьи. Это правило работает даже если сайты не ссылаются на первоисточник

10. Объем контента Считается хорошим признаком, когда каждая статья на сайте имеет разный объем. Например, одна статья 1000 символов, другая 1500, третья 2500 и т.д. Если все статьи одного размера, то это создает подозрение на их не естественность.

Информация о компании

  1. Наличие страницы о компании. Именно отдельная страница, где пользователь сможет подробнее узнать о вас – положительно влияет на коммерческие факторы ранжирования сайта. Многие объединяют текст на Главной с информацией о компании, что неправильно. Главная страница предназначена для того, чтобы кратко рассказать о направлениях деятельности компании, основных товарах или услугах, показать преимущества для клиента. Страница о компании же идёт как дополнительная, на ней можно подробнее рассказать об истории создания фирмы, основных сотрудниках и партнерах.
  2. Фотографии офиса. Не только снаружи, чтобы клиент мог быстро найти ваш офис, но и внутри. Особенно это необходимо для тех клиентов, которые не собираются приходить к вам, но хотели бы удостовериться, что вы реальная компания.
  3. Отзывы о компании. В первую очередь нужны для повышения лояльности клиентов, не путать с отзывами о товарах. Такие отзывы лучше размещать с фотографиями клиентов и их контактной информацией. Коммерческие факторы будут расти.

    Данный блок лучше разместить на Главной странице, где показать 3-4 отзыва и добавить ссылку на страницу со всем списком.

  4. Форма отзывов. На сайте обязательно должна быть возможность оставить свой отзыв. Если вы боитесь спам-роботов, то сделайте премодерацию. Чтобы упростить процесс заполнения полей и добавления фотографий, сделайте авторизацию через соцсети.
  5. Сертификаты. Если у вашей компании есть сертификаты, награды и другие подтверждения квалификации специалистов, обязательно покажите эту информацию, чтобы клиенты видели, что вы профессионалы своего дела и вам стоит доверять.

    Изображения сертификатов должны быть хорошего качества, с возможностью увеличить фотографию (скан). Также к каждому документу лучше добавить поясняющую надпись.

Частота и вес слов

Первоначально релевантность текста определялась только частотностью ключевого слова. Поэтому частота употребления ключевиков была одна и та же, что делало невозможным выбрать один документ среди своих почти что клонов, о нечитабельности текстов можно и не говорить. Спустя некоторое время этот критерий был переосмыслен.

Релевантность стала определяться весом слова в документе по статистике TF-IDF. Формула этой статистики строилась на том, что весомым слово считалось, только если встречалось в данном тексте чаще, чем в других материалах. Мониторинг веса слов не допускал ранжирования страницы, переспамленной ключевыми словами. Статистика TF-IDF – это средство контроля за ранжированием хороших сайтов.

Самые распространенные ошибки структуры сайта

Графический заголовок

Довольно часто при разработке дизайна сайта заголовок (шапка) выполняется в виде картинки шириной в страницу. Обычное содержание такого графического заголовка – название, логотип компании, некоторая другая информация. Делать это нецелесообразно. Верхушка страницы – место очень ценное, там выгоднее разместить самые главные ключевые слова. Если это место занято графическим изображением, оно работает вхолостую.

Бывают и более нелепые варианты сайтов: в заголовке есть текстовая информация, но разработчики решают сделать его более привлекательным визуально и выполняют в виде картинки. Результат – поисковик «видит» только картинку, а текст игнорирует.

Наилучший вариант – комбинированный и графический логотип (но не во всю ширину страницы), и текстовый заголовок присутствует, обязательно с ключевыми словами (в оставшейся части «шапки»).

Графическое навигационное меню

Здесь проблема та же, что и в предыдущем пункте: ключевые слова должны присутствовать во внутренних ссылках на сайте, тогда вы получите при ранжировании дополнительное преимущество. Навигационное меню в виде графики будет привлекательно, но поисковые системы ссылочные тексты не обнаружат.

Если без графического меню все же не обойтись, то хотя бы постарайтесь оформить его правильно: снабдите все картинки тегами ALT.

Навигация через скрипты

Бывают случаи осуществления навигации по сайту с помощью скриптов. Надо отдавать себе отчет, что поисковые системы не способны читать и исполнять скрипты. То есть заданная с помощью скрипта ссылка не будет доступна для поисковика, по ней не пройдет поисковый робот.

В этих случаях нужно иметь дубликаты ссылок, выполненные обычным способом. В этом случае и посетители, и роботы поисковых систем будут обнаруживать, и видеть информацию на вашем сайте.

Идентификатор сессии

Есть сайты, на которых используется идентификатор сессии: каждому посетителю сайта дается уникальный параметр &session;_id=; он в дальнейшем добавляется к адресу каждой посещаемой страницы ресурса.

Плюсы идентификатора сессии в том, что с ним удобнее отслеживать статистику поведения посетителей сайта, его также можно использовать для других целей.

А вот для поискового робота любая страница, имеющая новый адрес — это новая, иная страница. То есть, когда поисковый робот при каждом заходе на сайт будет считывать новый идентификатор сессии, то в дальнейшем, посещая абсолютно те же самые страницы, но с другими идентификаторами, он все равно будет считать их новыми страницами сайта.

Поисковые системы имеют алгоритмы «склейки» зеркал и страниц с идентичным содержанием, поэтому, в конечном итоге, они проиндексируют те сайты, которые используют идентификаторы сессий. Другое дело, что индексация такого рода затруднена, и может пройти некорректно, поэтому идентификаторами сессий без крайней необходимости лучше не пользоваться.

Редиректы

Не рекомендовано использовать редиректы без четких причин, потому что они сильно затрудняют поисковым роботам анализ сайта.


Скрытый текст

Этот и следующий пункты можно отнести не к ошибкам, они ближе к преднамеренному обману поиска, но упомянуть их следует.

Некоторые владельцы сайтов используют скрытый текст, то есть цвет текста и фона одинаковый, например оба белые. Этот способ дает возможность, не нарушая дизайн и логику страницы, «накачать» ее необходимыми ключевыми словами. Текст при этом не виден посетителям ресурса, но зато великолепно читаем поисковыми роботами.

Подобные «серые» методы оптимизации приводят к бану сайта, то есть исключению сайта в принудительном порядке из базы данных (индекса) поисковой системы.

Однопиксельные ссылки

Если использовать графические изображения-ссылки, которые практически не видны посетителю (размером 1*1 пиксель), то поисковые системы воспримут это как попытку обмана и сайт тоже может быть исключен из базы (бан).

Структура сайта это последний из внутренних факторов ранжирования. В следующем разделе рассмотрим внешние факторы ранжирования страниц сайта.

SeoJus.ru

Принципы ранжирования поиска Яндекса

  1. Существуют ресурсы, не представляющие интереса для пользователей и вводящие их в заблуждение — и, соответственно, ухудшающие качество поиска. К методам обмана поисковой системы относятся:
  2. * размещение невидимого или бессмысленного текста;
  3. * создание дорвеев — промежуточных страниц, перенаправляющих посетителей на сторонние сайты.

Яндекс автоматически исключает их из поиска или понижает в ранжировании.

  1. Часто встречается реклама, мешающая навигации по сайту и нормальному восприятию информации. Например, есть сайты, которые содержат popunder-баннеры (они перемещаются по экрану вслед за прокруткой страницы и закрывают ее содержание) и clickunder-рекламу (она неожиданно для пользователя открывает рекламную страницу при любом клике по сайту). Поэтому Яндекс располагает сайты с такой рекламой ниже в поисковой выдаче.
  2. Яндекс ранжирует сайты для взрослых ниже или вообще не показывает их в результатах поиска. Ресурсы с эротическим контентом часто используют агрессивные методы продвижения — в частности, появляясь в результатах поиска по самым разнообразным запросам.
  3. Яндекс проверяет индексируемые веб-страницы на наличие вирусов. Если обнаружилось, что сайт заражен, в результатах поиска рядом с ним появляется предупреждающая пометка.

Критика

До сих пор алгоритмы поисковых систем не могут исключать весь поисковый спам (обман поисковой системы и её пользователей)

Представители Яндекса заявляют, что «важно постоянно совершенствовать алгоритмы ранжирования и делать их устойчивыми к внешнему влиянию (например, к попыткам некоторых вебмастеров обмануть поисковую систему).».. Другим спорным моментом является возможная предвзятость поисковой системы, когда политические, экономические и социальные факторы могут влиять на результаты поиска

Такая предвзятость может быть прямым результатом экономических и коммерческих процессов: компании, которые рекламируются в поисковой системе, могут стать более популярными в результатах поиска.

Другим спорным моментом является возможная предвзятость поисковой системы, когда политические, экономические и социальные факторы могут влиять на результаты поиска. Такая предвзятость может быть прямым результатом экономических и коммерческих процессов: компании, которые рекламируются в поисковой системе, могут стать более популярными в результатах поиска.

Накрутка поведенческих факторов

Накрутка поведенческих факторов – это искусственное влияние на ранжирование поисковых систем, с целью поднять сайт выше в поисковой выдаче. 

Работает ли?

– никогда хорошо не работала. Алгоритмы высокого уровня. Плюс для Google это не такой критичный фактор ранжирования. 

Yandex – всегда работало и работает сейчас. Именно поэтому Яндекс активно борется с накрутками. Поведенческие факторы в этой поисковой системе оказывают большое влияние, поэтому накрутки приносят результаты.

Как влиять на поведенческие факторы? Специфика

Накрутка поведенческих факторов работает для сайтов в ТОП-30. Если сайт за пределами, то особого влияния может не быть.

Накрутки производятся с помощью различных сервисов, называть которые мы не будем. Информацию о них можно найти в выдаче по запросам « Сервисы для накрутки поведенческих факторов » . Там, за определенную сумму денег, вы можете поднять свой сайт по тому или иному запросу выше в выдаче.

Существует два типа накрутки:

  1. Накрутка роботами. Автоматическая программа заходит в поисковую выдачу по конкретному запросу и находит там именно ваш сайт, игнорируя все остальные. Есть более сложные системы, которые сначала кликают на сайты конкурентов, выходят с них и только потом переходят на ваш. Далее бот проводит на сайте определенное время, совершая разные действия (имитирует сигналы «Длина клика», «Глубина просмотра»). После чего закрывает выдачу и никогда к ней не возвращается (имитация сигнала «Последний клик»). И конечно такой бот не один. Большое количество ботов под разными IP-адресами заходят и делают подобные действия. В итоге, поисковая система, получает положительные сигналы и поднимает сайт в выдаче. Со временем Яндекс научился бороться с накруткой ботами, потому что они совершали идентичные действия и вели себя не как реальные люди. Но алгоритмы все время совершенствуются. Сейчас есть сервисы, где можно детально настроить поведение робота до самых мелких деталей. Отличий от живого человека практически нет. Яндекс не в состоянии полностью защититься. В любом случае, этот метод считается менее рабочим, чем второй.
  2. Накрутка людьми. Люди получают задание сделать определенные действия на вашем сайте, а вы платите за это деньги. Этот метод достаточно дорогой, в сравнении с предыдущим. Исходя из опыта людей, которые делают накрутки, Яндекс абсолютно никак не может ему противостоять.Человек всегда делает разные действия на сайтах и отследить их на данный момент невозможно.

Что будет, если вас поймают на накрутке?

В официальной справке Яндекса есть строчка о санкциях за «Имитацию действий пользователей». Вам придет письмо счастья в Яндекс Вебмастер о том, что вы попали под фильтр. Сроки фильтра самые суровые из всех (8-12 месяцев). При чем, никакие действия не помогут вам ускорить этот процесс.В этом вся фишка. Вы можете крутить сколько угодно и радоваться результатам, но держать в голове, что в любой момент это может привести вашу компанию к потере сайта. Остаться без заявок и трафика на год – это суровое наказание, которое повлечет огромные потери для бизнеса. Новый сайт поднять в короткие сроки — не простая задача.

Что положительного?

  • Накрутку могут использовать, чтобы уничтожить конкурента. И положительное не то, что это происходит, а то, что теперь вы это знаете. Вас вполне могут накрутить до наложения фильтра. Если вы обнаружили, что вас крутят (появились непонятные однотипные заходы на сайт, которые выполняют одни и те же действия или плодят вам показатель отказов), нужно написать в тех. поддержку Яндекса с просьбой разобраться в вопросе. Чем раньше вы это сделаете, тем лучше.
  • SERM. Накрутку можно использовать во благо, чтобы обелить свое имя, которое несправедливо оклеветали. Часто бывает так, что на каком-то форуме или в статье, компанию выставляют в недобром свете. Даже если вопрос решен, по брендовым запросам еще долго могут всплывать эти материалы, пороча имидж. Тут можно применить метод общения и попросить администрацию ресурса удалить материал, но это не всегда помогает. Тогда единственным способом будет продвижение других статей в топ по данным запросам, чтобы негатив опустился ниже в выдаче. В таком продвижении часто применяется накрутка ПФ.

Мета-теги содержания как внутренние факторы оптимизации сайта

Сначала о сайте в целом

Сайт должен иметь название (title) до 70 символов. Описание (description) — до 160-180-200 знаков с пробелами, разные значения для разных поисковиков.

Ключевые слова для сайта в целом, должны повторяться во всех статьях. Уже давно, поисковики не обращают внимание на теги keywords. Однако использование keywords не вредит оптимизации, а в некоторых системах управления сайтом используется для улучшения навигации.

Теперь о мета-тегах статей

  • Статья, должна (рекомендовано) иметь title до 70 символов.
  • Описание (description) — до 160 знаков с пробелами.
  • Ключевые слова статьи (keywords) должны быть (необязательно). Они должны встречаться в статье не менее 1% каждое слово.

Поисковики не видят keywords, однако CMS их видят и инструменты внутреннего поиска основаны именно на таксономии keywords. Правда, называются они по-разному. В WordPress – мета теги, в Joomla –keywords. Кстати, по заданным keywords, формируются модули облаков сайта.

Влияние релевантности на ранжирование

Одним из важных критериев ранжирования выступает релевантность, воспринимающаяся разными системами по своим принципам. Релевантность (соответствие страницы запросу) имеет две важные стороны в определении:

— Смысловая (содержательная) – вытягивается из контента по лексико-семантическому анализу.

— Формальная – алгоритмическим путем сравнивается образ поискового запроса с содержимым документа в индексе поисковой машины.

При этом величина ранжирования носит переменный характер. Алгоритмы поисковых систем постоянно меняются, это делается для предотвращения обхода нерелевантных сайтов сквозь щит фильтров, использующих черные методы продвижения. Однако при наличии доверия со стороны поисковиков, изменения в алгоритме могут не сказываться на положении в выдаче.

Для полного ранжирования важную роль играет ссылочный фактор, на который влияет количество и качество ссылок, полученных на страницу с других страниц. Также на этот фактор влияет внутренняя перелинковка. В процессе ранжирования учитывается не только количество ссылок, но и их возраст, наличие анкора, постоянство, местоположение и авторитетность сайта-донора.

Работа хостинга

Хостинг может оказывать негативное влияние на позиции сайта из-за различных проблем (нестабильность работы, медленное соединение). Чтобы у Вас не было проблем с хостингом, советую прочитать:

  • Как выбрать хороший хостинг
  • Обзор надежных хостингов для сайта

2.1. Редиректы на сайты

1. Наличие множественных редиректов Плохим признаком считается большое количество редиректов на сайте. Здесь стоит сравнивать не в количественном соотношение, а в процентном %.

2. Правильные коды редиректов Каждый редирект должен быть правильно настроен. Например, если адрес страницы поменялся навсегда, то должен быть 301 редирект, а если временно, то 302 (см. как сделать редирект).

3. Количество редиректов по пути к странице Может быть, что одна страница через редирект ведет на другую, а потом ещё на другую и т.д. Например, 301->301->302->301. Естественно, что такая картина не желательна.

2.2. Обработка 404 ошибки

Напомню, что 404 ошибка означает то, что документ не найден. Дело в том, что многие сайты неверно обрабатывают эту ошибку. Например, вместо ошибки может быть загружена главная страница сайта — что будет грубой ошибкой. См.: как правильно обработать 404 ошибку.

2.3. Скорость загрузки страниц

Если почитать help Яндекса, то можно найти такую информацию о том, что роботы Яндекса любят когда страницы загружаются быстро. Впрочем на мой взгляд это очевидный плюс, прежде всего, для посетителей.

Более подробно про скорость загрузки страниц сайта читайте в статьях:

  • Как определить скорость загрузки сайта
  • Как увеличить скорость загрузки сайта

2.4. Стабильность работы хостинга

Когда сайт недоступен каждый день хотя бы по 3-10 минут, то советую сменить такого хостера. Дело в том, что если поисковый робот будет как раз делать обход в это время и увидит, что сайт недоступен, то это может плохо повлиять на позиции сайта в дальнейшем.

Заключение

Многие коммерческие факторы внедрять сложно и дорого, зато с помощью них вы не только поднимете позиции сайта в поиске, но и сделаете его надежным и уважаемым в глазах пользователей. Удобный и интересный ресурс обязательно привлечет новых клиентов и поможет удержать старых.

Данные коммерческие факторы нельзя накрутить, поэтому будьте готовы к разносторонней работе с сайтом. Если вам нужна техническая помощь, то наши специалисты с радостью помогут, но лучше начать с аудита, чтобы выявить основные ошибки на сайте.

Помните, довольный клиент – высокие коммерческие факторы ранжирования в Яндекс и Google.


С этим читают