Seo оптимизация статьи: актуальный план

2 — Поисковые подсказки

  • Заказчик добавляет в сервис требуемые ключевые фразы, которые требуется вывести в подсказки поисковой системы;
  • На основе статистики Google Keyword Planner или Yandex.Wordstat заказчик задает количество запросов, которое требуется для вывода подсказки в поисковой строке;
  • Задания распределятся по исполнителям;
  • Популярность продвигаемых поисковых запросов растет;
  • В поисковых подсказках начинают выводиться требуемые ключевые фразы.
  • Увеличение трафика посредством продвижения поисковых запросов, по которым сайт уже ранжируется в ТОП. В данном случае увеличивается трафик по ключевой фразе, а сайт собирает данный трафик;
  • Управление репутацией в интернете через удаление или добавление поисковых подсказок.


Оптимизация структуры сайта

Многое зависит от дизайна, но следует понимать, что слишком неординарный дизайн может вызвать недоумение у посетителей и они не смогут ориентироваться в меню навигации. Поэтому для коммерческих или социальных проектов, рассчитанных на широкую аудиторию, используется оригинальный логотип и шапка сайта, но меню и структура обычно стандартные, то есть выглядит как на большинстве подобных сайтов.

Редкий гость будет десять раз перелистывать каталог в поисках нужной страницы. Роботы ПС тоже не любят страницы вдалеке от главной и индексируют их неохотно, долго. Иногда страницы, сильно удаленные от главной, вообще оказываются вне индекса на многостраничниках. Максимальный уровень вложенности страниц — третий или четвертый: чем дальше страница от главной — тем меньше шансов на индексацию.

Факторы процесса индексации

Файл robots.txt

Файл robots.txt должен находиться в корневой папке сайта и называться именно так. В нём перечисляются правила для индексирования сайта – что нужно брать в поиск, а что нет. Этот файл должен быть составлен грамотно и правильно, иначе что-то пойдёт не так.

Файл sitemap.xml

Это список всех страниц сайта, которые поисковик должен проиндексировать, разделённый на категории. Такой файл могут создать большое количество плагинов для WordPress.

Настройка главного зеркала

У сайта есть разные адреса. Например, может быть example.com или www.example.com. Если уже производился переход на HTTPS, то обе эти варианта могут так же записываться http:// или с https:// Однако, лишь один адрес должен быть главным – главное зеркало. И все входы на остальные варианты адресов должны автоматически переводить на главное зеркало.

Современные хостинги позволяют настраивать главное зеркало. Обычно это происходит в разделе “Сайты”.

Борьба с дублированием контента

Таблица: Причины дублирования страниц и как решать их:

Причины дублирования контента Как исправлять проблему
Сайт доступен как по адресу site.ru, так и по адресу www.site.ru Нужно настроить главное зеркало в вебмастерах поисковых систем. В директиве host файла robots.txt указать главной зеркало для ПС Яндекс. Настроить 301 редирект на одну любую версию сайта (с www либо без www).
Сайты доступны со слешем (/) на конце и без слеша. Настройка 301 редиректа на одну любую из версий.
Одинаковое содержимое доступно по адресу site.ru, site.ru.html, site.ru.php.
Параметрический урл и ЧПУ. Одна и та же страница доступна по адресам вида: site.ru.php?=category=100 и, например, site.ru/seo/ankor/.
Один и тот же сайт открывается как по https так и по http протоколу.
Использование UTM-меток и реферальных ссылок. С помощью link rel=»canonical» на всех копиях страниц указываем главную страницу, которую нужно индексировать.

Выбор сеошника

Когда вы ищете, кому бы доверить продвижение своего сайта, главное — помнить, что этой работой должна заниматься хорошая команда или специалист. Есть несколько способов их поиска и оформления сотрудничества. Некоторые предпочитают открывать вакансию сеошника и принимать его в штат. Этот вариант выбирают, как правило, менеджеры, которые мыслят узко и не видят общую картину работы компании. Их главный аргумент — штатный специалист будет работать исключительно над проектом своего работодателя. Но есть ряд негативных последствий такого решения.

  • На содержание в штате сеошника нужно тратить немало средств. В Москве средняя зарплата такого специалиста составляет 100 тыс. руб. Если вы работаете в другом городе, платить придётся поменьше, но есть риск потери специалиста, который может трудоустроиться в столице или решить работать удалённо. Имея такую должность, он может себе позволить отказаться от офисной работы.

  • Взносы в Пенсионный фонд, на обязательное медстрахование и т. д. прибавляют к расходам ещё около 30 %.

  • Штатному работнику нужно оборудовать рабочее место, предоставить возможность заниматься в тренажёрном зале, обеспечить питание и массу других «коврижек».

  • Если сеошник работает в штате, он имеет право на оплачиваемый отпуск и больничный.

Всё вышесказанное позволяет сделать вывод о том, что принимать в штат SEO-специалиста может быть выгодно только солидной компании, для которой расходы на его содержание не станут непосильной нагрузкой. Если же у вас бизнес скромных масштабов, лучше выбрать один из таких вариантов. Для решения несложных задач можно воспользоваться услугами фрилансера. Он вполне справится с подбором подходящих по частотности запросов и подготовит тексты, вписав в них ключи. Если же требуется комплексная высококвалифицированная помощь, лучше обратиться в агентство. В большинстве случаев они занимаются SEO-продвижением в комплексе, и пакет услуг стоит в несколько раз меньше, чем содержание сеошника в штате. Расходы на заказ качественного поискового продвижения в Москве составляют от 45 тыс. руб. ежемесячно, что дешевле использования традиционных маркетинговых инструментов.

SEO оптимизация сайта

Релевантность страницы сайта оценивается по множеству факторов. Соответствие этим факторам и есть основная задача поисковой оптимизации. То есть, СЕО оптимизация сайта — это оптимизация страниц сайта с целью повышения релевантности каждой страницы соответствующему поисковому запросу.

Поскольку релевантность страницы рассчитывается, исходя из совокупности факторов, логично предположить, что оптимизация каждого фактора отразится на релевантности всей страницы. Следовательно: seoоптимизациясайта — это комплекс мер по оптимизации каждого элемента страницы с целью повышения релевантности всей страницы сайта.

Нельзя не затронуть такую существенную тему как поведенческие факторы сайта. Именно поведенческий фактор ранжирования сайта определяет степень успешности комплексной SEO оптимизации. Ведь на сколько бы хорошо не был оптимизирован сайт, если посетители сайта показывают плохой поведенческий фактор, то и опимизация контента не возымеет значительного результата. Подробно о том что такое поведенческие факторы, какими они бывают и на что влияют, читайте в статье поведенческие факторы сайта.

Улучшение индексации сайта

Цель улучшения индексации сайта — это сделать так, чтобы мы удалили из базы поисковой системы бесполезные страницы сайта и добавили полезные. Для выполнения этой задачи мы первым делом должны проверить индексацию каждой существующей страницы сайта. Лучший инструмент для этой задачи, на мой взгляд, сделала команда сервиса Seranking. Он находится здесь. Да, инструмент платный, но зато быстрый и удобный.

По результатам проверки мы можем выяснить, что часть страниц не попала в индекс, а часть попала. Далее мы должны удостовериться, что проиндексированные страницы не являются мусорными. Если часть из них являются все же мусорными, то мы должны предпринять меры по их удалению из базы поисковой системы. Для этого существует файл robots.txt, meta name=»robots» и link rel=»canonical».

Также в индекс могут не попадать и нормальные страницы. Причины этого следующие:

  • Страница находится более чем в 3 кликах от главной;
  • Отсутствие уникального контента;
  • Дублирование заголовков;
  • Долгое время загрузки страницы.

P.S. Для реально ускорения индексации сайта в яндексе нужно использовать инструмент переобход страниц, а в гугле аддурилку.

Составление корректного robots.txt

Файл для поисковых роботов robots.txt очень важен для корректной внутренней оптимизации. С помощью директив Disallow (запретить) и Allow (разрешить) можно управлять сканированием разделов сайта. Корректность составления данного файла можно проверить с помощью сервиса Яндекса здесь.

Из других основных директив следует отметить:

  • User-agent: — указывает для какого робота будут действовать директивы секции;
  • Host: — указывает основное зеркало (работает только в секции для поискового робота Яндекс);
  • Sitemap: — позволяет указать урл по которому расположена XML карта сайта.

Пример составления файла для cms WordPress можете посмотреть у меня на блоге.

Правильная расстановка meta name=»robots» и link rel=»canonical»

Для правильного индексирования сайта и распределения весов нужно правильно расставить meta name=»robots» и link rel=»canonical».

Если страница закрыта от индексации с помощью данного метатега, то важно, чтобы она не была одновременно закрыта в robots.txt. Помните, что robots.txt управляет сканированием, а meta name=»robots» индексированием

Для указания основной страницы используйте link rel=»canonical». Данный атрибут целесобразно применять тогда, когда нужно поисковой системе явно указать какая из двух страниц с одинаковым содержимым является приоритетной. Я рекомендую все же это делать не с помощью canonical, а с помощью 301 редиректа.

Создание автоматически генерируемых sitemap.xml для обычных постов, картинок, видео

Карта сайта — это ничто иное как обычное содержание, которое должно именно индексироваться.

На сайте должен присутствовать автоматически обновляемый файл sitemap.xml. Различают sitemap.xml для постов, для картинок и видео. Стоит отметить, что сайтмап для картинок и видео поддерживает лишь Google, а Яндекс нет

При составлении данного файла важно учитывают следующие моменты:

  • любая новая страница, картинка или видео должны сразу же попадать в соответствующий sitemap.xml;
  • если страница запрещена в robots.txt или запрещена мета-тегом, то такая страница не должна присутствовать в сайтмапе;
  • лучше всего настроить автоматическую генерацию карты сайта средствами вашей CMS;
  • идеальный случай — это когда в файле sitemap.xml присутствуют лишь непроиндексированные url.

Тег noindex (скрытие текстового содержимого в коде страницы)

Тег noindex позволяет скрывать часть текста в коде страницы от индексирования. То есть все, что находится внутри данного тега не учитывается при текстовом ранжировании. Работает только в поисковой системе Яндекс. Тег можно ставить в любой порядке и в любом месте кода, так как он не является вложенным.

Пример использования тега:

Тег используют если:

  • на странице большое число повторов, например, характеристик товара;
  • на странице используется неуникальный контент, который вы где-то позаимствовал.

В Гугле тег noindex, к сожалению, не работает. Для закрытия контента в гугле и яндексе одновременно используйте технологию seohide.

Атрибут rel=»nofollow»

Атрибут rel=»nofollow» присваивается ссылкам и служит для закрытия их от индексации поисковыми системами Яндекс и Google. Раньше с помощью данного атрибута управляли pagerank (статическим весом), который является одним из алгоритмов ссылочного ранжирования. Сейчас это не имеет смысла в связи с изменением учета nofollow поисковыми системами. Другими словами, для внутренней перелинковки смысла использовать nofollow нет.

Пример использования:

Что входит во внутреннюю оптимизацию сайта?

Задача этапа – подготовить сайт к продвижению. На данном этапе SEO-специалист проводит следующие работы:

№ Наименование работ 1

Подбор ключевых слов, по которым планируется продвигать сайт. Также данный список называют семантическим ядром. 2 Проверка позиций сайта по выбранным ключевым словам. Для съема позиций оптимально использовать сервисы, например, Топвизор. Данный сервис позволяет снять позиции по любому числу запросов, хранит историю позиций и показывает их динамику. 3

Распределение ключевых слов по страницам сайта. На данной этапе SEO-специалист определяет, какие страницы и по каким словам будут продвигаться. Если на сайте нет нужных страниц, в план работ включается создание новых страниц под собранные запросы. 4


Разработка новой структуры сайта, с учетом создаваемых для SEO страниц

Важно, чтобы структура оставалась логичной и понятной для посетителей сайта, при этом позволяя охватывать нужную семантику. 5 Проведение технического аудита сайта. Составление рекомендаций по устранению ошибок на сайте, которые могут препятствовать оптимизации сайта в дальнейшем и снизить эффективность SEO. 6 Внедрение рекомендаций технического аудита либо контроль их внедрения, если доработки на сайте выполняются сторонними специалистами

Часто для доработки интернет-ресурса требуется веб-программисты. Найти их можно в каталоге веб-программистов. 7

Настройка файла robots.txt. Данный файл управляет индексацией сайта и закрывает от роботов поисковых систем служебные разделы, дубли страниц, оставляя в базе поисковых систем только полезные для SEO страницы. 8 Подключение сайта к панелям Яндекс.Вебмастер и Центру для вебмастеров Google. Проверка настроек в панелях. Например, в панели Яндекс.Вебмастер необходимо проверить регион, присвоенный сайту, наличие ошибок и санкций. 9 Подготовка технических заданий на оптимизацию текстов. Распределение заданий между копирайтерами, работающими на проекте. Если у вас нет копирайтеров, вы можете найти их в каталоге копирайтеров. 10

Оптимизация текстов на сайте. Важнейший этап оптимизации, задача которого – доработать тексты на сайте под рекомендации поисковых систем.

Как улучшить поведенческие факторы?

Улучшение “кликовых” факторов

Чтобы улучшить “кликовые” поведенческие факторы на сайте, надо создавать  привлекательные сниппеты. Заголовок сниппета обычно берется из мета-тега title

Соответственно, title надо делать ярким, с использованием уточняющей информации, чтобы привлекать внимание пользователей

В данном примере мы дали понять о чем статья, указали количество часов в обзоре и год, дав понять, что обзор актуальный. Часто вебмастера, при наступлении следующего года, во всех своих статьях меняют год на новый. Это не очень этично, но это работает.

Также поисковые системы часто ставят заголовки сниппетов из заголовков в тексте. Описание сниппетов берется или из мета-тега description, или из текста статьи. Соответственно description надо всегда писать на страницах, часто владельцы ресурсов этого не делают. Он, как и title, должен заинтересовать потенциальных посетителей и раскрывать тему страницы.

В сниппетах нельзя врать и обещать того, о чем у вас на странице нет информации. Посетители увидят, что нужных сведений у вас нет, быстро покинут ее, и поисковые системы поймут, что с данной страницей что-то не так.

Улучшение внутренних поведенческих факторов

Для улучшения внутренних поведенческих факторов необходимо улучшать вовлеченность посетителей на сайте. В первую очередь контент должен быть качественным и удовлетворять потребность пользователей, которые вводят нужные вам поисковые запросы. Если это статья, то она должна:

  • раскрывать тему, обозначенную в заголовке;
  • быть понятно и качественно написана, не стоит использовать сложные термины, если они непонятны вашей целевой аудитории;
  • кроме текста содержать другие полезные элементы: навигацию, подходящие картинки, таблицы, видео, цитаты;
  • содержать ссылки на другие полезные страницы вашего сайта или даже на внешние ресурсы.

Чтобы создавать качественный контент, советуем изучать материалы конкурентов, которые находятся в топе поисковой выдачи. У конкурентов вы сможете увидеть, как они раскрывают тему, на кого ссылаются, и какие полезные элементы находятся в их материалах.

Кроме полезного контента ваш сайт должен:

  • быстро загружаться: если страница не сразу открывается, пользователь может уйти на другие сайты, не дождавшись загрузки;
  • быть адаптивным, сейчас пользователи больше проводят время в Интернете не с компьютеров, а со смартфонов;
  • иметь приятный дизайн и понятную структуру.

Всеми этими действиями вы будете улучшать контент вашего проекта. Как следствие, вовлеченность пользователей начнет расти, поисковые системы это заметят и будут ставить ваш сайт выше в выдаче.

Что такое оптимизация веб-сайта, зачем она нужна, какие виды бывают?

Оптимизация сайта – это работа направленная на структурирование информации на ресурсе. В целом это понятие комплексное и зачастую под ним имеют в виду:

  • Поисковую оптимизацию;
  • Оптимизацию графики сайта;
  • Оптимизацию программного кода.

Есть даже документальный фильм с историей возникновения SEO:

Оптимизация может быть внутренней и внешней. Внутренняя помогает раскрутить сайт, готовит его к продвижению, делает заметным для разных поисковиков, помогает привлечь на сайт пользователей.


Как правило, работа по внутренней оптимизации делится на несколько частей:

  • Выбор страниц под основные группы ключевых слов и фраз. Так как продвигать только главную страницу под все запросы не получится, необходимо определить несколько страниц для оптимизации, и «заточить» их под выбранные ключевые слова из вашего ядра запросов. Эти слова необязательно должны быть часто запрашиваемые. Главную же страничку обязательно оптимизируют под самые частотные запросы.
  • Оптимизация информации сайта. На этом этапе необходимо проработать контент (наполнение), чтобы он был максимально полезен и обязательно имел те ключевые фразы, под которые раскручивается конкретная страница.
  • Связывание страниц сайта гиперссылками.
  • Добавление сайта в поисковые системы. Когда вся работа проделана, пора дать знать о существовании ресурса. Для этого его регистрируют в поисковиках и каталогах.

Все эти этапы помогают сделать внутреннюю оптимизацию.

Теперь поговорим о самых популярных ошибках юзабилити и внутренней оптимизации

Если вы хотите привлечь и удержать юзеров на своем ресурсе, то очень важно избегать ошибок, которыми, к сожалению, грешит большая часть владельцев сайтов. Рассмотри их подробнее:

Надоедливая реклама. Естественно она нужна, так как приносит доход, но все должно быть в меру. Всплывающие навязчивые баннеры, обещающие огромные скидки и тому подобное, могут иметь обратный эффект. Вместо того чтобы побуждать потенциального клиента к определенному действию, реклама может отталкивать и провоцировать человека покинуть страницу. Поэтому очень тщательно выбирайте рекламные объявления для размещения и не перебарщивайте с ними. Отсутствие адаптации ресурса под мобильную версию. Основная часть пользователей будет выходить на сайт не со стационарного компьютера, а с мобильного телефона или планшета

Поэтому крайне важно, чтобы сайт был оптимизирован под смартфоны. Перенасыщенность анимации

Анимация – штука очень эффектная и интересная, но если с ней переусердствовать, то она может привести к замедлению работы ресурса, что наверняка будет отталкивать вечно спешащих, нетерпеливых пользователей. Большие объемы информации. Часто встречающаяся ошибка Владельцы сайтов полагают, что чем больше информации и картинок они дадут пользователю сразу, тем больше шансов, что юзер хоть на что-то обратит внимание и задержится на странице. На самом же деле и это, к слову сказать, подкреплено статистическими данными, посетителя лучше ограничить в выборе и предложить ему четкую, понятную информацию Недостающие данные он найдет самостоятельно на вашем сайте. Использование скрытых ссылок. Такую стратегию рекламы использовать не советуют ни в коем случае. Даже если посетитель попадется и кликнет на ссылку, то вероятность того, что после этой подставы он вернется на ваш сайт, стремительно клонится к нулю. Не хотите терять пользователей – играйте в открытую, не расставляя «капканы». Низкая скорость загрузки сайта. Эта ошибка может стать фатальной, ведь вряд ли какой-то пользователь будет тратить свое время и ждать пока страница загрузится. К тому же этот фактор оказывает влияние на ранжирование ресурса в поисковой выдаче.

Это, пожалуй, основные ошибки внутренней оптимизации и юзабилити, оказывающие негативное влияние на раскрутку ресурса.

Как видите, SEO – очень важный инструмент позволяющий раскрутить новую страницу. Без использования SEO «выжить» в сети практически не реально. Но главное, грамотно пользоваться этим инструментом.

Внутренняя оптимизация сайта с помощью чистки кода

Когда веб. мастера создают свои ресурсы они любят добавлять на него множество визуальных редакторов. При этом появляются ненужные параметры под большинство тегов. При этом вес каждой страницы и ресурса в целом становится тяжелее, и чтобы от стал легче желательно почистить код. Также после чистки роботам становится легче читать вашу страницу. Данная чистка на оптимизацию практически никакого влияния не оказывает. Добавлю, если ресурс долго загружается, посетитель уйдет с него.

Текст. Тексты можно назвать главнейшими факторами при раскрутке вашего блога. Качество текста должно находиться на высоте. Для увеличения скорости ранжирования лучше, если вы напишите текст, применив копирайт, но допускается и написание текстов при помощи рерайта.

Добавлю: ПС предпочитают ресурсы с приличным числом статей, которые желательно добавлять не реже двух раз в неделю (новичкам каждый день).

Частота ключевиков и объем текста. Суть ее в том, что ваши статьи должны быть написаны простым понятным языком, нести интересную и информативную информацию. Не забывайте про ключевые фразы. Они должны находиться не только в том падеже, в котором вы их продвигаете, но и в других падежах и формах.

Распределение ключевиков должно быть равномерным в статье, с плотностью 1,5 — 2,0%. Не забудьте, приоритет в написании статей отдавайте читателям, только потом поисковикам.

Этап первый: разработка проекта

Василий узнал в первую очередь, сколько стоит разработка персонального сайта, какие бывают и для чего используются платформы и их виды. На тот момент он не знал, что такое пошаговая оптимизация сайта под поисковые системы и продвижение, проект создавался «для души» и оптимизировать его базово, он не собирался. После долгого изучения основ, решено было создать блог вручную, так как цены на верстку сайта у специалистов кусались, отдавать около 100$ за свое увлечение В. не хотел. Изначально он прочитал несколько учебных статей по работе с его CMS платформой. На это у него ушло 2 недели, так как он еще и работал, а на это хобби оставалось мало времени.

Следующим этапом в разработке был выбор удачного тарифного плана на хостинге и доменного имени. Тогда и решено было назвать проект Альфа. Регистрация и загрузка движка на хостинг прошла успешно, началось копание в шаблоне и плагинах. Не вдаваясь в подробности разработки, можно сказать, что на это у него ушел месяц, учитывая, что сайтом он занимался в свободное время и в выходные. В целом в неделю уделялось около 10-12 часов времени проекту. Это время было потрачено на прочтение информации о создании ресурса, определение необходимых дополнений и общую настройку всей платформы.

На этом этапе нужно было бы знать, что такое оптимизация сайта под поисковые запросы в Google и Yandex, так как при разработке необходимо учитывать несколько нюансов, чтобы улучшить степень этой самой системы оптимизации сайта, конверсии и посещаемости. Таким образом Василию было необходимо найти инструкцию или курс по продвижению сайта в интернете максимально самостоятельно и быстро, или найти где ему подберут стратегию. На раннем этапе развития интернет проекта, который работает на CMS движке, нужно было добавить СЕО плагин. Даже без добавления информации в него, он бы делал многие вещи, а именно:

  • прописывал title;
  • добавлял мета-теги из статьи;
  • запрещал внесение в индекс ненужных разделов и внешних ссылок;
  • прописывал бы тег description и keywords;
  • делал бы редиректинг, в случае перенесения материала;
  • создал минимально настроенный файл Robots.txt.

По своему незнанию он решил этого не делать. Возможно, он подумал про то, что раскрутка ему ни к чему, он не ставил перед собой цель стать популярным блоггером.

После этих действий, сайт был создан, он открылся и даже прошел несколько тестов, Василий попросил нескольких друзей зайти на ресурс и пройтись по немногочисленным страницам, так он решил проверить его работоспособность.

Проект Альфа вышел в интернет и стал доступным для пользования. Он еще был очень сырой, некоторые отдельные страницы долго грузились из-за того, что на них было множество красивостей, которые на медленном интернет соединении грузились по 20-30 секунд. На сервере не было файла Robots.txt, структура URL была отвратительной и неудобной. SEO оптимизацию сайта нужно было делать с нуля. Но на то оно и обучение тонкому искусству продвижения сайта.


С этим читают