What is the virtual webmaster unconference?

Common verification errors

In addition to any method-specific verification errors, the following verification errors are possible in most verification methods:


  • Incorrect tag/snippet/file errors Be sure to use the exact tag, code snippet, or file provided to you when beginning verification.
  • The connection to your server timed out. We were unable to verify your file because we received a server timeout. This could be because your server is down or is busy and responding slowly. Make sure that your server is responding and try again.
  • We encountered an error looking up your site’s domain name. We tried to access your verification file, but were unable to access your domain due to a DNS error. This could be because your server is down, or there is an issue with the DNS routing to your domain. Make sure that your domain is resolving correctly and try again.
  • The download request was redirected too many times. Check the URL for potential issues, such as an infinite loop.
  • Your server returned an invalid response. This can happen if your site is requires password authentication, or if we cannot access it for other reasons.
  • We were unable to connect to your server. Make sure that your server is not down, and that your domain is resolving correctly, and try again.
  • An internal error occurred. If this problem persists, check the Webmaster Central Help Forum for updates.
  • Timeout Either your site or the domain server stopped responding to our requests (depending on the verification method used). Confirm that your site is responding, and then try again.
  • Could not find your domain We tried to resolve the site URL that you gave us, but it is unknown to the DNS service. Check that you are providing the correct URL for your property.

«Проблемы» Оригинальных текстов Яндекса

Исходя из написанного выше, можно найти медленно индексируемый сайт с нулевым ТИЦ, публикующий уникальные материалы, брать с него текстовый контент и — если у вас сайт с ТИЦ>0 — подтверждать на них своё авторство. В результате настоящий источник контента не будет им являться с точки зрения данной ПС и сможет получить какие-нибудь поисковые санкции.

Поэтому трудно понять, почему в Яндексе введено ограничение по ТИЦ. Отсюда много всяких слухов и страхов у владельцев молодых сайтов. Особенно обидно, если для молодого сайта покупается уникальный контент за деньги. 

Кроме того, в справке по этому адресу сказано, что Оригинальные тексты Яндекса пока ещё тестируются:

Даже возникает вопрос — «а каков ТИЦ менее 10?»..

В общем, всё очень неоднозначно. К тому же, в справке по Оригинальным текстам ничего не сказано про полезный контент (который, собственно, и нужен пользователю — почитайте о пользе и уникальности контента). Поэтому точно не ясно: можно ли, например, добавить в форму статью, составленную из кусочков неуникального текста вперемешку с уникальным?..

Но это я уже слишком углубился в разбор темы. Если же у вас простой контентный сайт или личный блог и есть хотя бы 10 ТИЦ — обязательно пользуйтесь Оригинальными текстами от Яндекс.

Ну а если ТИЦ нет, то ждите, когда он появится и надейтесь, что никто не сворует ваши тексты и не прочитает эту мою статью

внешних ссылок на сайт

  • 7 критериев отбора сайтов-доноров для ссылок.
  • Видео: как размещать ссылки в бесплатных каталогах статей?

..и избегайте ссылочных взрывов в процессе наращивания ссылочной массы.

Случайные публикации:

Немного юмора от Яндекса — кириллическая капчаС недавнего времени в Яндексе появилась «исключительно» кириллическая капч…

WP-cache.com — обзор плагина кэширования для WordPressИногда вдруг начинает хотеться чего-нибудь новенького

Не так давно для о…

Зачем нужны UTM-метки и как их добавить в ссылку?В последние 1.5-2 года всё больше и больше людей осознают, что без качеств…

Так ли важен валидный код на сайте по мнению Google?…OR» для Firefox. Валидный код и поисковое продвижение Ну и наконец о

Уникальные тексты статей на сайте — важно ли?…кой-то уникальности статей, если в русском языке всего 33 буквы (на данный момент) -. Оставьте комментарий:

Оставьте комментарий:

Search Console API announcements

Thursday, August 06, 2020

Over the past year, we have been working to upgrade the infrastructure of the Search Console API, and we are happy to let you know that we’re almost there. You might have already noticed some minor changes, but in general, our goal was to make the migration as invisible as possible. This change will help Google to improve the performance of the API as demand grows.

Note that if you’re not querying the API yourself you don’t need to take action. If you are querying the API for your own data or if you maintain a tool which uses that data (e.g. a WordPress plugin), read on. Below is a summary of the changes:

  1. Changes on Google Cloud Platform dashboard: you’ll see is a drop in the old API usage report and an increase in the new one.
  2. API key restriction changes: if you have previously set API key restrictions, you might need to change them.
  3. Discovery document changes: if you’re querying the API using a third-party API library or querying the Webmasters Discovery Document directly, you will need to update it by the end of the year.

Please note that other than these changes, the API is backward compatible and there are currently no changes in scope or functionality.

Google Cloud Platform (GCP) changes

In the Google Cloud Console dashboards, you will notice a traffic drop for the legacy API and an increase in calls to the new one. This is the same API, just under the new name.

Image: Search Console API changes in Google Cloud Console

You can monitor your API usage on the new Google Search Console API page.

API key restriction changes

As mentioned in the introduction, these instructions are important only if you query the data yourself or provide a tool that does that for your users.

To check if you have an API restriction active on your API key, follow in the credentials page and make sure the Search Console API is not restricted. If you have added an API restriction for your API keys you will need to take action by August 31.

In order to allow your API calls to be migrated automatically to the new API infrastructure, you need to make sure the Google Search Console API is not restricted.

  • If your API restrictions are set to “Don’t restrict key” you’re all set.
  • If your API restrictions are set to “Restrict key”, the Search Console API should be checked as shown in the image below.
Image: Google Search Console API restrictions setting

Discovery document changes

If you’re querying the Search Console API using an external API library, or querying the Webmasters API discovery document directly you will need to take action as we’ll drop the support in the Webmasters discovery document. Our current plan is to support it until December 31, 2020 — but we’ll provide more details and guidance in the coming months.

If you have any questions, feel free to ask in the Webmasters community or the Google Webmasters Twitter handle.

Posted by Nati Yosephian, Search Console Software Engineer

Новые способы выполнения привычных задач

В новой версии Search Console по-другому выполняются некоторые прежние операции. Ниже перечислены основные изменения.

  • Добавление ресурсов. Ознакомьтесь с новыми инструкциями. Теперь на каждой странице в панели навигации доступно раскрывающееся меню, где перечислены все ваши сайты. Вы можете и после этого перестанете получать по нему уведомления.
  • Управление пользователями и разрешениями. В вашем распоряжении новая страница управления доступом в Search Console.
  • Изменение данных о ресурсах. Теперь эта задача решается с помощью раскрывающегося меню выбора ресурсов в разделе навигации.
  • Анализ файлов robots.txt и директив noindex. С помощью инструмента проверки URL вы можете получать сведения о блокировках, которые действуют в отношении опубликованных или включенных в индекс Google страниц.
  • Проверка доступности страницы для робота Googlebot. Чтобы выяснить, может ли наш робот обработать определенную веб-страницу, воспользуйтесь инструментом проверки URL .
  • Загрузка файлов Sitemap. Теперь вы можете отправлять их в Google с помощью обновленного отчета по файлам Sitemap. Загружаемые файлы будут сразу же проверяться.
  • Устранение неполадок с расширенными результатами. Для выявления проблем предназначены отчеты о статусе расширенных результатов, доступные на странице статусов.
  • Поиск ошибок сканирования на уровне сайта. Теперь эта задача решается с помощью отчета об индексировании.
  • Поиск ошибок сканирования на уровне страниц. Воспользуйтесь новым инструментом проверки URL.
  • Запрос на сканирование страницы. Теперь в интерфейсе инструмента проверки URL можно не только протестировать страницу онлайн, но и сразу запросить ее сканирование.
  • Проверка страницы, доступной онлайн. Воспользуйтесь новым инструментом проверки URL. Теперь можно увидеть скриншоты страницы, показывающие, как ее видит робот Googlebot.
  • Просмотр сведений о кликах, показах и CTR (анализ поисковых запросов). Эти данные представлены в отчете об эффективности.
  • Информацию о пользователях и их разрешениях, а также сведения о подтверждении по-прежнему можно посмотреть, нажав на значок настроек на панели навигации.

Карта сайта

С помощью специальных файлов Sitemap можно структурировать информацию сайта для быстрой и корректной индексации роботами Google. Для добавления карты используйте пункт меню «Сканирование» и откройте дополнительный раздел «Файлы Sitemap».


Далее выполните ряд простых действий:

  • активируйте опцию, позволяющую добавлять и проверять файл Sitemap;
  • внесите в строку наименование файла sitemap.xml;
  • нажмите кнопку «Отправить».

Также важным элементом является «Маркер», доступный в разделе «Вид в поиске». Данный инструмент применяется с целью разметки информации на сайте мышкой, улучшения визуализации ресурса в выдаче, прописывания тегов без корректировки HTML-кода страниц.

Google Search Console стал удобным и несложным в использовании инструментом для комплексного продвижения ресурса. Он позволяет оперативно получить информацию о том, актуально ли подобранное СЯ, по каким ключевым фразам на сайт приходит наибольший трафик, насколько высоко сайт находится в топе выдачи, что представляют собой ошибки в показе данных и т. д.

Не забывайте, что данный сервис является фирменной разработкой Google, способной обеспечивать правильную индексацию страниц в короткие сроки. Инструмент является полностью бесплатным и доступным в любом браузере.

Поисковое продвижение с помощью Google Analytics

Бесплатный сервис Google Analytics (GA) является аналогом «Яндекс.Метрики» и предоставляет подробную статистику о посетителях ресурса, объемах трафика, конверсиях, эффективности отдачи каждого поискового запроса и т. д. (доступно более 80 различных отчетов). Эта информация очень важна для правильной корректировки семантического ядра и дальнейшего успешного продвижения web-сайта в рейтинге Google.

Чтобы через Google Search Console добавить сайт в Google Analytics, необходимо для начала выбрать одноименный раздел в меню сервиса.

Затем необходимо указать название сайта, который подлежит аналитическому отслеживанию с целью получения оперативной информации для последующей СЕО-оптимизации. Если у вас уже настроен GA, остается только связать обе службы между собой командой «Сохранить». В противном случае воспользуйтесь кнопкой «Создание учетной записи Google Analytics».

Если возникла необходимость передать управление сайтом другому человеку, например опытному специалисту в SEO-продвижении, необходимо:

  • открыть раздел меню «Пользователи и владельцы ресурсов»;
  • активировать кнопку «Добавить нового пользователя»;
  • внести адрес его gmail-почты;
  • указать права доступа (полные, ограниченные);
  • нажать кнопку «Добавить».

Как подтвердить право собственности на сайт

  1. Добавьте новый ресурс или выберите тот, право собственности на который пока не подтверждено.
  2. Используйте один из перечисленных ниже . Некоторые из них могут быть недоступны для вашего типа ресурса.

Добавить сайт и подтвердить право собственности на него могут несколько человек, причем как разными, так и одинаковыми способами

В случае выбора одинаковых методов постарайтесь не заменить по неосторожности токены подтверждения других пользователей

Использование нескольких способов подтверждения

На странице настроек подтверждения своего ресурса вы можете задействовать дополнительные способы на случай, если реализованные ранее перестанут работать (представим, что вы подтвердили право собственности с помощью кода отслеживания Google Аналитики, а потом другой пользователь изменил шаблон на вашем сайте и убрал нужный тег).

Чтобы добавить ещё один способ, перейдите на страницу настроек ресурса и нажмите «Подтверждение права собственности».

Раздел Поисковые запросы

Раздел содержит информацию о поисковых фразах, по которым сайт показывается на первых 50 позициях результатов поиска Яндекса. Более подробно о данном разделе мы уже рассказывали в блоге.

Если коротко, то в этом разделе вы можете посмотреть:

История запросов

Показывается полная статистика всех поисковых запросов за выбранный период. Доступна вся статистика начиная с 1 октября 2015 года.

Важно: Статистика Яндекс.Вебмастера, Wordstat и Яндекс.Метрики может различаться. Это связано с некоторыми техническими аспектами, например, сервисы могут по-разному учитывать время перехода, Яндекс.Вебмастер учитывает только часть данных из поисковой выдачи

Подробнее о различиях рекомендую прочитать в Яндекс Справке.

Работая в этом отчете, вы можете разделить запросы по группам и времени, можете выбрать тип устройства. Статистика по типу позволяет разделить переходы с мобильных устройств и с десктопа.

Раздел помогает отследить динамику запросов, рост позиций, CTR сниппета в поисковой выдаче.

Проанализировать количество кликов с позиций и CTR сниппета сайта:


Отслеживая эту информацию, мы можем корректировать сниппеты сайта в поисковой выдаче. Как косвенно влиять на сниппет сайта в выдаче Яндекс, мы рассказывали в этой статье.

Вкладка Тренды отражает динамику трафика вашего сайта в сравнении с конкурентами.

На графике отображается динамика относительного количества переходов на ваш сайт (зеленый график) и сайтов конкурентов (желтый график). Данные отображаются в усредненном варианте, что позволяет увидеть общую картину по динамике переходов из поисковой выдачи.

График помогает отследить, как влияют изменения на сайте на переходы из результатов поиска. К примеру, если вы заметили общее снижение трафика у вас и у похожих сайтов, скорее всего, причина тому сезонность.

Если только ваш график пошел вниз, а похожие сайты продолжают расти, что-то пошло не так и нужно искать причину.

Последние запросы

Запросы формируются автоматически на базе ТОП-50 результатов выдачи Яндекс с показом больше одного,  т.е. в данном разделе можно увидеть, по каким ключевым запросам и на какой средней позиции ваш сайт был в выдаче, сколько раз пользователи кликнули и перешли на сайт. Данные запросы можно использовать для расширения семантического ядра сайта.

Также есть возможность загрузить собственные запросы и по ним отслеживать статистику показов и кликов.

Рекомендованные запросы

Яндекс может подсказывать, по каким еще запросам вас могут искать пользователи, что приводит дополнительный трафик. Кроме запросов, раздел отображает целевую страницу по данному ключевому слову.

Рекомендованные запросы можно использовать при ведении рекламной кампании в качестве условия таргетирования, использовать для расширения СЯ сайта и в качестве идей для нового контента на сайте.

Возникновение и развитие профессии

Впервые данный термин возник в 1992 году в «Руководстве по стилю гипертекста в онлайне», разработанном Тимом Бернерсом-Ли. Его предложили указывать в почтовом адресе, доступном для связи при появлении ошибок в работе сайта. Постепенно слово вошло в лексикон и стало использоваться для наименования вида деятельности по разработке и обслуживанию сайтов.

Первые разработчики как раз и являлись веб-мастерами, так как отвечали за работу сайта целиком. Но появлялись все более сложные и востребованные ресурсы, поэтому потребовалось разделение обязанностей и, соответственно, развитие более узких специальностей. Когда разработка сайтов стала доступна почти всем, возникло множество личных проектов, стал возможен обратный процесс.

С увеличением популярности оказания услуг на аутсорсе и разработки интернет-проектов с целью личного заработка интерес к веб-мастерингу закономерно вырос. Работодатели рассматривают привлечение специалистов широкого профиля как способ сэкономить, а желающие развить дополнительные навыки ищут возможность создать и монетизировать собственные проекты и уйти во фриланс.


Сначала веб-мастеры являлись самоучками, но в скором времени стали пользоваться услугами онлайн-школ, посещать тренинги, курсы для освоения нужных навыков.

Сейчас профессия «веб-мастер» стала настолько популярна, что появился неофициальный профессиональный праздник, который отмечается 4 апреля. Эта дата очень символична: она совпадает с Международным днем интернета, также 404 является кодом ответа сервера несуществующей страницы.

Последовательность регистрации уникального текста в Яндекс

Для зарегистрированных в поисковике пользователей она сводится к двум основным этапам:

  1. однократной регистрации сайта, на котором планируется размещение оригинальных статей;
  2. добавление уникального контента в Яндекс Вебмастер.

На первом этапе необходимо авторизоваться в поисковике, зайти на главную страницу Вебмастера https://webmaster.yandex.ru/ и нажать «добавить сайт».

Весь процесс состоит из 3 шагов.

Когда все шаги будут пройдены успешно, интернет-ресурс появится в разделе «мои сайты».

В появившемся списке выбираем нужный. На открывшейся странице есть меню, расположенное в левой части окна. В нем необходимо выбрать «содержимое сайта».

Среди представленных возможностей обращаем внимание на «оригинальные тексты»

После перехода на соответствующую страницу можно загрузить уникальные тексты.

Вот и всё. Теперь Яндексу сообщено о появлении новой уникальной статьи, написанной для конкретного интернет-ресурса (первоисточника). Теперь можно публиковать уникальный текстовый контент на своем интернет-ресурсе.

General Guidelines

Help Google find your pages

  • Ensure that all pages on the site can be reached by a link from another findable page. The referring link should include either text or, for images, an alt attribute, that is relevant to the target page. Crawlable links are tags with an href attribute.
  • Provide a sitemap file with links that point to the important pages on your site. Also provide a page with a human-readable list of links to these pages (sometimes called a site index or site map page).
  • Limit the number of links on a page to a reasonable number (a few thousand at most).
  • Make sure that your web server correctly supports the HTTP header. This feature directs your web server to tell Google if your content has changed since we last crawled your site. Supporting this feature saves you bandwidth and overhead.
  • Use the robots.txt file on your web server to manage your crawling budget by preventing crawling of infinite spaces such as search result pages. Keep your robots.txt file up to date. Learn how to manage crawling with the robots.txt file. Test the coverage and syntax of your robots.txt file using the robots.txt testing tool.

Ways to help Google find your site:

  • Ask Google to crawl your pages.
  • Make sure that any sites that should know about your pages are aware your site is online.

Help Google understand your pages

  • Create a useful, information-rich site, and write pages that clearly and accurately describe your content.
  • Think about the words users would type to find your pages, and make sure that your site actually includes those words within it.
  • Ensure that your elements and attributes are descriptive, specific, and accurate.
  • Design your site to have a clear conceptual page hierarchy.
  • Follow our recommended best practices for images, video, and structured data.
  • When using a content management system (for example, Wix or WordPress), make sure that it creates pages and links that search engines can crawl.
  • To help Google fully understand your site’s contents, allow all site assets that would significantly affect page rendering to be crawled: for example, CSS and JavaScript files that affect the understanding of the pages. The Google indexing system renders a web page as the user would see it, including images, CSS, and JavaScript files. To see which page assets that Googlebot cannot crawl use the URL Inspection tool; to debug directives in your robots.txt file, use the robots.txt Tester tool.
  • Allow search bots to crawl your site without session IDs or URL parameters that track their path through the site. These techniques are useful for tracking individual user behavior, but the access pattern of bots is entirely different. Using these techniques may result in incomplete indexing of your site, as bots may not be able to eliminate URLs that look different but actually point to the same page.
  • Make your site’s important content visible by default. Google is able to crawl HTML content hidden inside navigational elements such as tabs or expanding sections, however we consider this content less accessible to users, and believe that you should make your most important information visible in the default page view.
  • Make a reasonable effort to ensure that advertisement links on your pages do not affect search engine rankings. For example, use robots.txt, , or to prevent advertisement links from being followed by a crawler.

Help visitors use your pages

  • Try to use text instead of images to display important names, content, or links. If you must use images for textual content, use the attribute to include a few words of descriptive text.
  • Ensure that all links go to live web pages. Use valid HTML.
  • Optimize your page loading times. Fast sites make users happy and improve the overall quality of the web (especially for those users with slow Internet connections). Google recommends that you use tools like PageSpeed Insights and Webpagetest.org to test the performance of your page.
  • Design your site for all device types and sizes, including desktops, tablets, and smartphones. Use the mobile friendly testing tool to test how well your pages work on mobile devices, and get feedback on what needs to be fixed.
  • Ensure that  your site appears correctly in different browsers.
  • If possible, secure your site’s connections with HTTPS. Encrypting interactions between the user and your website is a good practice for communication on the web. 
  • Ensure that your pages are useful for readers with visual impairments, for example, by testing usability with a screen-reader.

С этим читают