С нами просто и выгодно!

Звоните: +7 925 357-32-80

Google webmaster tools. Обновление функции «Ошибки сканирования»

«Ошибки сканирования» — одна из самых популярных функций в инструментах для вебмастеров от Google. Этот элемент системы теперь существенно переработан. Появилось разделение ошибок на группы и категории по типам. Обновления были направлены на то, чтобы вебмастер смог сосредоточиться на устранении ошибок и решении технических проблем.

Теперь доступны определение и отчет о многих новых типах ошибок. Чтобы помочь разобраться в новых данных, ошибки были разделены на две группы:«ошибки сайта» и «ошибки URL»

Ошибки сайта

Ошибки сайта — это ошибки, относящиеся не к отдельным URL (от англ. URL — Uniform Resource Locator — единообразный локатор (определитель местонахождения) ресурса, а по-русски — способ записи адреса ресурса в сети интернет), а ко всему сайту целиком. В эту группу ошибок входят

  • Работоспособность системы DNS (domain name system — от англ. система доменных имен). В данном случае сервис определяет работает система или нет, определяя ошибки DNS и отображая их на графике.
  • Ошибки подключения к веб-серверу.
  • Ошибки доступности файла robots.txt.

Раньше эти типы ошибок сервис Google относил к группе — ошибки URL, но по сути, это было не совсем верно, т.к. ошибки не относились к отдельным адресам, а полностью или частично препятствовали роботу Google индексировать сайт даже по самому запросу URL. При увеличении частоты возникновения подобных ошибок сервис для вебмастеров от Google будет уведомлять этих самых вебмастеров по электронной почте о том, что ситуация с возникновением подобных ошибок требуют повышенного внимания.

Кроме того, если на вашем сайте подобных проблем не имеется, дружественные зеленые галочки (см. рисунок) сигнализируют вам о том все в порядке. Никаких дополнительных уведомлений соответственно отправляться не будет.

Ошибки URL

Ошибки URL относятся к одной отдельно взятой странице сайта. Это значит что «пауку» Google, по какой-то причине не удалось корректно просканировать отдельную страницу. Однако перед этим робот успешно подключился к веб-серверу, считал robots.txt, но потом что-то пошло не так.

Группа ошибок URL разделена на множество различных категорий по признаку — тип ошибки. Например, если ваш сервер поддерживает Google News или мобильный формат данных (CHTML/XHTML), то при наличии подобных ошибок они также попадут в соответствующую категорию.

Меньше значит больше

Раньше на сервисе для вебмастеров от Google можно было получить информацию более чем о100 000 ошибках каждого типа. Человек с ходу не мог использовать всю эту информацию должным образом. Невозможно было понять, какие из ошибок важны больше (ваша домашняя страница недоступна) или меньше (кто-то сделал опечатку в ссылке на ваш сайт). Не было способа каким-либо образом посмотреть полностью 100 000 ошибок, не имелось встроенного поиска и возможности сортировки или системы меток. В новой версии данной функции акцент сделан на том, чтобы представить на главной странице наиболее важные и серьезные ошибки. Для каждой категории доступен список из 1000 (по мнению разработчиков Google) наиболее важных ошибок. Доступна сортировка и фильтрация списка, можно просмотреть детали каждой ошибки с возможностью сигнализировать системе об ее устранении.

Некоторые сайты имеют более 1000 ошибок каждого типа, поэтому можно также посмотреть общий список, который будет представлен в виде графика, содержащего данные, накопленные за прошедший период времени, равный 90 дням. Для тех, кто беспокоится о том, что 1000 ошибок с возможностью детализации плюс общая агрегированная сумма за 90 дней — это недостаточно, то команда Google может предоставить программный доступ к сервису (API), чтобы фиксировать появление каждой ошибки самостоятельно. Для этого нужно обратиться в службу поддержки при помощи формы обратной связи.

Важно отметить, что из перечня был удален список страниц, намеренно запрещенных от индексирования в файле robots.txt. Это было сделано для того, чтобы не отвлекать вебмастера лишней информацией. Однако, такая функция может оказаться полезной в случае наличия проблем и диагностики ошибок в самом robots.txt. Поэтому в сервисе для вебмастеров вскоре появится новая функция для отображения информации о страницах, запрещенных к индексированию в robots.txt. Функция будет называться «Доступ к индексированию» или Crawler access внутри раздела «Конфигурация сайта».

На текущий момент, эта функция уже реализована и доступна для работы (см. рисунок ниже)

Погружение в детали

Кликнув по отдельной ошибке URL из общего списка, можно увидеть панель с подробной информацией, включающей данные о том, когда в первый раз была попытка сканирования страницы, когда в первый и последний раз была замечена ошибка. Также приводится короткое описание ошибки

Из панели подробной информации можно самостоятельно убедиться в наличии или отсутствии ошибки, кликнув, по ссылке в самом верху. Можно также отметить ошибку как исправленную (подробнее об этом напишут позже в блоге разработчиков), посмотреть справочную информацию о данном типе ошибки, взглянуть на карту сайта, содержащую страницу с ошибкой. Также возможно определить другие страницы, ссылающиеся на данный URL или просмотреть адрес так, как ее видит робот Google.

Примите меры!

Одна вещь, которой гордятся разработчики новой версии функции «Сканирования ошибок», — это то, что теперь вебмастеру можно сосредоточиться на решении возникших трудностей. Разработчики проранжировали ошибки таким образом, что в верхних строчках списка будут располагаться те из них, которые реально исправить самостоятельно. Например, это касается исправления неработающих («битых») ссылок непосредственно на сайте, устранение ошибок программного обеспечения (веб-сервера), регулярного обновления неверных URL в файле карты сайта (sitemap.xml) или перенаправления пользователей на верные страницы силами 301 редиректа.

Определяется данный список приоритетных ошибок исходя из множества факторов, в том числе с учетом данных о том, кто из пользователей сервисом внес в sitemap URL, сколько обратных ссылок имеет данный URL (какие из них расположены на вашем сайте) и идет ли поисковый траффик по данному адресу.

После исправления ошибки вебмастер может проверить внесенные исправления, просмотрев страницу в режиме робота Google, а затем сообщить системе о том, что ошибка исправлена (если данный пользователь имеет такие права доступа). В дальнейшем, ошибки, помеченные как исправленные, не будут включаться в список до тех пор, пока вновь не возникнет проблем с данным адресом URL при повторном сканировании.

 

Ссылка на оригинал: googlewebmastercentral.blogspot.com
Автор: Курт Дреснер (Kurt Dresner), команда разработчиков сервиса Webmaster tools
Перевод с английского: команда Веб-симпл

Наше мнение

Google webmaster tools — это полезнейший инструмент, для человека профессионально занимающегося созданием, сопровождением и продвижением сайтов. Блок сканирования ошибок был раньше действительно не очень удобен и во многом уступал своему русскому конкуренту в лице инструмента Яндекс.Вебмастер.

Учитывая, что мощность серверов и дата-центров корпорации Google значительно превосходит таковую у Яндекса, то скорость сканирования страниц на ошибки — тоже значительно выше. С внедрением качественного функционала контроля и, самое главное, появлением возможности исправления ошибок, «корпорация добра» будет пользоваться еще большей популярностью среди российских вебмастеров. Многие предпочтут Google Webmaster tools системе от Яндекса, работающей, прямо скажем, не шибко быстро.