Ищем выпавшую из индекса страницу

 

«Почему мою страницу не видит Google?» – этот кричащий вопрос заставляет поломать голову, особенно когда в распоряжении считанные минуты. Давайте попробуем решить эту проблему скажем минут за десять…

А также Вы можете фактически применить такую методику ко многим проблемам, включая:

  • Обнаружение, почему страница не индексируется;
  • Обнаружение, почему страница не правильно располагается на сайте
  • Определение, была ли страница зафильтрована;
  • Определение дублирования контента страницы;

Итак, время пошло…

Убеждаемся, что сайт индексируется

Убеждаемся, что сайт индексируется

 

 

Для этой специфической работы, всегда используйте главный домен. Конечно, пока Вы только хотите видеть, что Google знает, что Вы существуете.

Проверяем индексацию страницы

Итак, Google знает, что Ваш сайт существует, пришло время проверять определенную рассматриваемую страницу. Вы можете ввести полный путь позади сайта

Проверяем индексацию страницы

 

 

Если страницу Google не находит, можно сузить проблему проверяя папку, содержащую эту страницу и проверьте индексацию на этом уровне. Если страница не индексируется вообще, Вы можете пропустить следующий шаг.

Подтверждение, что страница не занимает нужного места

Если страница индексируется, но Вы, может  не находите ее в SERPs, отметьте отрывок TITLE и проделайте поиск точного соответствия (в котировках) в Google. Если Вы все еще не можете найти, объедините site:example.com с TITLE страницы или его частью. Если страница индексирована, но не занимание правильного место, Вы можете вероятно пропустить следующие несколько шагов (скачок к 4:00 минуте).

Проверяем плохой Robots.txt

Пока, давайте предполагать, что Ваш сайт частично индексируется, но рассматриваемая страница отсутствует в индексе. Хотя плохие файлы Robots.txt, к счастью, становятся более редкими, нужно все еще быстренько взглянуть на него, чтобы удостовериться, что Вы случайно не блокируете ботов поиска. К счастью, файл почти всегда в:

http://www.example.com/robots.txt

То, что Вы ищете, является исходным текстом, который выглядит примерно так:

Проверяем плохой Robots.txt

 

 

 

Это могла или быть директива, блокирующая всех пользовательских агентов, или только один, как Googlebot. Аналогично, проверьте любые директивы, которые отвергают определенную папку или рассматриваемую страницу.

Проверяем МЕТА Noindex

Другая случайная проблема блокирования может произойти с нехорошей МЕТА директивой Noindex. В заголовке исходного текста HTML (между <head> и </head>), Вы ищете кое-что как это:

Проверяем МЕТА Noindex

 

 

Хотя кажется странно, что кто-то  пытается блокировать страницу, которую они все же хотят проиндексировать, плохие МЕТА тэгы и Rel=Canonical (см. ниже), может легко быть создан плохой установкой CMS.

Проверяем плохой Rel=Canonical

Этот более хитрый. Тэг Rel=Canonical – отдельно, часто хорошая вещь, помогающий  эффективно удалять двойное содержание. Сам тэг выглядит следующим образом:

Проверяем плохой Rel=Canonical

 

Проблема появляется когда Вы канонизировали слишком узко. Скажем, например, у каждой страницы на Вашем сайте был канонический тэг с URL «www.example.com» – Google возьмет это как команду, чтобы сократить Ваш весь индекс поиска вниз только к одной странице.

Проверяем плохой заголовок/переадресацию

В некоторых случаях, страница может возвращать плохой заголовок, код ошибки (404, например) или плохо структурированную переадресовывают (301/302), это предотвращает надлежащую индексацию. Вы будете нуждаться в проверочном устройстве заголовка. В онлайне можно воспользоваться  HTTP Web-Snifferом. Вы ищете «200 OK» код состояния. Если Вы получаете строку, переадресовывающую 404  или любой код ошибки (4xx или 5xx серий), у Вас может быть проблема. Если Вы получаете переадресовывание (301 или 302), Вы посылаете «недостающую» страницу в другую страницу. Оказывается, что не все еще потеряно!.

Проверяем дублирование поперечного сайта

Проблема состоит в том, что, как только Google обнаруживает эти дубликаты, он вероятно выберет один и проигнорирует остальные.

Если Вы подозреваете, что содержание от Вашей «недостающей» страницы было или взято из другого сайта или взято другим сайтом, захватите уникально звучащее предложение, и проверьте в Google  (чтобы сделать точное соответствие). Если другой сайт выскакивает, Ваша страница, возможно, была помечена как дубликат.

Проверяем внутреннее дублирование

Внутреннее дублирование обычно случается, когда Google проползает многократные изменения URL для этой же страницы, такие как параметры. Если Google достигает одной и той же страницы двумя путями URL и  видит две отдельные страницы, то из них вероятно проигнорирует.

Для внутреннего дублирования, сфокусируйтесь на  сайт: запрос с некоторыми уникальными ключевыми словами заголовка от страницы (снова, в котировках), или автономный или использующий intitle:. В управляемых URLом дубликатах естественно есть двойные заголовки и МЕТА данные, таким образом заголовок страницы – одно из самых легких мест, чтобы найти это. Если Вы видите, что или та же самая страница выскакивает многократно с различными URL, тогда возможно, что Ваша недостающая страница была отфильтрована из-за внутреннего дублирования.

Делаем обзор качества текста

Эти последние два немного более жестки и более субъективны, но я хочу дать несколько быстрых подсказок для того, где начать, если Вы подозреваете, что страницу оштрафовано. определить проблему можно с помощью Open Site Explorer . Упавший текст можно определить просто: вводим URL, кликнем на Anchor Text Distributions и выберем Phrases:

Делаем обзор качества текста

 

 

То, что Вы ищете, является примером неестественного повторения.. Если Google думает, что это – признак управляемого построения ссылки, Вы можете увидеть, что страничка оштрафована..

Обзор качества профиля ссылки

Качество профиля ссылки может быть очень субъективным, некоторые теневые ссылки можно определить очень быстро. Снова используем Open Site Explorer и проходим опции Followed + 301External Pages OnlyAll Pages on The Root Domain

Обзор качества профиля ссылки

 

 

 

Вы можете экспортировать ссылки в Excel, если Вы хотите для более глубокого анализа, но пока ограничимся выборочной проверка. Нажмите по нескольким страницам и поищите  проблемы, такие как:

  • Подозрительный упавший текст (несоответствующий, спам, и т.д.)
  • Сайты с  несоответствующими темами
  • Ссылки внедрены в очевидно заплаченный или обмененный блок
  • Ссылки, которые являются частью нижнего колонтитула мультиссылки

Время …

  • Дмитрий

    Хорошая стаття рекомендую

Звёзд: 1Звёзд: 2Звёзд: 3Звёзд: 4Звёзд: 5 (Пока оценок нет)
Загрузка...

Send this to friend