Columnist Бобби Лионс объясняет свой метод оценки влияния обновления алгоритма Google и использования этих идей для выявления возможностей для улучшения.

Хороший мой друг и поистине лучший эксперт по SEO, с которым мне довелось работать, Грегори Громов однажды упомянул об обновлениях и тестах алгоритмов Google как «бури Google». Приведенная фраза сделала весь смысл в мире , Per Gregory, прочная программа для SEO, дает балласт, чтобы выдержать шторм, но если шторм ударит и перевернет вас … ну, пришло время править корабль.

Обновление алгоритма Google на самом деле — редкая возможность. Хотя в некоторых случаях это может показаться скорее кошмаром, чем мечтой, понимание того, как извлечь выгоду из этого события, является ключом к успеху в SEO — и по мере созревания вашей программы вы с нетерпением ожидаете обновлений.

Ниже приведен процесс, который я использовал в течение многих лет для оценки обновлений Google на уровне сайта, чтобы получить новые возможности для улучшения и определить, что уже работает. Это анализ второго уровня после того, как я рассмотрел шаблоны, связанные с заголовком страницы, мета-описанием и тегами H1.

Первым шагом в анализе является установление временной шкалы обновления. Сайт поисковой системы обычно публикует информацию быстро, когда обновление подтверждено, поэтому довольно просто получить приблизительный диапазон дат. Когда у вас есть диапазон дат, начните с Google Search Console (GSC), выполняющего сравнения в диапазоне дат на верхних страницах и определяя дату воздействия.

После установления приблизительной даты начала воздействия возьмите за две недели до даты и две недели с даты вперед. Экспортируйте данные в Excel и добавьте столбец, вычисляющий изменение позиции между двумя неделями. Мне нравится сначала смотреть на позитивные изменения; поэтому после создания вычисленного столбца изменения фильтруйте значения, превышающие 0.

Примечание. Представленные данные представляют собой выборочные данные, скомпилированные для демонстрационных целей; данные не из живого домена.

По мере продолжения процесса мы будем извлекать данные из нескольких источников, а затем комбинировать источники данных, чтобы сформировать полный обзор всех критических точек данных SEO. Прежде чем перейти к следующему шагу, мы должны сами проанализировать данные GSC, чтобы увидеть, существует ли шаблон.

Для идентификации шаблонов требуются страницы с аналогичными показателями. Добавьте фильтр для диапазона изменений, который находится вне вашего обычного варианта. Например, если средняя позиция вашего веб-сайта для страниц с высокой стоимостью перемещается вверх или вниз между 0,1 и 0,3, что характерно для ранжирования страниц 1, добавьте фильтр в столбец изменений, который превышает нормальный вариант. В целях моей демонстрации мы рассмотрим диапазон от 0,5 до 0,99. Изменение половины позиции для одной позиции страницы является значительным в двухнедельный период времени.

Теперь, когда у нас есть набор данных для анализа, мы хотим получить образец страниц, имеющих похожие показатели. Страницы с аналогичным положением, средняя позиция и рейтинг кликов (CTR) делают хороший образец.

Только просмотр данных GSC в этой демонстрации не привел к результатам. Изменения позиции в положительном диапазоне в нашем наборе данных не имеют общих элементов данных в целом. Изменение CTR значимо, что говорит о том, что положительная флуктуация не была результатом изменения веса в алгоритме, связанного с CTR … так далее, чтобы перейти к следующему шагу.

Следующим шагом будет использование искателя по вашему выбору. Я предпочитаю Screaming Frog из-за скорости сбора данных. Скопируйте и вставьте в текстовый документ список ваших URL-адресов, которые находятся в диапазоне изменений, которые вы анализируете, затем выполните обход URL-адресов, используя опцию списка в Screaming Frog.

Для этого прохода мы ориентируемся на элементы данных из обхода по сравнению с элементами метаданных, такими как описание, название и т. д. Идея здесь состоит в том, чтобы просто найти сходство данных, которые выделяются. Мы ищем очевидных победителей. Редко вы найдете точную точку данных, которую вы ищете, чтобы коррелировать с изменением позиции во время этого шага. Как правило, это через весь процесс, где мы находим несколько точек данных, которые коррелируют.

В этом примере я нашел пару корреляций, связанных с размером страницы и временем отклика. Я знаю, что этот обход изолирован только от группы URL-адресов, которые улучшаются в диапазоне полупозиции, поэтому эти корреляции важны для установки в сторону. Теперь я нахожусь в точке, где хочу увидеть полную картину этих URL-адресов.

Для завершения изображения необходимо экспортировать данные метрики взаимодействия из вашего пакета аналитики. Google Analytics предоставляет это представление в отчете «Целевые страницы» в разделе «Содержимое сайта». Если вы используете Google Analytics, экспортируйте данные также из отчета «Скорость сайта ->». Для этих данных мы можем использовать только две недели с даты изменения.

Для получения полного представления данных требуется объединение источников данных. Проблема консолидации данных заключается в том, что Google не использует тот же формат для URL-адресов в Google Analytics и Google Search Console. К счастью, есть бесплатный инструмент для стандартизации URL-адресов. Просто возьмите копию и вставьте URL-адреса из GSC и Screaming Frog в этот инструмент, и он будет удалять URL-адреса на корневую страницу:

Скопируйте и вставьте разделенные URL-адреса в электронную таблицу Excel для GSC и Screaming Frog.

Если вы работаете с небольшими наборами данных и / или просто предпочитаете работать непосредственно в Excel, вы можете использовать следующую формулу с небольшими корректировками, чтобы удалить полный URL-адрес до страницы:

=ПРАВЫЙ (А3, LEN (А3) -Найти ( «/», А3, FIND ( «//», А3) + 2))

Сочетание данных требует связывания электронных таблиц и выполнения vlookups — или я предпочитаю использовать инструмент базы данных. С большими наборами данных вы можете использовать Access и быстро объединять данные. Используя URL-адреса в качестве столбца объединения, вы можете создать электронную таблицу со всеми основными элементами данных, необходимыми для поиска корреляций.


Помимо оценки данных, URL-адреса с похожими точками данных должны оцениваться на уровне страницы. Например, содержание на странице похоже на соотношение, и если отзывы клиентов или вопросы и ответы присутствуют, присутствуют ли они на похожих страницах в том же объеме?

Документируйте все показатели, которые коррелируют, чтобы мы могли подтвердить корреляции позже. В приведенных выше данных выборки существует важная корреляция, которую мы хотим исследовать.

Вывод, который мы можем сделать здесь, состоит в том, что страницы, которые получили значительное положительное влияние, имели две коррелирующие точки данных. Время загрузки страницы было ниже четырех секунд, а частота отказов была ниже 33 процентов.

Последний шаг в этом проекте анализа — отфильтровать данные для отрицательного изменения и оценить страницы со значительным снижением позиции и подтвердить теорию о том, что время загрузки страницы и частота отказов превышают значения из набора данных положительных изменений. Если данные демонстрируют отрицательные показатели на противоположном конце спектра, вы точно знаете, что вам нужно сделать, чтобы повысить отрицательные позиции и улучшить улучшенные страницы после обновления алгоритма.

Обновления качества — это золотая медаль для улучшения SEO. В следующий раз, когда проверенное обновление выйдет, запустите анализ и найдите скрытые драгоценные камни.