Перевод статьи Vanessa Fox “Google Confirms “Mayday” Update Impacts Long Tail Traffic”
Google внес от 350 до 550 изменений в алгоритмы органического поиска за 2009 год. Это одна из причин, по которым я рекомендую владельцам сайтов не слишком привязываться к специфическим факторам ранжирования. Если вы привяжете развитие сайта к какому-либо одному сигналу алгоритма — вы в полной власти постоянных перемен Google. Эти частые перемены — одна из причин того, что Google сам «глушит» результаты апдейта своего алгоритма. Сфокусируйтесь на том, чего хочет достичь Google по мере того как он меняется (по возможности наиболее релевантных, полезных результатов для тех, кто ищет), и вы сможете избежать слишком больших перепадов поискового трафика.
Тем не менее, иногда алгоритм Google меняется так значительно, что даже те, кто особо не фокусируется на алгоритмах, замечают это. Похоже, что обсуждаемый вебмастерами под названием “Mayday” апдейт, как раз относится к этой категории. На конференции Google I/O, в секции с участием гуглера Мэтта Каттса в ответ на вопрос об этом апдейте он ответил, что «это изменение алгоритма Google, которое сделано для выведения сайтов высокого качества в топ по низкочастотным запросам. Оно прошло тщательное тестирование и не будет отменено».
Я спросила Google о подробностях, и мне рассказали, что это изменение ранжирования, а не краулинга или индексирования, которое, по всей вероятности, затронет сайты, получающие меньше трафика, но их страницы полностью проиндексированы; теперь некоторые из этих страниц больше не будут ранжироваться так высоко, как ранее. На основании комментария Мэтта, можно предположить, что изменения коснутся трафика «длинного хвоста», который чаще всего приходит от запросов, по которым люди ищут, в целом, реже, но в сумме он может составить крупную долю трафика.
Кажется, что эти изменения, в первую очередь, затронут очень большие сайты со страницами «товаров», на которые мало ссылок, до нескольких кликов с главной страницы и на которых нет значительного уникального и ценного контента. На вскидку, наиболее часто такая структура встречается у сайтов e-commerce. Страницы товаров непосредственно не привлекают внешних ссылок на них, а значительная часть контента может импортироваться из базы данных производителя. Конечно, любые изменения, которые приводят к выигрышу по трафику на одних сайтах, ведут к противоположному на других. Принимая во внимание комментарий Мэтта на Google I/O, страницы, которые теперь будут ранжироваться хорошо по запросам «длинного хвоста» находятся на сайтах «более высокого качества» (или, возможно, являются страницами «более высокого качества).
Я думаю, возможно, были несколько откорректированы алгоритмы ранжирования. Ранее, страницы, которые имели невысокие показатели качества, могли все равно хорошо ранжироваться, если у них были высокие показатели релевантности. Теперь, скорее всего, эти показатели релевантности имеют меньший вес при отсутствии у страницы достаточных показателей качества.
Что делать владельцам сайтов? Привлечь ссылки и создать привлекательный контент для такого типа страниц может быть трудно. Пока мое лучшее предложение для тех, кого это сильно затронуло — изолировать часть запросов, по которым сайт получает теперь меньше трафика и посмотреть на выдачу, чтобы определить страницы, которые ранжируются хорошо. Какие характеристики делают их более ценными? К примеру, я понятия не имею, как amazon.com смог выжить в этом апдейте, но вижу, что они проделали хорошую работу, сделав индивидуальные страницы товара с дублированным контентом из базы производителя, уникальными и привлекательными, добавив на них такой контент как обзоры пользователей. Они сделали искусную внутреннюю перелинковку (и анкоры) при помощи списков и рекомендованных товаров. Внешние ссылки они привлекают при помощи таких функций, как виджет «мое любимое».
Из дискуссии на сессии Google I/O понятно, что это долгосрочное изменение и, если оно повлияло на ваш сайт, вам стоит творчески подумать над тем, какому-либо можно сделать этот тип страниц более ценным (что также повысит вовлеченность пользователей и конверсии).
Апдейт от 30.05.10: Мэтт Каттс из Google опубликовал видео на YouTube об изменениях. В нем он говорит «это алгоритмическое изменение, которое изменяет нашу оценку того, какие сайты лучше всего соответствуют низкочастотным запросам». Владельцам сайтов, которые затронули изменения, он рекомендует оценить качество сайта и, если сайт действительно наиболее релевантен по запросам, которых наиболее коснулись изменения, подумать над тем, какой «прекрасный контент» на него можно добавить, определить, признан ли сайт «авторитетным» и удостовериться, что страница делает нечто более, чем просто совпадает с ключевыми словами запроса, релевантна и полезна по этому запросу.
Он также отметил, что изменения:
- не имеют ничего общего с апдейтом “Caffeine” (изменениями инфраструктуры, которые еще не полностью запущены).
- полностью алгоритмические (и не являются, к примеру, ручными фильтрами на отдельные сайты).
- затронули запросы «длинного хвоста» больше, чем другие запросы
- были полностью протестированы и постоянны.
Подписаться на:
Комментарии к сообщению (Atom)
Комментариев нет:
Отправить комментарий