Креативная студия Атаханов и Co - Креативный дизайн вашей рекламы
 

Раскрутка и продвижение сайтов

 

На пути к вершине


Слово топ (в переводе с английского «вершина») прочно вошло в словарь оптимизатора. Первые десять результатов поисковой выдачи, называемые топом, – цель каждого оптимизатора. Топ – это новые посетители для сайта, это новые клиенты и большие доходы.

Конкуренция, конкуренция, конкуренция…

Чтобы сайт попал в топ, нужно приложить немало усилий к его поисковому продвижению. Но чтобы эти усилия не пропали даром, надо четко понимать, как работает Яндекс, как можно, а как нельзя продвигать сайт. К сожалению, поисковое продвижение обросло таким немыслимым количеством мифов, что отличить правду от выдумки, читая многочисленные топики на SEO-форумах и блогах многим порой очень не просто.

И на это есть свои причины. Казалось бы, основная причина – это жесткая конкуренция оптимизаторов друг с другом. Многие оптимизаторы, натыкаясь на какую-то ценную информацию или приходя к понимаю важных принципов продвижения, стремятся использовать их в одиночку, чтобы обеспечить себе конкурентное преимущество. Но, стоит, алгоритму Яндекса немного измениться, как все это преимущество быстро тает.

Самое интересное, что жесткая конкуренция наблюдается во многих сферах бизнеса, но это не мешает руководителям и предпринимателям организовывать отраслевые сообщества и делиться своими находками. Поэтому мы не считаем версию о конкуренции главной причиной нежелания обмениваться информацией.

Прощай, Дикий-дикий запад!

Истина, нам кажется, немного глубже. Еще совсем недавно Яндекс имел массу своеобразных недочетов. Например, ТИц можно было «поднимать до небес» при помощи XSS-уязвимостей чужих сайтов, а попасть в топ, можно было при помощи поискового спама или линк-бомбинга. Кто-то нашел очередную «тему» по накрутке позиций или ТИц и эксплуатирует ее по-полной. Но вот уже «тема спалена» публично, и Яндекс прикрыл брешь. Всем спасибо, все свободны… Пока не найдется новая лазейка.

Вот такой вот был Дикий запад, а оптимизатор был ковбоем, всеми правдами и неправдами отстаивающим свою территорию. Кто же захочет делиться информацией в таких условиях?

Но времена меняются. Яндекс стал гораздо более интеллектуальным и динамичным. Прикрыты все возможные способы накруток, а любые появляющиеся недочеты очень быстро устраняются. Поисковый спам, линк-бомбинг – все это уже в прошлом и давно уже не работает. Манипуляция поисковой выдачей пресекается все жестче и жестче. Наступает время «белого» SEO.

По-сути «палить» больше нечего. Все рабочие подходы известны и выложены публично в сеть на форумах и блогах. Даже Яндекс принимает участие в информировании владельцев сайтов о том, как лучше их разрабатывать, и чего стоит избегать.

SEO – мифы и реальность

Но по неведомой нам причине мифотворчество, так распространенное в те времена, продолжает здравствовать и сегодня. Чуть ли не каждую неделю на Серче обсуждаются совершенно новые мифические фильтры и еще более мифические причины их наложения, придумываются сверхъестественные объяснения вылета сайтов из топов или попадания их под АГС. Это и создает информационный шум, который мешает искать полезную информацию.


Как Яндекс ранжирует сайты


Задача Яндекса – дать наилучший ответ на поисковый запрос пользователя. Для этого Яндексу, прежде всего, необходимо проиндексировать миллиарды документов, найденных по всему интернету, чтобы не упустить ничего важного. А затем в тот момент, когда пользователь задает поисковый запрос быстро вывести релевантные, то есть соответствующие запросу страницы.

Однако в день к Яндексу обращаются миллионы пользователей с разными запросами. Трудно представить, что сотрудники Яндекса могут всегда проконтролировать, что по каждому запросу выдаются наилучшие результаты. Так как же Яндекс решает задачу поиска наиболее подходящих страниц?

Поисковая система – мощный искусственный интеллект

Решение заключается в машинном обучении поисковой системы и превращении Яндекса в своеобразный искусственный интеллект. Поясним это на примере из статьи «Матрикснет – новое качество поиска Яндекса».

Представьте, что перед нами стоит задача научить робота отбирать самые вкусные яблоки. Для этого мы берем ящик яблок и по очереди пробуем все яблоки на вкус, раскладывая вкусные яблоки в одну сторону, а невкусные – в другую. Теперь наступает очередь робота. Конечно, робот не может попробовать яблоки на вкус, но он может оценить их размер, цвет, твердость, содержание сахара и кислоты. Робот оценивает свойства яблок и определяет зависимость между этими свойствами и вкусом.

После такого обучения робот сможет самостоятельно отбирать самые вкусные яблоки. Однако в этот процесс может вкрасться ошибка, например, робот может посчитать вкусным червивое яблоко, ведь он ничего не знает о червях. Поэтому чем больше свойств предмета анализируется в процессе машинного обучения, тем ниже будет вероятность ошибки.

Точно так же, обучается и Яндекс находить лучшие страницы под любые поисковые запросы. Специально обученные сотрудники Яндекса (асессоры) учат поисковую систему «отделять зерна от плевел». Асессоры задают поисковой системе ряд запросов, а затем детально оценивают, качество поисковой выдачи. Яндекс же определяет закономерности между свойствами запросов и релевантных страниц.

Обучение Яндекса происходит постоянно. Получая все больше и больше данных для анализа, искусственный интеллект Яндекса развивается и учится отвечать на вопросы пользователей все более правильно.

Матрикснет на страже топа

Получается, чуть ли не идеальная картина. Есть искусственный интеллект, который нужно просто обучать, и он будет становиться все совершеннее и совершеннее. Но так ли все прекрасно на самом деле? Почти… Но у машинного обучения есть один большой недостаток, называемый переобучением. Суть переобучения в том, что алгоритм отлично работает на примерах, участвующих в обучении, но плохо в реальной ситуации. Получается, что в процессе обучения система обнаруживает какие-то случайные несуществующие закономерности в обучающей выборке. И в результате Яндекс мог подмешивать в поисковую выдачу нерелевантные результаты.

1 апреля 2009 года Яндекс объявил о запуске нового алгоритма машинного обучения – Матрикснета. Особенность данного алгоритма – устойчивость к переобучению и гибкий учет сотен и тысяч факторов ранжирования. Кроме того, Матрикснет позволяет применять особые правила ранжирования по узким запросам.

Есть ли шансы у оптимизаторов?

Что это значит для оптимизаторов? Фактически, сегодня Яндекс получил возможность подстраивать алгоритмы ранжирования отдельно в каждом регионе и в каждой тематической нише. А значит, особенности продвижения сайтов в разных ситуациях могут значительно отличаться. Матрикснет также дает Яндексу возможность быстрее и гибче подстраиваться под изменяющиеся реалии интернета. В результате Яндекс может значительно легче отсеивать поисковый спам, некачественные и «переоптимизированные» сайты.

Стало ли сложнее продвигать сайты? И да, и нет. Продвигать сайты стало дороже – это точно, и продвижение сайтов стало бесспорно занимать больше времени. Но есть и хорошая новость, продвижение сайтов стало более стабильным. Хороший сайт, попавший в топ, пускает там корни. Если оптимизатор делает все основательно и правильно, то выбить его сайт из топа ой как не просто. А вот как заставить Яндекс «влюбиться» в ваш сайт и подарить ему место в топе мы далее и обсудим…

Какие сайты любит Яндекс

Большое заблуждение многих начинающих оптимизаторов заключается в том, что они считают, что качество продвигаемого сайта не влияет на его попадание в топ. Поэтому они начинают продвижение сайта с активного наращивания ссылочной массы и клепания десятков SEO-текстов, переполненных ключевыми фразами. Если тематика сайта конкурентная, то все заканчивается вполне предсказуемо – сайт сначала попадает в первую двадцатку, а затем стремительно из нее вылетает. Последующие попытки вырваться в топ заканчиваются безрезультатно.

Сталкивались с подобной ситуацией? А если нет, то хотели бы ее избежать? Ну что же, давайте разберемся в причинах проблемы.

Плохие сайты не попадают в топ?

Качество сайта определяет, сможет ли сайт находиться в топе. В основе алгоритма работы Яндекса лежит машинное обучение. Машинное обучение предполагает постоянный контроль и оценку результатов поиска специально обученными асессорами. Именно на основе этих оценок Яндекс учится находить релевантные сайты.

Конечно же, асессоры постоянно следят за конкурентными топами, а вернее даже за двадцатками первых результатов в наиболее конкурентных тематиках. И если в конкурентный топ прорывается непонятного качества сайт, то он довольно быстро его покидает благодаря такому экспертному мониторингу или жалобам пользователей. У плохого сайта есть шанс находиться в топе очень долго, если речь идет о низкочастотных, а иногда и среднечастотных ключевых фразах, однако там, где конкуренция велика, асессорский контроль наиболее активен.

Руководитель отдела веб-поиска Яндекса, Александр Садовский, на конференции Optimization-2009, отвечая на вопросы аудитории, сказал: «Пользователи дальше второй-третьей страницы не ходят никогда. Все замеры по улучшению качества делаются в районе первой двадцатки-тридцатки. Соответственно, если ваш сайт сместился с десятого на двадцатое место, с точки зрения поисковой системы он стал хуже, либо появились другие сайты, которые лучше. Сместился с тридцатого на тысяча восьмое – ничего не значит. Колебания за пределами первой двадцатки-тридцатки можете не рассматривать как изменение отношения к сайту».

Суть этой цитаты в том, что пока сайт «болтается» где-то далеко за пределами топа, асессорам нет до него дела. Но как только сайт приближается к топу, то здесь они уже могут внести свои коррективы.

Большой брат знает все о твоем сайте

Многие оптимизаторы опрометчиво считают, что чуть ли не единственное условие для попадания в топ – это количество и качество входящих ссылок. Однако часто должного внимания не уделяется поведенческим факторам ранжирования. Знаете ли вы, что Яндекс уже давно учитывает поведение пользователей на разных сайтах? Благодаря Яндекс.Бару, который установлен на огромном количестве компьютеров (а также вшит в русскую версию ICQ), Яндекс получает информацию о поведении пользователей на каждом сайте. Речь идет о рейтинге посещаемости, наподобие Alexa Rank, количестве и списке просматриваемых страниц, длительности просмотра разных страниц, источниках трафика и так далее, и так далее…

А теперь представьте, какие огромные возможности открываются перед Яндексом в процессе анализа этого материала. Теперь Яндекс точно знает, какие страницы и разделы вашего сайта являются посещаемыми и интересными, а какие нет, и, вообще, насколько интересен пользователям ваш сайт. Ведь если пользователи подолгу проводят на нем время – это говорит о многом, обратное – тоже, но со знаком минус.

Яндекс знает, как часто пользователи кликают по тем или иным ссылкам на страницах, а, следовательно, с большей точностью отличает платные ссылки от естественных.

То есть, все прежние представления о том, что Яндекс оценивает в основном только внутренние и ссылочные факторы сегодня не актуальны. Яндекс учитывает и поведенческий фактор пользователей. Именно поэтому сегодня дорвеи и псевдосайты держатся в поисковой выдаче очень недолго, АГС косит ряды сателлитов, а некачественные сайты плохо лезут в топ, но зато хорошо из него вылетают.

Нужно четко понимать, что Яндекс имеет представление, какой из сайтов является более интересным для пользователей, а какой нет. И сегодня продвинуть неинтересный никому сайт в конкурентный топ – дело бесперспективное.

Однако заранее придется разочаровать тех, кто считает, что можно «накрутить» своему сайту поведенческий авторитет. Возможностей для определения накруток у Яндекса гораздо больше, чем шансов у накрутчика элементарно понять, какой эффект оказали на сайт те или иные манипуляции.

Качество сайта – основа основ

Продвижение площадки должно начинаться с изучения сайтов конкурентов в топе. Ваш сайт не должен в чем-либо уступать конкурентам. Здесь важно все: дизайн, понятная структура сайта, полнота представленной на нем информации и даже грамотность текстов. Сайт не должен злоупотреблять рекламой. Чтобы «влюбить» Яндекс в ваш сайт, нужно, чтобы в сайт влюблялся потенциальный клиент.

Дайте протестировать несколько сайтов из топа, а также продвигаемый сайт группе пользователей. Пусть пользователи ответят на несколько важных вопросов. Насколько каждый сайт внушает доверие? Какие из сайтов содержат наиболее полезную информацию по продвигаемым запросам? Какими из указанных сайтов легче и приятнее пользоваться? На основе их ответов внесите нужные изменения в дизайн, структуру и контент сайта.

Запомните важнейшее правило продвижения: в конкурентный топ попадают только хорошие сайты!

Пример из практики

В конце 2009 года в компанию X обратился клиент для продвижения сайта на околоюридическую тематику по ряду средне и высококонкурентных запросов. Ранее предпринималось несколько попыток по его продвижению. Итогом этих попыток было лишь кратковременное попадание сайта по одному из запросов в топ и по нескольким запросам в двадцатку.

Проведенный аудит сайта, кроме прочего, показал, что среднее количество просматриваемых пользователями страниц было на уровне 1,2 страниц на пользователя, трафик был довольно низким и плохо конвертировался. Структура сайта оставляла желать лучшего, дизайн и тексты не внушали доверия. Был сделан вывод, что продвигать данный сайт без внутренней оптимизации структуры и текстов, а также смены дизайна не целесообразно.

Для сайта был подготовлен новый дизайн, проведена реорганизация структуры сайта. На сайт были добавлены полезные мини-сервисы (например, калькулятор тарифов), специальный поиск по базе и дополнительные подсказки на аяксе, а также ряд уточняющих статей по теме. Тексты и структура сайта были подготовлены таким образом, что задержать пользователя на сайте на как можно более долгое время и увеличить конверсию.

В середине января началось постепенное ссылочное продвижение сайта (количество просматриваемых страниц увеличилось до очень хорошего в данной сфере показателя 3,9 страниц на посетителя). И уже через 3 месяца в топе было примерно 85% продвигаемых запросов, при этом значительно возрос поток звонков.

Примечательно, что данный эффект был достигнут во многом благодаря грамотной внутренней оптимизации сайта, речь о которой пойдет в следующей главе.

Внутренняя оптимизация сайта

Продвижение сайта без его внутренней оптимизации можно сравнить с собеседованием при устройстве на работу, когда соискатель приходит с опозданием в грязной мятой одежде с красными уставшими глазами и потрепанным видом. Да, может быть, он – отличный работник, классный специалист, но интервьюер, наверняка, предпочтет на должность кого-то другого. Точно так же и Яндекс отдает предпочтение сайтам и страницам с грамотной внутренней оптимизацией.

Подбираем поисковые запросы

Внутренняя оптимизация начинается с подбора запросов, по которым нужно продвигать тот или иной сайт. Лучше всего для этого пользоваться Яндекс-Директом, который позволяет не только оценить популярность запросов, но и их конкурентность. Чем выше цена размещения рекламы по конкретному запросу и чем больше количество показов, тем сложнее будет его продвигать.

Под каждый запрос или пару запросов делается отдельная страница. Текст страницы должен быть максимально релевантным поисковым запросам. Это значит, что пользователь, пришедший по какому-либо запросу, должен найти ответ на свой вопрос. Поэтому поместите на страницу всю необходимую информацию, изображения, ссылки на уточняющие материалы. Сделайте все, чтобы пользователю понравилось то, что он увидит. А иначе? Помните про асессоров?

И еще не рекомендуем продвигать одну и ту же страницу по более чем двум поисковым запросам одновременно.

Готовим контент страниц

Поисковые запросы должны обязательно присутствовать в теге TITLE страницы, тексте страницы и, желательно, в заголовках разделов. Если поместить отрывки текста с ключевыми словами в отдельные мини-блоки, наподобие цитат или важной информации к прочтению, то такой текст вероятнее всего попадет в снипет. Это очень важно, ведь от того, какой будет снипет в поисковой выдаче, очень сильно зависит, перейдет ли пользователь на сайт. Длина текста в мини- блоке не должна превышать 150-200 символов.

Яндекс уже умеет отличать так называемые SEO-тексты, напичканные ключевыми фразами, от нормальных текстов для людей, и очень сильно занижает их в поисковой выдаче. Поэтому ориентироваться на количество вхождений ключевых фраз, скрупулезно высчитывая их количество на каждой странице, не стоит. Вот что сказал Александр Садовский по этому вопросу на РИФ+КИБ 2010: «Наша задача заключалась в том, чтобы научить машину отличать искусственные тексты, которые пользователю не нужны, от хороших, нормальных, естественных текстов… Если вы хотите в ТОП, если вы пишете тексты, которые не такие же как в ТОПе, а такие, как нужны людям, и попали под какие-то наши пессимизации – это наша ошибка. А если вы пытаетесь искать границы и подстраиваться под поисковую машину, извините, но с вами может быть все что угодно».

А вот как на практике выглядит SEO-текст:

Мы продаем большой ассортимент кондиционеров. Среди марок наших кондиционеров вы найдете General, Samsung, Mitsubishi, LG и многие другие. На кондиционеры дается гарантия от 1 до 3 лет. Купить кондиционеры можно за наличные или по перечислению. Покупка кондиционера в кредит теперь возможна всего за 10 минут. Посетите наш магазин кондиционеров «Холодок» на ул. Ленина 14, напротив кинотеатра «Октябрь».

Обратите внимание, на избыток ключевых фраз в таком коротком отрывке текста. Это будет балластом в процессе продвижения сайта.

Важно, чтобы тексты на сайте были грамотными, ясными, легко читаемыми и раскрывал тему, а также заставляли пользователя переходить на все новые и новые страницы, которые бы отвечали на смежные вопросы. Прежде всего, это повысит конвертацию трафика, то есть, превратит посетителя в клиента, и плюс к этому даст огромное преимущество сайту при подсчете поведенческих факторов.

Например, если страница продвигается по запросу «Правила ОСАГО», то на этой же странице в самых удобных для пользователя местах можно предложить ему перейти на такие страницы как: «Заказать ОСАГО онлайн», «Как правильно выбрать страховую компанию для ОСАГО», «Калькулятор ОСАГО», «Что делать в случае аварии» и так далее…

Редактируем код

Яндекс рекомендует скрывать от индексации все служебные участки кода при помощи тега noindex/noindex. Это делает сайт «легче» с точки зрения работы с ним поисковой системы. Следует убедиться, что навигация по сайту осуществляется при помощи обычных текстовых ссылок, а не изображений или скриптов.

Оформлять сайт нужно при помощи CSS-файлов, вынося туда все стили. Это позволит сократить размер страницы и упростить ее индексацию. Желательно проверить валидность кода при помощи онлайн-валидатора W3C. Корректность верстки и срабатывания ява-скриптов нужно протестировать во всех распространенных браузерах: Internet Explorer, Opera, Mozilla, Chrome.

Пример из практики.

В марте 2010 года в компанию «Миралаб» обратился клиент, сайт которого ранее продвигался по нескольким высоко и среднеконкурентным запросам (всего 7 штук). Довольно продолжительное время 4 из 7 запросов были в топе, 3 других запроса – во второй-третьей десятке поисковой выдачи. Во второй половине 2009 года, сайт оставался в топе только по одному поисковому запросу, а вскоре утратил позиции и по нему. Последующие месяцы работы не дали ощутимого результата.

Аудит сайта показал, что главная страница продвигалась одновременно по 4 запросам, одна из внутренних страниц сразу по 3 запросам. Кроме того, сайт, который был представлен несколькими десятками страниц, был переполнен SEO- текстами с теми самыми 7 ключевыми фразами. Их плотность в текстах зашкаливала даже на главной странице. И хотя сайт в целом был довольно аккуратным и внушал доверие, необходимо было провести реорагнизацию контента.

К продвигаемым ранее 7 ключевым фразам были добавлены еще 25 фраз, отобранные при помощи Яндекс-Директа. Было принято решение продвигать главную страницу по 2 наиболее важным поисковым запросам. Остальные 30 запросов продвигались при помощи внутренних страниц – по одному запросу на страницу. Были написаны новые качественные тексты, рассчитанные на завоевание доверия и раскрытие темы по каждой ключевой фразе. Также в текст было внедрено микро-меню на родственные статьи. HTML-код, скрипты и верстка были приведены в порядок.

Сайт показал отличную динамику движения в топ. Спустя 3 месяца с начала продвижения сайта 24 из 32 запросов уже в топе, еще 5 вот-вот должны были к ним присоединиться.

Дальнейшее чтение будет бесполезно, если не усвоить одну важную вещь. Даже если на сайт ведут миллионы качественных ссылок с лучших сайтов интернета, этот сайт никогда не займет место в конкурентном топе, если не представляет никакой ценности для пользователей. Асессоры этого не допустят. Поэтому качество и юзабилити сайта первично.

Резюме

  1. Подберите поисковые запросы, используя Яндекс Директ (при продвижении под Яндекс)
  2. Каждая страница должна оптимизироваться под 1-2 запроса, не больше (исключение – главная страница)
  3. Ключевые слова и фразы должны содержаться в теге Title страницы
  4. Желательно, чтобы ключевые слова и фразы также присутствовали в заголовках статей и разделов на странице
  5. Не лишним будет использовать ключевые слова и фразы в атрибутах alt и title изображений на странице
  6. Не стоит переусердствовать с количеством ключевых слов и фраз на странице, несколько упоминаний 2-5 вполне достаточно. В противном случае можно получить санкции за спам, которые проявляются в автоматическом понижении на 10-30 позиций в поисковой выдаче по нужным запросам.
  7. Содержимое на странице должно четко и ясно раскрывать тему поискового запроса, это очень важно.
  8. Желательно размещать ссылки на внутренние и, если уместно, внешние страницы с материалами, которые раскрывают тему ключевых слов и фраз.
  9. Картинки, схемы, фотографии, видеофайлы по теме страницы – отличное дополнение к оптимизации страницы.
  10. Не рекомендуется использовать выделение ключевых слов и фраз в тексте жирным шрифтом или подчеркиванием.
  11. Текст, не представляющий никакой ценности для продвижения, технические участки кода и текста нужно закрыть тегами |noindex|
  12. Для оформления страницы необходимо максимально использовать возможности CSS.
  13. Проверяйте валидность кода страниц. Хотя большинство ошибок не носит критического характера, все же часть из них может явиться причиной неверной интерпретации контента страницы Яндексом.

Хорошие ссылки – плохие ссылки

Продвинуть сайт в топ по сколь-нибудь конкурентным запросам без обратных ссылок невозможно. Наличие большого количества хороших ссылок является основным условием попадания сайта в топ.

Однако не все ссылки одинаково полезны. Более того, некоторые ссылки, а также принцип появления ссылок на разных сайтах могут оказать негативный эффект на продвижение сайта. Далее мы выясним, какие ссылки являются хорошими, а какие плохими. Мы научимся получать ссылки бесплатно на лучших сайтах в интернете, разберемся, как правильно покупать ссылки, и обсудим, какие риски связаны с бессистемной расстановкой платных ссылок.

Основной постулат о хороших ссылках

Как было сказано ранее, не все ссылки одинаково хороши. Часть ссылок подтягивает сайт к топу, некоторые же ссылки – препятствуют его вхождению в топ. Наша задача – научиться выбирать хорошие ссылки на хороших сайтах. В общем случае, можно считать, что ссылки с плохих сайтов (сайтов, находящихся на грани АГС и бана, дорвеев и тд) являются плохими ссылками. С другой стороны ссылки с хороших сайтов (трастовые популярные сайты) не всегда и не при всех условиях являются хорошими.

Спам не пройдет

Есть такое понятие – ссылочный спам, который подразумевает расстановку множества единообразных ссылок на разных сайтах. К ссылочному спаму относится массовая регистрация в форумах с установкой ссылки в профиле, массовое размещение одинаковых сообщений с ссылкой в форумах, гостевых книгах, комментариях к блогам. Даже размещение одинаковых статей на разных сайтах является поисковым спамом.

Ключевой особенностью поискового спама является одинаковый ссылочный или околоссылочный текст. Допустим, вы хотите разместить сразу на 100 сайтах ссылку «Изготавливаем металлические двери на заказ». В этом случае можно не сомневаться, ссылки будут отнесены к поисковому спаму. Точно так же дело обстоит и с неуникальными статьями. Если Яндекс находит множество одинаковых статей в интернете с одной и той же ссылкой, то никакого положительного эффекта от таких статей не будет.

Более того, Яндекс довольно легко находит рерайт, поэтому мнение, что можно написать одну статью, затем размножить ее до 1000 штук, и ссылки в таких статьях будут передавать вес, ошибочно. Синонимы, перестановки слов, написание текста из кусков других текстов вычисляется быстрее, чем можно себе представить.

Метод промышленного клонирования ссылок и текстов сегодня не просто не работает, а при определенных условиях может оказать негативный эффект на продвижение сайта, то есть, сайт вместо приближения к топу будет от него удаляться. Сегодня можно смело утверждать, что спам побежден, и эпоха его закончена. Лучше о нем забыть раз и навсегда.

Более того, в своем докладе «Поиск неестественных текстов» (http://rcdl.ru/doc/2009/306_308_Section09-3.pdf) Яндекс ясно дал понять, что умеет эффективно вычислять машинно-сгенерированные тексты (такие как http://referats.yandex.ru/), в том числе, машинные переводы невысокого уровня качества. Если Яндекс находит такие тексты на сайте, то он использует это обстоятельство как маркер поискового спама. Поэтому настоятельно не рекомендуем использовать данный спам-метод, как и любые другие спам-технологии.

Выявление плохих сайтов на основе статистики.

Теперь перейдем к вопросу распознанию сайтов, подверженных бану и АГС. Эти сайты не являются трастовыми, и в процессе продвижения нужно избегать простановки ссылок на таких сайтах. Это связано с двумя причинами:

1) Высока вероятность выпадения из индекса страниц на этих сайтах, либо бана сайта целиком. В этом случае ссылка окажется не в индексе.
2) Даже если ссылка в индексе, вклад ее в продвижение будет незначительным или при определенных условиях, вообще, отрицательным.

Наша задача – научиться определять сайты из группы риска, находящиеся на пороге бана или АГС. Весной этого года компания Gogetlinks, обладая базой в более, чем 10000 сайтов, начала проводить исследование факторов риска попадания под АГС и бан. Это делалось для улучшения модерации входящих сайтов. И сейчас они представили некоторые результаты исследования.

В сентябре они взяли результаты исследования 6174 сайтов. Часть этих сайтов проявляла активность в системе последние 3 месяца, другая часть была отклонена нашими модераторами. Отклоненные сайты интересны тем, что среди них как раз и содержится подавляющее большинство зафильтрованных сайтов, тогда как среди участвующих в системе сайтов таких единицы.

Проанализировав различные показатели, ребята получили следующую картину:

Практически 60% сайтов на момент попадания под фильтры или бан имели посещаемость не выше 20 человек в сутки. Тогда как из группы нормальных сайтов подобных сайтов было не более 14% (разница в 4+ раза). В то же время сайтов с посещаемостью от 200 человек в сутки в категории фильтрованных (на момент попадания под фильтры), всего лишь 8%, а среди нормальных сайтов 38% (разница в примерно 5 раз).

Очень похожая ситуация и с Alexa Rank, рейтингом, который можно использовать, если нет возможности проверить счетчики сайта.

Явная группа риска здесь сайты с Alexa Rank>10 000 000, которых в группе сайтов под фильтрами, 26%, тогда как в группе нормальных сайтов их всего лишь 7% или в 4 раза меньше. В то же время фильтрованных сайтов с Alexa Rank <1 000 000 на момент фильтрации всего лишь 6% в группе, в то время как в нормальной группе их 29% (в 5 раз больше).

Наличие сайта в DMOZ – очень хороший маркер нормального сайта. Доля сайтов в DMOZ, среди находящихся под фильтрами сайтов всего 2,6%, тогда как среди группы нормальных сайтов 16,3%, разница здесь в более чем 6 раз. Каталог Яндекса тоже хороший показатель 4,7% в зафильтрованной группе против 18,5 в нормальной группе, что составляет четырехкратную разницу.

Показатель практически абсолютной безопасности – наличие сайта в обоих каталогах, в выборке из более чем 6000 сайтов нашелся всего один сайт (лишь доля процента в своей группе) в обоих каталогах, который находился под фильтром. В то же время, в группе нормальных сайтов целых 8% сайтов добавлены в оба каталога.

Очень интересны результаты по поиску количества упоминаний домена в интернете. Речь идет не о количестве ссылок на сайт, а именно об упоминании домена в виде site.ru или www.site.ru. Примечательно, что целых 41% сайтов из группы зафильтрованных имеют до 150 упоминаний в сети. В то время как в группе нормальных сайтов таких сайтов всего лишь 3,4%, то есть относительная разница в 12 раз!!!

С другой стороны, если домен упоминается свыше 5000 раз в Сети, то в группе зафильтрованных сайтов он встречается всего в 2,8% случаев, а в группе нормальных сайтов 26%, то есть, разница в 9 с лишним раз.

Примечательно, что наличие автоматических ссылок на сайте не может являться маркером опасности наложения АГС или бана сайта. Другими словами, бан и АГС не используется как оружие против сайтов, продающих ссылки, для них у Яндекса есть другие фильтры, незаметные глазу.

Возраст домена мало чем может помочь. Как маркер выглядит только статистика по возрасту домена менее года. Там разница между фильтрованными и нормальными сайтами составляет 2 раза.

ТИц как маркер можно использовать только в том случае, если его величина выше 100. В этом случае разница между 14% в нормальной группе и 3,7% в зафильтрованной группе составляет 3,8 раза. С другой стороны ТИц ниже 100 довольно легко накручивается, скорее всего, именно с этим связана незначительная разница между показателями в обеих выборках.

Резюме по выявлению рисковых сайтов на основе статистики.

Итоговая таблица рисков и сильных сторон сайтов доноров приведена выше. В скобках указана, во сколько раз доля сайтов с указанным признаком встречалась чаще в группе фильтрованных или нормальных сайтов. Для удобства каждый признак имеет определенное количество звезд. Чем более ярко выражен тот или иной признак, тем больше звезд ему присвоено.

Важно! Решение о том, нужна ли нам ссылка с того или иного сайта, нужно принимать на основе анализа как можно большего числа факторов, а не какого-то одного фактора. Если сайт, например, имеет посещаемость более 200 человек в сутки, совершенно не означает, что он не будет отфильтрован. Аналогично и низкая посещаемость не означает, что сайт будет обязательно забанен. Однако, чем больше признаков риска или сильных сторон у того или иного сайта, тем более правильное решение может быть принято.

Выявление плохих сайтов на основе осмотра

Самое главное при выявлении плохих сайтов – это осмотр и оценка сайта с позиции пользователя. Нужно погулять по его страницам, посмотреть статьи, регулярность и частоту обновления конента, наличие пользовательских комментариев к контенту, в том числе и спам-комментариев. Если сайт живой, интересный, и пользователи общаются, оставляя свои комментарии, то это хороший сайт. Если же кроме спам-комментариев и редкого нерегулярного обновления контента вы не заметили ничего примечательного, то лучше воздержаться от сотрудничества с таким сайтом.

Вот несколько признаков плохого сайта:

  1. Плохой, некачественный дизайн
  2. Очень неудобная структура сайта, не рассчитанная на удобство пользователя
  3. Нерегулярное обновление сайта
  4. Коротенькие статьи на 500-1500 символов (характерно для псевдо-сайтов)
  5. Сканированные рисунки
  6. Многочисленные внешние ссылки в текстах статей, не связанные с их содержимым (например, неожиданная ссылка «Купить авто» в тексте о вязании)
  7. Закрытое комментирование в блоге
  8. Полное отсутствие комментариев к контенту, если комментирование открыто
  9. Большое количество спам-комментариев к контенту
  10. Чрезмерное количество баннеров, тизеров и другой рекламы, особенно, если она порно-характера
  11. Имя домена, противоречащее содержимому сайта (например домен buycar.xyz, а сайт о разведении собак)
  12. Наличие на сайте большого количества автоматических текстов и машинных переводов

И снова рекомендуем принимать решение о том, является ли данный сайт хорошим сайтом, на основе сочетания ряда факторов. Конечно, выше перечислены не все свойства, характерные для псевдосайтов, и у вас может быть свой собственный список маркеров.

Использовать его – действительно хорошая идея. Не стоит гнаться за количеством ссылок. Куда важнее сегодня их качество. И в первую очередь нужно отсечь плохие сайты-доноры.

Платные ссылки

А являются ли платные ссылки (SEO-ссылки) с разными околоссылочными текстами, а также ссылки в платных уникальных статьях спамом? Можно точно утверждать, что к поисковому спаму такие ссылки не относятся, однако и тут все очень не просто. В одном из недавних интервью Александр Садовский заявил: «Ссылки классифицируются по множеству признаков, и оценка является вероятностной. Чем выше вероятность, что ссылка является SEO, тем меньше будет ее вес. Но если нет полной уверенности, поисковый алгоритм учитывает ссылки, хотя придает им небольшое значение.»

Это еще раз подтвердило то, что уже давно было замечено оптимизаторами – платные ссылки работают хуже и хуже. А ведь еще 18 марта 2008 года оптимизаторы получили предупреждение в блоге Яндекса о том, что эффективность платных ссылок будет падать:

Некоторое время назад мы осторожно относились к таким ссылкам, которые устанавливались на качественных ресурсах, часто на коммерческой основе. В частности, мы полагали, что факт «проданности» сам по себе не делает ссылку «плохой».

Однако возможность получить ссылку кому угодно у кого угодно серьезно мешает Яндексу достоверно определять степень доверия к сайтам. Тот факт, что с главной страницы сайта издания, учрежденного Правительством Российской Федерации, стоит ссылка на сайт, торгующий дипломами, никак не говорит о том, что официальная газета желает поддержать репутацию сомнительного бизнеса.

В настоящий момент мы приняли меры для уменьшения влияния SEO-ссылок с наиболее популярных сайтов Рунета. Мы планируем и далее выявлять подобные ссылки, а также принимать все меры к тому, чтобы:

1) сайты, продающие ссылки, потеряли способность влиять таким способом на ранжирование;
2) покупка ссылок с сайтов не могла бы привести к повышению ранга сайта-покупателя.

Итак, Яндекс действительно занижает вес платных ссылок, причем занижает его тем сильнее, чем очевиднее, что ссылка платная. Кроме того, эффективность распознавания платных ссылок Яндексом увеличивается постоянно и увеличивается очень быстро. Это значит, что уже сегодня средний вес, передаваемый платными ссылками, ниже, чем был вчера, а завтра, скорее всего, будет еще ниже, чем сегодня.

О том, как Яндекс вычисляет SEO-ссылки, и что делать в сложившейся ситуации, мы и поговорим в следующей главе…

Как Яндекс распознает платные ссылки

В прошлой главе мы разделили доноры на хорошие и плохие сайты, выявили их признаки и обсудили важную мысль, что размещать ссылки в целях поискового продвижения стоит только на хороших сайтах. Но не все ссылки на хороших сайтах являются рабочими. Если алгоритмы Яндекса находят слишком много признаков того, что данная конкретная ссылка является SEO-ссылкой, то ее эффективность снижется вплоть до полного ее игнорирования.

Классификация и фильтрация ссылок Яндексом

Для классификации ссылок и сайтов и разделения их на категории «спам\не спам», «SEO-ссылка\естественная ссылка» и тп Яндекс использует алгоритмы, в которых идет анализ ряда факторов.

Вот простой пример. Есть две ссылки с двух разных сайтов. Алгоритмы анализируют 3 фактора этих ссылок. В результате анализа выясняется, что для первой ссылки 2 из 3 факторов свидетельствуют в пользу того, что данная ссылка является SEO-ссылкой. Для второй же ссылки лишь 1 из 3 факторов говорит в пользу SEO.

Фактор 1-ая ссылка 2-ая ссылка
Первый SEO-ссылка Естественная
Второй SEO-ссылка Естественная
Третий Естественная SEO-ссылка

В этом случае первая ссылка будет расценена как SEO-ссылка, а вторая, как естественная.

Факторы, о которых идет речь – это свойства ссылки, например, насколько анкор ссылки является коммерчески привлекательным, насколько уникальным является текстовое окружение ссылки, поставлена ли ссылка в момент ссылочного взрыва сайта и так далее.

В реальной ситуации Яндекс учитывает огромное количество факторов, считая одни факторы более важными, другие почти не играющими роли. И вместе эти факторы определяют, является ли та или иная ссылка хорошей ссылкой, и является ли тот или иной донор хорошим донором.

Важно! Решение о том, является ли данная ссылка SEO-ссылкой или спам-ссылкой принимается на основе сочетания множества разных факторов, а не на основе какого-либо одного-единственного фактора.

Проведем аналогию с почтовыми серверами. Сегодня они оснащены специальными спам-фильтрами, позволяющими удалять до 99,9% спама, чтобы он не попал в наши почтовые ящики. Какая связь между почтовыми спам-фильтрами и платными ссылками? Самая прямая. Алгоритмы распознавания спама в спам-фильтрах, а также алгоритмы Яндекса для распознавания платных ссылок имеют схожую модель.

На практике особой популярностью пользуются методы байесовской фильтрации спама. Для работы этих методов спам- фильтр нуждается в обучении. Программе передается вручную рассортированный список спама и обычных сообщений, чтобы она определила статистические особенности спама. Обучение программы никогда не прекращается, именно поэтому современные спам-фильтры могут эффективно противостоять спаму.

С платными SEO-ссылками дело обстоит подобным образом. Алгоритмы Яндекса постоянно обучают отличать платные ссылки от естественных, о чем неоднократно заявлял Александр Садовский. Чем больше признаков того, что ссылка поставлена в целях продвижения сайта, тем меньше передаваемый ею вес. По каким же признакам распознаются SEO- ссылки?

Мадридский доклад Яндекса. Сказка ложь, да в ней намек…

Вопрос Александру Садовскому, руководителю отдела веб-поиска Яндекса, на конференции «Поисковая оптимизация и продвижение сайтов в Интернет» в 2009 году: «Как определяются купленные ссылки и человеческие?», ответ Александра: «мы отличаем по принципу SEO-ссылка или не SEO. Человеческая это рекомендация или нет. У нас есть классификация. Рекомендую узнать, что такое «Мадридский доклад Яндекса».

Ну что ж, Мадридский доклад, говорите – изучаем… В докладе описывается довольно простой эксперимент для выявления платных ссылок. Классификатор платных ссылок, упомянутый в докладе, базируется на двух основных принципах:

А) Расчет Оптимизированности анкоров. Чем более коммерчески-привлекательным является анкор, тем больше вероятности, что ссылка платная. Следуя этой логике, безанкорные ссылки, а также коммерчески не привлекательные анкоры имеют меньше шансов быть заподозренными в продажности.

Б) Учет количества страниц разных тематик, на которые ссылается страница сайта-донора. То есть, если страница донора ссылается на минимальное количество сайтов с как можно более схожими тематиками, то это свидетельствует в пользу естественности ссылки.

Далее, любая ссылка на сайте-доноре, содержащем слишком много ссылок, похожих на платные, с большей вероятностью является платной. Повышается вероятность того, что ссылка платная и в том случае, когда ссылка ведет на сайт, имеющий множество беков с конкурентными анкорами.

Сам алгоритм выявления продажных ссылок приводить здесь не будем, Мадридский доклад Яндекса можно найти в интернете. Озвучим лишь вывод докладчиков о том, что эффективность и точность алгоритма на основе указанных принципов стремится к 100%.

Мы не склонны считать, что Яндекс раскрыл в своем докладе секрет определения платных ссылок, но он дал намек, и здесь есть, над чем задуматься. Если Яндекс с точностью свыше 90% определяет продажные ссылки лишь на основе их анкоров и соседства с другими нетематическими ссылками, то, анализируя ряд других критериев, Яндекс может сильно повысить точность выявления платных ссылок.

Что еще Яндекс знает о ссылках? 40 Ссылка находится в блоке с другими ссылками и окружена всего двумя-тремя словами? Мы же понимаем, что это продажная ссылка, понимает это и Яндекс. К слову, блоковые ссылки значительно проигрывают по эффективности работы контекстным ссылкам и в Гугле. Ссылка появляется и исчезает на одной и той же странице? Еще один признак SEO-ссылки. По ссылке никогда не переходят пользователи? Вряд ли это признак хорошей ссылки. Ссылка еще совсем свежая? Тогда доверять ей еще рано! И так далее, и так далее, и так далее… Яндекс анализирует массу факторов, как связанных с самой ссылкой, так и сайтом-донором, на котором она размещена. Конечно, мы не можем знать обо всех этих факторах, но это и не нужно, так как решающую роль играют лишь несколько из них, остальные служат лишь небольшим дополнением при определении платности ссылки. Ниже всего пара примеров размещения платных ссылок. Сложно ли нам понять, что эти ссылки платные. У кого-то есть сомнения в том, что Яндекс знает, что они платные? А если такими ссылками переполнен донор, стоит ли на нем размещаться? Пример 1 41 Пример 2. 42 Важная мысль! Решение о том, является ли данная конкретная ссылка SEO-ссылкой или спам-ссылкой принимается алгоритмами на основе анализа ряда факторов, но никогда не на основе какого-либо одного единственного фактора. Однако влияние разных факторов не одинаково – часть факторов играет огромную роль при фильтрации ссылок, другая часть имеет лишь незначительное влияние. Тренд – отложенное влияние ссылок Объемы SEO-рынка по нашим оценкам больше объемов рынка контекстной рекламы (источника заработка поисковых систем), а около 80% расходов, связанных с SEO ,- это расходы на автоматические ссылки. Получается парадоксальная ситуация – рынок SEO, который живет за счет Яндекса, приносит оптимизаторам денег больше, чем зарабатывает сам Яндекс. Поэтому борьба Яндекса с влиянием SEO-ссылок, в которой он одерживает победу за победой, имеет очевидную цель – максимально усложнить, удорожить и растянуть по времени эффект от SEO. Например в сентябре 2010 года Яндекс в своем блоге написал: «За последний месяц был произведен ряд изменений в поисковом алгоритме, чтобы существенно ограничить влияние SEO-ссылок на ранжирование. В первую очередь это относится к SEO-ссылкам с сайтов, содержащих некачественный контент, и к недавно появившимся SEO-ссылкам.» После этого время начала действия ссылок растянулось до 4-5 месяцев. А, учитывая, что средний возраст автоссылки по разным причинам (из-за необоснованного увеличения цен или снятия их вебмастерами, выпадения страниц из индекса и тд), всего лишь 3 месяца, то большинство автоссылок так и не начинают работать на оптимизатора. Вот таким простым решением Яндекс даже без распознавания, является ли та или иная ссылка SEO-ссылкой, очень серьезно осложнил работу оптимизаторов, отдав предпочтения старым постоянным ссылкам. 43 Возвращаясь к вопросу фильтрации SEO-ссылок, есть еще один важнейший признак платности ссылок – причастность того или иного сайта к ссылочным взрывам. Учет ссылочных взрывов полностью меняет принципы продвижения сайтов, которые отлично работали еще 2-3 года назад. Именно понимание такого явления как ссылочный взрыв даст ответ на вопрос, почему даже мастерски закамуфлированная SEO-ссылка во многих случаях не дает никакого эффекта. Но об этом давайте подробно и по порядку поговорим в следующей главе. 44 Теория большого взрыва SEO-прессинг Многие оптимизаторы, особенно начинающие, считают, что Яндекс реагирует на их действия по продвижению сайтов не всегда логично. Однако в этом и заключается одна из целей Яндекса – усложнить и удорожить продвижение сайтов, чтобы получить больше клиентов для Яндекс Директа. SEO-прессинг – это влияние, которое оказывают оптимизаторы на позиции сайтов в поисковых системах. Яндекс уже научился эффективно противостоять поисковому спаму, а также постепенно снижает влияние SEO-ссылок, из-за чего стоимость и сроки продвижения сайтов увеличились. Фактически, Яндекс все больше сводит на нет SEO-прессинг. Ссылочный взрыв Важнейшим фактором, влияющим на ранжирование сайта в поисковой выдаче, является причастность сайта-донора к ссылочным взрывам. Данный фактор был установлен опытным путем. Суть ссылочного взрыва в следующем. Представим сайт, на который практически одновременно проставлено огромное количество ссылок, например, при помощи массовой простановки автоматических ссылок или спаму по незащищенным от спама сайтам. Поисковая система фиксирует слишком резкий прирост ссылок, так называемый ссылочный взрыв. Все сайты, сославшиеся на данный сайт в момент его ссылочного взрыва, получают маркер недоверия. Но это пока совершенно не страшно. 45 Однако те сайты, которые продолжают и продолжают ссылаться на другие сайты в момент их ссылочных взрывов, вновь маркируются, а эффективность любых новых ссылок с них постепенно падает, так как к таким ссылкам нет доверия. Сайт получает штраф, а новые ссылки, попадающие в индекс в период ссылочного взрыва, не действуют. Причем не действуют ни сразу, ни через месяц, ни через полгода. То есть, резкий прирост внешних ссылок или ссылочный взрыв – это самый верный способ потратить свой бюджет впустую. Более того, есть еще одна интересная сторона этого вопроса. Сайты-доноры, которые расставляют ссылки на сайты- реципиенты в момент их ссылочного взрыва, получают определенную метку. Если донор постоянно уличается Яндексом 46 в соучастии в ссылочных взрывах разных реципиентов, то ссылки с него на любые сайты становятся гораздо менее авторитетными. А какие сайты-доноры могут постоянно участвовать в ссылочных взрывах? Ответ очевиден – это те сайты, размещение на которых происходит автоматизированным способом: сети сайтов (каталогов, статейных архивов и так далее), немодерируемые форумы и доски объявлений, сайты, на которых ссылки продаются при помощи автобирж. Поясним на примере. Есть оптимизатор Иван, который закупает (или спамит) за несколько дней тысячу ссылок для продвигаемого сайта. И сразу тысяча сайтов-доноров получают метку участников ссылочного взрыва. Другой оптимизатор Сергей проставляет 800 ссылок для одного своего сайта и 500 для другого. И опять масса сайтов получает метку. И таких оптимизаторов сотни и тысячи. В итоге, практически, каждая третья ссылка, размещенная автоматизировано, является меткой, уменьшающей авторитет внешних ссылок с сайтов-доноров. А теперь пример с сайтом-донором, который размещает только естественные ссылки. В этом случае вероятность случайно проставить ссылку в момент ссылочного взрыва для данного сайта стремится к нулю. И даже единичные совпадения не нанесут серьезного урона авторитетности исходящих ссылок. Аналогично дело обстоит и с теми сайтами-донорами, на которых хоть и размещаются ссылки за деньги, но размещение происходит вручную. Когда оптимизатор продвигает сайт при помощи ссылок, размещенных вручную, то он чисто технически не сможет за очень короткий срок расставить большое количество ссылок. Ручная работа не только дорого стоит, но и требует довольно ощутимых временных затрат. Поэтому сайты, продвигаемые такими методами, довольно редко получают штраф за ссылочный взрыв, разве только в случае комбинации с автоматическими или спамными 47 методами продвижения. Поэтому и площадки, размещающие ссылки вручную, являются обычно очень неплохими эффективными донорами. Как не попасть под ссылочный взрыв Итак, ссылочный взрыв имеет следующие негативные эффекты: Для продвигаемого сайта ссылочный взрыв обесценивает вклад обратных ссылок, бюджет расходуется впустую, сайт получает штраф, продвижение сайта сильно затрудняется. Для сайта, который продает ссылки, постоянное участие в ссылочных взрывах значительно, иногда до нуля, уменьшает авторитет исходящих ссылок. Грамотная стратегия продвижения для оптимизатора сегодня состоит в долгосрочности и постепенности. Нужно очень взвешенно и сбалансировано подходить к процессу и количеству расставляемых ссылок. Необходимо избегать сомнительных площадок, которые проставляют ссылки в большом количестве на любые сайты. Предпочтение стоит отдавать тем сайтам, которые не размещают ссылки за деньги, вообще, или размещение идет в очень ограниченном количестве. Если же говорить о количестве ссылок, которое можно расставлять, не попадая под ссылочный взрыв, то на практике для разных сайтов и при разных условиях продвижения «безопасный» прирост ссылок может отличаться на порядки. Если в одних случаях чуть более сотни новых ссылок в течение месяца провоцируют ссылочный взрыв, то в других даже прирост ссылочной массы на тысячу и более ссылок может пройти безболезненно и сыграть в плюс. 48 Судя по всему, одним из важнейших факторов распознавания ссылочного взрыва является предыдущая динамика прироста ссылок и имеющаяся ссылочная масса. Например, для новых сайтов со слабой ссылочной массой мы рекомендуем размещать не более 30-50 новых ссылок в месяц на первых порах, после чего можно поступательно увеличивать это число. А для сайтов с тысячами обратных ссылок продвижение можно начать со 150-250 ссылок в месяц. 49 Самые лучшие ссылки в интернете Большинство начинающих оптимизаторов считают, что чем больше ссылок ведет на сайт, тем лучше. Однако это утверждение относительно. Даже если не принимать во внимание поисковый спам, который Яндекс расценивает в любом случае отрицательно, вопрос о качестве и количестве ссылок очень неоднозначен. Качество ссылок относительно Вот что по этому поводу говорит Александр Садовский: «То, что отрицательно и положительно – это снимок в определённый момент времени. Мы смотрим факторы как положительные, так и отрицательные. Если сайты, которые имеют ссылки определённого типа, а асессоры начнут помечать как плохие, то в какой-то момент положительный фактор может стать отрицательным или наоборот, то есть это не вопрос какой-то идеологии, это вопрос настройки». А теперь давайте на примере. Помните пример из главы «Как Яндекс ранжирует сайты» с роботом, которого мы обучали находить вкусные яблоки? Робот анализировал свойства вкусных яблок, такие как: уровень сахара и кислоты, их размер, цвет и твердость. Робот определял, какие характеристики свойственны именно вкусным яблокам из обучающей выборки, а затем уже самостоятельно отбирал лучшие из предложенных яблок. Представьте, что яблоки – это сайты. Вкусные яблоки – это хорошие сайты, а невкусные яблоки –плохие сайты. Для максимального упрощения, представим, что уровень кислоты наших яблок соответствует доле продажных ссылок в 50 беках, уровень сахара – доле ссылок с авторитетных сайтов, не содержащих продажных ссылок, а размер, к примеру, – доле неспамных ссылок с форумов (кстати, спамные ссылки можно было бы сравнить с червивостью яблока). А теперь давайте представим гипотетическую ситуацию, когда доля форумных беков на самые лучшие сайты сильно возросла. К чему это приведет? Робот решит, что хорошие сайты – это те сайты, на которых доля форумных беков велика. Он вряд ли пустит в топ сайты с низким количеством ссылок с форумов. А если завтра все самые лучшие сайты по пластиковым окнам начнут продвигаться только за счет продажных ссылок, то поисковые алгоритмы будут хорошо ранжировать именно сайты с продажными ссылками. Вывод здесь напрашивается сам собой – нужно получать ссылки, аналогичные бекам топовых сайтов. Ссылки, характерные для хороших, но не характерные для плохих сайтов, можно считать самими лучшими и полезными беками. Ссылки топовых конкурентов В топе находятся одни из лучших сайтов, эти сайты активно обсуждаются в интернете, на них часто ссылаются, они постоянно создают информационные поводы, выпуская пресс-релизы. То есть, такие сайты обрастают массой естественных ссылок. Всё новые ссылки на них появляются в обсуждениях на форумах, в сервисах закладок, в блогах и новостях. Задачи оптимизаторов последнее время захватывает все больше функций из сферы маркетинга и PR. Чтобы получить естественные ссылки, которые являются лучшими из возможных ссылок, нужно, чтобы о сайте заговорили, чтобы его обсуждали, чтобы на него ссылались. У вас должна быть какая-то бомба, которой нет ни у кого, вы должны постоянно генерировать события и информационные поводы, интересные всем, тогда о вас заговорят. А когда о вас заговорят, 51 даже сверхконкурентный топ буквально начнет магнитить ваш сайт. Давайте рассмотрим несколько секретов получения хороших естественных ссылок. Конкурсы Давно проверенный метод набора ссылочной массы. Выбирается конкурсное задание, например, придумать слоган для компании, продающей кондиционеры (если вы продвигаете подобный сайт). В качестве приза подбирается модный современный девайс, который хотели бы заполучить многие, например, сегодня это IPad от Apple. И затем самая важная часть – распространение информации о конкурсе в самых популярных сообществах, чтобы привлечь больше участников. Сообщить о конкурсе нужно на самых посещаемых форумах и в рассылках. Чем больше людей удастся вовлечь, тем большую отдачу можно получить от вложенных усилий. Стандартное время проведения конкурса в интернете 2-4 недели. В случае удачного развития событий мы получаем десятки естественных ссылок и хороший рекламный и PR-эффект. Пресс-релизы Самый дешевый, но, в то же время, сложный способ получения ссылок. Если новость не интересна людям, то транслировать пресс-релиз не будет ни один сайт. Вы объявляете о скидках или об открытии нового филиала? Этим никого не удивишь! Новость должна быть запоминающейся, побуждающей пользователя тот час же проверить на вашем сайте, о чем идет речь, возможно, в ней должно быть немного сенсации. 52 В интернете немало хороших пособий по написанию пресс-релизов. Они помогут включить данный способ продвижения сайта в свой арсенал. Сервисы Вот где фантазия и творчество может принести наивысшие дивиденды и обеспечить максимально долгоиграющий эффект. Ваша компания продает пластиковые окна? А почему бы не сделать онлайн-конструктор окон, где пользователь может менять цвет, фактуру, профиль, количество камер и размеры заказываемых окон. Тут же клиент получает качественное трехмерное изображение своего окна с подробным обоснованием цены. Многие пользователи будут проводить массу времени за этой «игрушкой». Асессоры тоже по достоинству ее оценят. Прирост ссылочной массы гарантирован. А если ваша фирма занимается установкой и продажей кондиционеров? Как насчет онлайн-инструмента, позволяющего быстро и просто нарисовать планировку своей квартиры или дома и подобрать оптимальные точки для установки сплит- систем, из расчета их мощности и площади помещения? Еще раз повторимся, что удачная идея окупится так, как ни один другой способ получения ссылок. Давайте убедимся на примере… Кадровый портал «СуперДжоб» в свое время запустил полезный инструмент «Зарплатомер» для расчета заработной платы, на которую можно претендовать при трудоустройстве. Инструмент представляет собой список вопросов о сфере деятельности, опыте работы, образовании и так далее. Ответив на все вопросы, мы получаем средний уровень оплаты специалиста нашего уровня. Сказать, что инструмент оказался успешным – значит не сказать ничего. Тысячи сайтов по всему рунету ставили и продолжают ставить ссылки на сайт «Зарплатомера». 53 Распространение статей Это еще один отличный способ продвижения и PR. Работает он следующим образом. Необходимо подготовить ряд интересных материалов, например, исследования, опросы, аналитика или что-то подобное. А затем договориться о размещении этих материалов на сайтах аналогичной профессиональной тематики. Процедура эта довольно трудозатратна, ведь для каждого целевого сайта нужно подготовить очень качественный и неповторяющийся материал, чтобы в конце можно было бы приписать «Специально для АБВ.ru». В некоторых случаях администрация площадок готова будет дать добро на размещение только при оплате. В любом случае, условием размещения материала должно быть наличие ссылки на продвигаемый сайт в конце статьи. В качестве анкора достаточно указать название компании. На своем же сайте можно сделать раздел «Пресса о нас», куда помещаются ссылки на страницы с размещенными материалами. Это постоянная и сложная работа, которая включает написание хорошего, интересного материала и умение договориться о его размещении. Договариваться почти всегда лучше по телефону, электронная почта для этого не годится. 54 Пример из практики В феврале 2010 года в компанию РБС обратился клиент для продвижения сайта узкой консалтинговой направленности. Аудит сайта показал, что в целях маркетингового продвижения бренда компания клиента уже 3 года распространяла свои аналитические материалы на сайтах схожих тематик. В итоге на более чем 50 сайтах было размещено свыше 100 материалов. Никаких попыток поискового продвижения сайта клиент ранее не предпринимал. Когда были закончены мероприятия по внутренней оптимизации, и началось ссылочное продвижение, сайт показал удивительно мощную динамику продвижения в топ по ключевым фразам. В течение двух месяцев был взят топ по 55 большинству ключевых фраз, хотя ожидалось, что задача будет выполнена лишь к концу четвертого месяца. То есть, те самые маркетинговые статьи обеспечили огромную экономию бюджета сайта и значительно ускорили его попадание в топ.

А теперь давайте соберем все воедино и разработаем ссылочную стратегию, которая сможет гарантировать попадание нашего сайта в топ…

Ссылочная стратегия

Начиная ссылочное продвижение сайта, важно отдавать себе отчет в том, что попадание в топ Яндекса может занять от трех до шести месяцев, а продвижение по самым конкурентным запросам может длиться год и даже больше.

Яндекс тормозит продвижение сайтов?

На конференции РИФ+КИБ 2010 Александру Садовскому задали такой вопрос:
«Подскажите, сейчас в области высокочастотных запросов, таких как «лизинг», «кредит», «ипотека» складывается такая ситуация, что новым компаниям и новым сайтам практически в десятку выйти нет никаких шансов. Либо же вкладывать в продвижение огромные деньги… Не будет ли такого, что новые компании так и не смогут попасть в десятку Яндекса?»

Ответ был следующим:

«Ну, извините, выйти на рынок производства автомобилей, выйти на рынок производства компьютеров, выйти на рынок производства чего угодно – это огромные деньги. Создать новый банк, сравнимый по объемам со Сбербанком – это огромные вложения. Я не понимаю, почему в области поисковой выдачи должно быть как-то по-другому».

Затягивание процесса продвижения сайта – абсолютно осознанный шаг Яндекса. Фактически, сайт должен сначала себя хорошо зарекомендовать, показывая постоянную динамику и стабильность развития. Яндекс будет следить за поведением пользователей на сайте долгое время, прежде чем даст шанс потеснить топовых конкурентов.

Долгая дорога в топ

Итак, вы готовы к тому, что топ по конкурентным фразам одним скачком взять не удастся? Тогда самое время продумать ссылочную стратегию на месяцы вперед с учетом инертности продвижения. Все ссылки, которые мы будем получать, условно разделим на три категории:

- Постоянные естественные ссылки
- Постоянные платные ссылки
- Временные платные ссылки

Начинать продвижение следует с получения естественных ссылок, причем процесс по их постоянному приросту не должен останавливаться ни на день. Если сайт новый, то примерно через 2 месяца, а если старый, то уже через месяц можно начать аккуратное наращивание постоянных платных ссылок.

В тот момент, когда по тем или иным запросам сайт входит во вторую-третью десятку поисковой выдачи можно начинать закупку временных платных ссылок.

Постоянные естественные ссылки

Ранее мы уже говорили о способах получения естественных ссылок. Нужно понимать, что у конкурентов, начавших продвижение 2-3 года назад или еще раньше, имеется огромный перевес в плане естественных ссылок. Поэтому придется серьезно постараться, что как можно чаще ссылка на сайт появлялась на тех или иных сайтах. Нужно без конца писать интересные материалы и предлагать их информационным и отраслевым ресурсам. Всего лишь одна голая безанкорная ссылка с каждого материала – это маленькая часть большого успеха. Процесс не должен останавливаться даже при достижении заветного места в топе – конкуренты не дремлют!

Обязательно зарегистрируйтесь в самых авторитетных каталогах сайтов. Их совсем немного: Яндекс-Каталог www.yaca.yandex.ru/ Открытый каталог DMOZ www.dmoz.org Каталог Апорта www.aport.ru/catalog/ Каталог Mail.ru www.list.mail.ru Плюс по возможности нужно зарегистрироваться во всех качественных отраслевых каталогах на уважаемых сайтах. Настоятельно не рекомендуем прибегать к регистрации в немодерируемых каталогах и каталогах на сомнительных сайтах. Такие ссылки не только не помогут продвижению сайта, но и могут в некоторой степени ему навредить. Постоянные платные ссылки

Через месяц-другой приходит очередь получения постоянных платных ссылок. Реальность такова, что без них занять сегодня место в конкурентном топе почти невозможно. К данному типу ссылок относятся размещаемые навсегда, контекстные ссылки, статьи с ссылками, постовые в блогах и так далее.

Ключевой момент при простановке платных ссылок – это качество сайта. Нужно научиться определять по дизайну, текстам, количеству посетителей и подписчиков для чего создан сайт. Сайт создан для продажи ссылок, или осторожная продажа ссылок является лишь способом покрыть содержание сайта?

Сайты, созданные исключительно с целью продажи ссылок, не отличаются высоким качеством, они, как правило, делаются на конвейере с минимальными затратами. Это как раз те сайты, на которых размещаться не стоит ни при каких обстоятельствах. Ссылки с таких сайтов по ряду причин, которые мы обсуждали ранее, просто игнорируются Яндексом. Вылет страниц из индекса для них – обычное дело, а фильтр Яндекса АГС накладывается в течение нескольких месяцев на 80% таких сайтов.

Прирост данного типа ссылок лучше начинать с 20-40 штук в месяц, и уже через пару месяцев можно увеличить темпы до 50-150 штук в месяц. Временные платные ссылки

Сейчас свыше 99% продаж временных платных ссылок осуществляется через ссылочные биржи. Практически не осталось оптимизаторов, продвигающих сайты, без размещения автоматических ссылок. Многие, вообще, кроме автоматических ссылок ничем больше и не продвигают. Это, кстати, объясняет, почему некоторые оптимизаторы не блещут результатами.

Если представить продвижение в виде ракеты, которая устремляется в космос (то есть, в топ), то у нас получается ракета с трехступенчатым двигателем. Первая ступень (самая мощная) – естественные ссылки, вторая ступень – постоянные платные ссылки, и, наконец, третья ступень, которая стартует в нашем случае лишь в безвоздушном пространстве (то есть, когда сайт недалеко от топа), – это временные платные ссылки. Если попробовать достичь космоса, запустив ракету на этой самой третьей ступени, то она никогда не вырвется за пределы земного тяготения, сколько бы топлива мы не сожгли. Точно также попасть в топ по конкурентным запросам лишь на одних временных платных ссылках при любом бюджете – задача практически не решаемая.

Однако подстегнуть позиции сайта, когда он находится у самого топа при помощи временных платных ссылок, вполне удастся.

Выбор площадок для размещения ссылок должен основывать на двух принципах – качестве площадки, как и в случае с постоянными платными ссылками, а также на количестве продажных ссылок на сайте. Если сайт продает больше 2-3 автоссылок со страницы, желательно воздержаться от покупки на нем ссылок. Сайты, постоянно участвующие в ссылочных взрывах, нам ни кстати. А на странице, где мы размещаем ссылку, желательно, чтобы не было и не планировалось других платных ссылок.

 
назад в в раздел «статьи»