- SEO
- SMM
- UX
- Аналитика
- База знаний
- Бизнес
- Дизайн
- Кейсы
- Крауд-маркетинг
- Продвижение
- Разработка
- Реклама
- Сайт
- Социум
- ТОП-10

Уже более 22 лет назад создатели Google совершили глобальную революцию в рамках интернета, создав систему PageRank. Это своеобразный комплекс ранжирования, который основывается на следующих принципах:
- каждая ссылка является аналогом голоса, который вначале имеет единую ценность, которая впоследствии меняется;
- любая страничка, которой пользователи отдают много голосов путем размещения ссылок на нее, становится в глазах поисковика Google более важной и котируется выше;
- по мере роста авторитета странички её собственный голос становится более дорогим и более значимым.
Перечисленные постулаты в дальнейшем были пополнены системой анализа анкоров, соблюдением принципов тематического соответствия, оценкой значимости контента, метриками доверия, уровнем вовлеченности пользователей и рядом других факторов.
Это привело к тому, что равенство ссылок, даже изначальное, навсегда утратило актуальность. Здесь будут рассмотрены 20 факторов, которые сегодня оказывают значительное влияние на оценку ссылок. Одни из них официально подтверждены компанией Google, другие находятся в процессе патентования. Описанное ниже не является списком жестких правил. Это гибкие принципы, которые находятся в постоянном взаимодействии и взаимно влияют друг на друга. Значение разных факторов может повышаться или снижаться в зависимости от конкретных обстоятельств.
Ссылки с популярных страничек ценятся выше
Это один из базовых принципов системы PageRank от Google. В упрощенном варианте его можно представить следующим образом:
- по мере увеличения ссылок и других сигналов повышается показатель PageRank странички;
- по мере роста показателей PageRank растет ценность ссылки на другие ресурсы, размещенной на этой страничке.
Популярность странички оценивается на основе количества «голосов», которые она набрала в так называемых «естественных условиях». Поэтому Google очень внимательно относится ко всем ссылкам, которые размещаются на таких страничках и ценит их довольно высоко.
Размещенные на страничках с уникальным контентом ссылки поднимаются в цене по сравнению с теми, которые внедрены в бойлерплейт-код
Изучение патентов Google, которые описывают сегментирование страниц и размещенные на них шаблонные элементы, приводит к выводу, что те ссылки, которые являются органичной частью уникального текста, считаются более предпочтительными. Их аналоги, размещенные в футерах, хедерах, сайдбарах и прочих шаблонных элементах, значительно уступают им по полученным оценкам.
Это особенно важно для ресурсов, которые работают на основе популярных CMS. Алгоритмы Google очень точно распознают основное содержание странички и набор неуникальных деталей кода.
Чем «выше» размещена ссылка, тем более важной она считается
Если разместить ссылку в первом абзаце текста, то вероятность того, что пользователь обратит на нее внимание, выше, чем у ссылки в более поздних абзацах. Google умеет учитывать этот фактор.
Это отражено в патенте под названием Reasonable Surfer. Причина банальна: на «ранние» ссылки пользователи кликают на порядок чаще, чем на более «поздние». Поэтому первой по тексту рекомендуется размещать наиболее важную и значимую ссылку.
Чем более релевантным является текст анкора, тем ценнее ссылка
Это регулируется тем же патентом, описанном в предыдущем пункте. Он также допускает, что ссылки с анкорами, текст которых окажется нерелевантным, могут полностью обесценится и игнорироваться поисковиком.
Создателям контента стоит следить за тем, чтобы не допускать переспама и сохранять естественность вхождения в текст ключевых фраз. То же самое относится к тексту, который окружает ссылку. Желательно сохранять и его релевантность анкорам. Хотя последнее пока и не подтверждено на все 100%.
Уникальность домена повышает значение ссылок
Практика подтверждает, что 25-30 ссылок с разных сайтов практически гарантированно окажутся более выгодными, чем 100 ссылок с одного ресурса.
Большинство специалистов подтверждают важность этого фактора ранжирования. Дело в том, что Google стремится оценивать ресурсы по уровню их популярности в общем, а не в рамках отдельных пусть даже самых крупных и уважаемых сайтов.
Ссылки с внешних сайтов будут оцениваться выше, чем внутренняя перелинковка
Для Google гораздо важнее, что о конкретной страничке или ресурсе думают другие пользователи, чем тот факт, что в рамках одного сайта имеется много ссылок на другие свои странички.
Большое количество ссылок с разных доменов общей тематики всегда будет важным плюсом. Однако и внутренняя перелинкова не теряет значения. Ссылка есть ссылка, к тому же грамотная перелинковка делает ресурс более удобным для пользователей и косвенно способствует его повышению в системе ранжирования.
Хорошо, когда на вас ссылаются сайты с высоким уровнем доверия
Комплексная метрика TrustRank очень важна для алгоритмов Google. Поисковик старается обязательно учесть показатели репутации различных ресурсов. Он формируется на основе отзывов, обзоров, качества публикуемой на сайтах информации и так далее. Например, ссылки с частных блогов, на которые никто не ссылается, быстро падают в цене. Особенно важна репутация для сайтов, которые посвящены финансовым или медицинским вопросам.
Ссылки с уважаемых пользователями и специалистами ресурсов ценятся очень высоко. Подозрительные сайты не способны принести большой пользы.
Тематическое соответствие странички, на которой расположена ссылка
Если ваш ресурс посвящен активному отдыху, то ссылка на него с сайта федерации скалолазанья будет более важной, чем ссылка с сайта шахматного клуба.
В этом плане система PageRank учитывает тематическую общность ресурсов, их локальную принадлежность и показатели фразового индексирования. Все это помогает Google избавляться от избытка спамных ссылок.
Уровень «свежести» источника ссылки
Алгоритмы Google стараются максимально точно определять актуальность размещенного контента. Одним из важнейших факторов здесь является «свежесть» ссылок, которые ведут на конкретную страничку. Если они постоянно обновляются, это является подтверждением того, что размещенный на этой страничке материал остается интересным для пользователей, нужным и актуальным.
К устаревшим страницам относятся:
- содержащие неактуальный контент (например, новости пятилетней давности);
- получающие все меньше и меньше ссылок со сторонних ресурсов с течением времени;
- стабильно снижающийся уровень вовлеченности пользователей.
«Свежесть» в данном случае отражает не возраст странички, а актуальность размещенного на ней материала.
Увеличение количества ссылок показывает повышение уровня актуальности контента
Чем больше появляется новых ссылок, тем выше позиции странички в рамках FreshRank. Обратная тенденция также имеет место. Сокращение количества новых ссылок показывает снижение актуальности контента.
За реализацию такого подхода отвечает механизм поиска информации на основе исторических данных. Он зафиксирован в одноименном патенте.
Google быстро снимает баллы за спам и низкокачественные ссылки
Несмотря на наличие триллионов ссылок, поисковики просто напросто игнорируют подавляющее большинство из них. Система стремится сосредоточиться и повысить значимость ссылок, которые создаются естественным путем.
После выхода версии Penguin 4.0 алгоритм Google практически моментально сводит до нуля значение ссылок, которые создаются посредством систем обмена. В последние входят большинство автоматизированных или покупных ссылок, а также полученных через масштабную рекламу или чрезмерный обмен.
Существует мнение, что плохие ссылки не просто игнорируются Google, но и приводят к понижению ранжирования странички и ресурса в целом.
Эффект ссылочного эха
Ряд экспериментов подтверждал, что Google продолжает индексировать некоторые ссылки даже после их полного удаления.
Главная версия, которая объясняет этот эффект, заключается в том, что поисковик оценивает динамику ссылочной массы в качестве отдельного показателя вне зависимости от наличия самих ссылок. Этот показатели может в течение определенного периода сохранять стабильность даже в том случае, если ссылки, на основе которых он был вычислен, уже удалены.
Ссылаясь на авторитетные ресурсы, сайты повышают собственные показатели
Это не подтверждено официально, однако практикующие специалисты подтверждают существование данного фактора.
Google воспринимает ссылки на качественные ресурсы более благосклонно, чем упоминания подозрительных сайтов.
Если на страничке имеются ссылки на подозрительные ресурсы, то это может снижать и обесценивать другие размещенные здесь же ссылки
Это еще один фактор, который был подтвержден в ходе экспериментов. К примеру, если на одной страничке присутствуют 3-4 ссылки, 2 или 3 из которых ведут на подозрительные площадки, то вместе с ними будут обесцениваться и оставшиеся ссылки.
С помощью этой технологии Google борется с платными ссылками.
Nofollow-ссылки имеют значение, хотя и не сканируются поисковиком
Ссылки типа nofollow были созданы как способ противодействия спаму. Они сигнализируют поисковым роботам, что переходить по ним нет необходимости.
Однако официальные формулировки Google довольно туманны и гласят, что робот не переходит по таким ссылкам «в целом», что оставляет вероятность того, что система их все-таки учитывает тем или иным образом для формирования вспомогательных показателей.
Ссылки JavaScript играют роль, если Google удается их отрендерить
Раньше можно было скрывать ссылки с помощью JS. Сегодня механизмы Google способны рендерить и сканировать такие ресурсы и считывать ссылки, погруженные в код.
Однако для того, чтобы поисковик учел такие ссылки, необходимо делать их максимально доступными для считывания, снабжать каждую атрибутикой href и так далее.
Если на страничке присутствует несколько ссылок на один документ, то первая будет самой значимой
Google будет учитывать только первый анкор среди нескольких одинаковых ссылок. Это особенно важно для внутренней перелинковки ресурсов.
Несколько лет назад проводились эксперименты, которые позволяли обойти это правило. Однако они давно не обновлялись и их актуальность сегодня под большим вопросом.
Сканированию ссылок могут помешать мета-тег robots и robots.txt
Чтобы Google учитывал ссылку для ранжирования странички, он должен беспрепятственно ее сканировать и перейти по указанному адресу. Этому могут воспрепятствовать некоторые директивы:
- URL недоступен для сканирования из-за robots.txt;
- в мета-теге robots или заголовке X-Robots-Tag используется директива «nofollow»;
- для всей странички была проведена настройка директивы «noindex, follow».
Известно, что во многих случаях Google учитывает даже закрытые специальными директивами URL при наличии ссылок на них с других страниц. Однако сами ссылки в этом случае остаются невидимыми.
Обычно disavowed-ссылки не имеют веса
Система Google имеет возможность автоматически отклонять обратные ссылки. После этого они уже не учитываются поисковиком. Однако если файл отклонения будет содержать ошибки, то учет веса ссылок будет происходить по-старому.
Простые упоминания сайта без кликабельной ссылки на него положительно сказываются на авторитете ресурса
Современные алгоритмы Google способны распознавать понятия брендов, упоминания личностей или других элементов массовой культуры. Наличие HTML-ссылок при этом не является обязательным.
Вхождение наименования бренда, названия компании или имени в текст на другом сайте будет положительно сказываться на ранжировании вашего ресурса.
Описанные выше факторы актуальны для поисковика Google. Система Яндекса имеет собственные особенности. При работе над собственным ресурсом стоит учитывать все вышеизложенное, однако помнить при этом, что правила могут меняться и корректироваться со временем. Профессиональный анализ ссылочной массы вашего ресурса стоит проводить регулярно и сопоставлять его результаты с применяемыми методами продвижения. Стремиться стоит к наращиванию естественной ссылочной массы, поскольку именно она способна давать самый длительный и самый качественный эффект. Следите за правилами поисковых систем и экспериментами специалистов, чтобы подобрать лучшие методики для работы на своим сайтом!