Ссылочный вес. Page Rank страниц
Старое название ссылочного веса Page Rank гугловцы вывели из обихода. Это дословно переводилось, как рейтинг страницы. Но с добавлением более продвинутых алгоритмов ранжирования стало понятно, что ссылки – это одно, а рейтинг страницы – это другое.

Но принцип расчета ссылочного веса страниц радикальных изменений не притерпел.

Изначально понятие пейдж ранк можно было трактовать, как вероятность нахождения пользователя на странице. Чем выше эта вероятность, тем выше PR. Логически это выглядело следующим образом:

Каждая проиндексированная страница в интернете имеет какую-то вероятность нахождения пользователя на ней. Если страница А имеет вероятность 1% и страница Б имеет 1%, где страница Б имеет ссылку на страницу А, то вероятность нахождения пользователя на странице А повысится. Это аксиома. Если вероятность перехода со страницы Б на страницу А равна 10%, то соответственно, вероятность нахождения пользователя на странице А будет 1 +1/10 = 1,1%. Но это очень грубый расчет, поскольку ссылок может быть бесконечное множество, а вероятность нахождения пользователя не может быть выше 100%. Соответсвенно, если на страницу А будет ссылаться много страниц, то с каждой новой ссылкой эффективность прироста этой вероятности будет снижаться, а эффективность каждой новой ссылки будет стремиться к нулю.

На момент начала 2024 года ссылочный вес страниц является не единственным фактором ранжирования, а скорее вспомогательным. Базовыми факторами ранжирования являются семантика и структура сайта, поведенческие факторы, ссылочный траст сайта. Причем, даже в гугле у меня был кейс нахождения в топ 1 по инфо ВЧ и коммерческим ВЧ за счет первых двух факторов, которые являются самыми важными (была минимально проработанная семантика и сумасшедшие ПФ).
Что важно учесть при расчете внутреннего ссылочного веса
Ссылочный вес внутри страниц не передается по модульным ссылкам. Он передается только по контентным ссылкам. Контентными ссылками считаются все анкоры в контентных блоках страниц. Все контентные ссылки должны быть релевантными и соответствовать контексту.

Модульными называют ссылки в блоках навигации. Сайдбары, меню, футер и т д. Да, они имеют свою кликабильность и активно используются пользователями. Но именно в этом и есть их назначение. Гугл их не учитывает, поскольку эти ссылки имеют релевантность близкую к нулю и их может быть неприлично много. Например, между страницами с электродрелями и детским питанием нет никакой семантической близости, но на сайте через меню можно перескочить с электродрелей на детское питание. Но скорее всего, у гугла есть и другие причины их не учитывать.

Траст сайта
Ссылки с других сайтов помимо ссылочного веса еще делятся с вами трастом. Формула расчета Trust Rank выглядит следующим образом:

Если сайт А ссылается на 1000 других сайтов, то каждый из этих сайтов получает 1/1000 траста этого сайта. Условно говоря – это пирог, разделенный поровну между всеми акцепторами. Часть сеошников считает не эффективным покупку ссылок с одного и того же сайта. Но, математически, первая ссылка будет иметь такой же ссылочный вес, как и остальные. И такой же Trust Rank, как и последующие. Например, первая ссылка будет давать TR 1/1000. Вторая будет давать 1/1001 и т д. При этом, эффективность первой ссылки так же будет 1/1001, потому что исходящих ссылок донора стало на 1 больше. Это еще очень старое понятие, которое ввели для борьбы с ссылочным спамом. Например, если у сайта есть 1000 исходящих ссылок, то он в 10 раз более спамный, чем сайт, с которого стоит всего 100 исходящих ссылок. Но важен так же номинальный траст самого сайта донора, который он таким же образом получил от других сайтов доноров. Поэтому не всегда кусок 1/500 это больше, чем 1/1000. И так же наоборот, не всегда очень трастовый сайт даст вашему сайту больше траста, чем менее трастовый сайт.


Для чего нужен траст и как он работает?
Под трастом подразумевается доверие гугла к вашим ссылкам. Если бы не было этого понятия, то накачать абсолютно все страницы своего сайта ссылочным весом можно было бы внутренними ссылками или внешними спамными. Поэтому чем выше траст сайта, тем эффективнее работает ссылочный вес его страниц.

Пример: 5 ссылок, поставленных на трастовый сайт, дают 100% эффективности для страницы. Такие же 5 ссылок, поставленных на не трастовый сайт дают эффект слабее, пропорционально разнице в трасте этих двух сайтов. Это не означает, что менее трастовому сайту понадобится больше ссылок. Это означает, что накачанная страница ссылочным весом до максимума будет давать 100% эффективности у сайта, у которого 100% траста и будет давать 20% эффективности для сайта, у которого 20% траста, по отношению к первому сайту.



Как отслеживать рост траста своего сайта?
Очень часто, покупая новую ссылку с хорошего ресурса мы ежедневно наблюдаем за метриками сайта, в надежде увидеть буст. Но проходит неделя, другая, месяц, два, а буста все нет. И мы делаем из этого неправильные выводы.

Мои наблюдения показали, что траст пересчитывается не так часто, как хотелось бы. На это есть определенные апдейты гугла. И это логично, поскольку формула расчета траста вроде и проста. Но в ней участвует далеко не два сайта. Это целый кусок интернета, показатели которого меняются ежедневно. На нас ссылается некий донор, и мы рассчитываем получить с него некий кусок траста. Но завтра у него появляется еще два акцептора и нужно пересчитать размеры этого куска. При этом, у донора появился одна входящая ссылка, что увеличило его траст. А у доноров этого донора тоже поменялось количество входящих и исходящих. А у них тоже есть куча доноров. Иными словами – это почти бесконечная цепочка ссылочных связей, метрики которых меняются ежедневно. Поэтому гугл эту работу выполняет всего 1-3 раза в год. После чего можно увидеть перерасчет траста вашего сайта.




Ссылочные анализаторы, в качестве оценки ссылочного веса и траста
Существует несколько популярных ссылочных анализаторов, таких, как Ahrefs и Moz.

Они показывают метрики, суть которых та же, что и у гугловых Page Rank, Trust Rank.

Они могут даже использовать те же самые формулы расчета. Однако есть нюансы.

Они не видят разницы между страницей в индексе и не в индексе, потому что они их не проверяют на индекс. А находят они их через ссылочный связи, а не через гугл. А для гугла индекс и не индекс - это как 1 и 0 соответственно. Так же они не видят разницы между Dofollow и Nofollow.

Эта особенность дает погрешность, которая иногда может достигать отметки выше 90%.

Я уже не говорю про алгоритмы гугла, нацеленные на фильтр ссылочного спама.

При этом, при расчете ссылочного веса анализаторы анализируют только первый уровень ссылок, учитывая только количество, но не качество. Одна жирная ссылка второго уровня может дать гораздо больше ссылочного веса ссылке первого уровня, чем 5 слабых ссылок второго уровня. Но ахрефс жирность не учитывает при расчете Url Rank. Он учитывает только количество входящих. Хотя он показывает UR входящих. Я это заметил, когда практиковал 3-4 уровня ссылок. При одинаковом количестве ссылок второго уровня, ахрефс рисовал одинаковый UR, для двухуровневой ссылки и для четырехуровневой ссылки. Хотя у четырехуровневой он должен был быть значительно больше.



Касательно траста сайта, там тоже много неточностей. Наверно даже больше, чем при расчете ссылочного веса. Поскольку корреляция роста DR и TR сохраняется только при условии качественных входящих ссылок. К примеру, если у сайта в Ахрефсе DR 50, то из них качественных запросто может быть только 5. Остальные 45 могут быть бутофорными, которые гугл не учитывает.
Как выбирать лучшие доноры?
Об этом так часто пишут, что можно это объединить в целую книгу. Однако на практике оказывается так, что если тебе надо купить 20кг помидоров, а их в наличии всего 10кг, то нет смысла выбирать самые красивые. Тематических ссылок на хороших ресурсах действительно всегда гораздо меньше, чем надо.

Исходя из этих реалий, большая часть KPI тир 1 ссылок просто теряет свою актуальность.

Но все же из чего-то нужно выбирать, когда тематические закончились, но нужно дальше продолжать строить ссылочный профиль.

Оценка траста.

Ссылочным анализаторам не стоит доверять слепо в оценке траста сайтов. Но по ним можно видеть входящие и исходящие ссылки. Проанализировать все входящие ссылки тоже невозможно, но у меня есть свой метод «на глаз».

Скачиваем список dofollow бэков донора.

Чекаем индекс этих ссылок. Получаем количество проиндексированных. Гугл плохо индексирует ссылки со слабых сайтов, поэтому проиндексированные ссылки можно условно принимать за хорошие. Далее, эту цифру делим на число исходящих ссылок. И получаем коэффициент, который может более точно оценить траст сайта, чем сам анализатор.

Например, мы имеем 300 входящих. Из них Dofollow ссылок 200.

В индексе из них 100.

Исходящих ссылок у него 200. Коэффициент получается 100 / 200 = 0.5

Сопоставляем этот коэффициент со стоимостью ссылки. Например, такая ссылка стоила 50 долларов. Соответственно, 0.1 условного траста стоит 10 долларов.

Сравниваем с другими сайтами из нашей выборки и оцениваем не сам условный траст, а его стоимость. Чем выше стоимость условной единицы траста, тем хуже. Поскольку тематические нам нужны все, но они быстро закончатся. А нетематических слишком много, чтобы купить их все, поэтому, если вам условно нужно 50 единиц траста суммарно получить, то это лишь вопрос времени и цены. На это можно потратить 2 года, а можно 8 лет. Можно потратить 5000 долларов, а можно 20000. И не всегда размер получаемого куска траста пропорционален его стоимости.

Важно: После покупки всех тематических ссылок не стоит полностью переключаться на нетематические. Как было описано выше, повторные ссылки с тех же сайтов дают такой же траст, как и первая ссылка. Поэтому, стараемся большую часть ссылок покупать всегда с тематических ресурсов и меньшую часть с нетематических.

Метод 2

Этот метод более точный в определении траста донора, но более сложный в расчете получаемого траста. В основе этого метода лежит главное свойство траста сайта. Это эффективность ссылок. Поэтому, чтобы определить, насколько трастовый донор, нужно проанализировать, насколько эффективно работают его входящие ссылки. Это невозможно сделать с помощью ссылочных анализаторов. Для этого нужны особые инструменты. Такие, как GSA SER и A Parser.

GSA SER нужна для минимального прогона внутряков доноров. Достаточно сделать 10-20 ссылок на страницу (важно, чтобы хотя бы 5 из них были в индексе).

После чего парсером отслеживать реальную динамику позиций по ключам в гугле. Насколько вырастут ключи, настолько эффективно сработал прогон. А эффективность прогона зависит от траста сайта, на который делался прогон. Отличная лакмусовая бумажка.

Метод дает представление, как сам гугл оценивает этот сайт. Но он очень заморочен и не дает возможности как то оцифровать этот траст.

Однако его можно расширить. Например, из вашей ниши взять несколько конкурентов, скачать их бэклинки с одинаковой семантикой. Отобрать только проиндексированные и только Dofollow. Сделать по ним прогон. Подождать и посмотреть, кто из них на какой позиции находится. Чем выше позиция, тем больше траста соответственно. Таким образом, можно получить представление о относительном трасте, среди этих доноров в вашей тематике. А потом совместить с первым методом и так же разделить на количество акцепторов и умножить на прайс.

Но учитывайте, что выборка таких сайтов все равно будет не большой и мы все равно снова возвращаемся к нашим помидорам.

Made on
Tilda