SEO - Работа на действующем проекте

Необходимо обратить внимание на существующую структуру сайта. Для этого в правой части SEO Frog выбираем закладку «Site Structure».

В верхней части мы можем наблюдать ТОП 20 страниц на которые ведут наибольшее число страниц. Если не учитывать число исходящих с них ссылок, то здесь должны быть сгруппированы наиболее важные страницы.

Внизу мы видим гистограмму распределения страниц по уровням вложенности.

Как известно, чем меньше число кликов от главной до нужного материала, тем сайт является более ориентированным на клиентов. При наличии на рассматриваемом сайте до 10-го уровня вложенности можем отметить, что часть материалов никогда не будет изучена посетителями, сайт будет плохо индексироваться поисковыми системами и внутренние ссылки со страниц из глубины сайта не будут передавать практически никакого веса.

Теоретически исправить положение дел можно созданием html карты сайта со всеми страницами и разделами сайта в одном списке. Но тогда структура сайта превратится в плоскую, с максимум, 3 уровнями вложенности. Это позволит быстро проиндексировать весь сайт, но приведет к нарушению его логической структуры. Впрочем, вес, передаваемый с «карты сайта» будет ничтожен, из-за огромного массива ссылок на этой странице, так что присутствием карты сайта можно пренебречь.

Если у сайта имеется xml карта сайта (sitemap.xml) и поисковые системы знают о его наличии, то проблема с индексацией не особо существенна. Однако опять нерешенной остается проблема логической структуры сайта и перераспределения веса страниц к наиболее нужным (например к точкам продаж / конвертации).

Из приведенного примера видно, что на zipta.ru необходимо реорганизовать структуру внутренних ссылок. Это нужно сделать комплексно, как переделав навигацию (меню), внедрить подменю на страницах 2 уровня, так и использовать перелинковку из контента, используя контекстные ссылки.

Смысл аудита robots.txt в целях перелинковки, состоит в выявлении закрытых от индексации страниц и разделов сайта и поиске ссылок на эти страницы.

Что происходит в этом случае. Да то же самое, что и при закрытии ссылки в nofollow. Вес страницы – донора утекает на закрытую страницу – акцептор и попросту теряется. Тем самым снижается вес ссылок со страницы – донора и общий суммарный вес всего сайта. Грубо говоря, значимость вашего сайта понижается.

Нам необходимо выявить такие страницы и разделы и удалить ссылки на них, либо закрыть в скрипты. На помощь опять приходит Волшебная лягушка ;)

  1. Выбираем раздел «Internal»
  2. Сортируем по статусу и ищем «Blocked by Robots.txt»
  3. Выбираем страницу или рубрику (в данном примере у тов. sNOa их нет и закрыты от индексации только скрипты и css)
  4. Жмем на вкладку «Inlinks»
  5. Смотрим список страниц – доноров, ведущих на страницу – акцептор, закрытую от индексации.

В приведенном примере исправлять нечего, но вы должны тщательно контролировать ссылки, приводящие к потере веса и избавляться от них.

Обратите внимание, что сейчас существует множество SEO плагинов для разнообразных CMS, которые на лету закрывают отдельные страницы и разделы от индексирования прописывая метатэги в заголовке страница типа:

< meta name=«robots» content=«noindex» / >
или
< meta name=«robots» content=«nofollow» >

тем самым, вес ссылок, приходящих на такие страницы будет опять утекать в пустоту. Необходимо, как и в случае с robots.txt удалять ссылки на такие страницы, либо закрывать их в скрипты. Найти такие разделы и страницы очень просто. В лягушке делаем:

  1. Выбираем раздел «Internal»
  2. Прокручиваем список вправо вплоть до столбца данных «Meta Robots 1», сортируем по столбцу значения, нажимая на него
  3. При желании выбираем закладку «Url Info», что бы получить все сведения о странице. При необходимости найти входящие ссылки, выбираем закладку «Inlinks»
  4. Выбираем любую из страниц где статус будет «noindex» либо «nofollow» либо оба значения вместе и инспектируем все входящие линки.

Удалив все ссылки (либо закрыв их в скрипты) на закрытые от индексирования страницы, мы не допустим утекания веса страниц сайта и можем перенаправить его на значимые страницы, например, используя контекстные ссылки. В 2012 году пришло время пингвина. Гугл выкатил алгоритм, который банил за ссылочный переспам. Многие сайты ушли под фильтры не только за использование ключей в виде анкоров во внешних ссылках, но и из-за:

  • обширной перелинковки страниц ВЧ ключами;
  • значительного числа одинаковых ключей, ссылающихся на 1 страницу;
  • использование блоков ссылок в футере / сайдбаре;
  • несоответствие ссылающейся страницы (донор) как ключу (анкор ссылки), так и принимающей странице (акцептор);
  • иные манипуляции с внутренним ссылочным (например, ссылка не выделена в контенте, т.е. имеет тот же цвет, что и контент, отсутствует подчеркивание ссылки, либо ссылка находится за пределами экрана и никогда не видна ( например находится в div со смещением в минус 10000 пикселей по горизонтали), либо ссылка находится в футере и имеет цвет фона и т.д. и т.п.)

Поэтому, чтобы избежать проблем, необходимо проверить текущие внутренние ссылки.



Copyright 2018 SEO-MOB.ru