Uploaded by James Henderson

DrMax SEO Монстр Next

advertisement
SEO МОНСТР NEXT
ТОМ 2.
DrMax.Su, 2023
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
ВВЕДЕНИЕ ......................................................................................................- 7 Как работать с книгой ...................................................................................- 9 Часть 1. Введение в техническое SEO......................................................... - 10 1.1. Цели технического аудита .................................................................................................. - 10 1.2. Индексирование.................................................................................................................. - 21 1.2.1. Карты сайта .......................................................................................................................................... - 27 1.2.2. Robots.txt.............................................................................................................................................. - 33 1.2.3. Инструкции для мета-роботов ........................................................................................................... - 38 1.2.4. Канонические URL ............................................................................................................................... - 43 Выводы по главе............................................................................................................................................ - 46 -
1.3. Работоспособность и производительность сайта .............................................................. - 48 1.3.1. Использование HTTPS ......................................................................................................................... - 49 1.3.2. Скорость работы сайта........................................................................................................................ - 50 1.3.3. Состояние страницы (коды статуса HTTP) ......................................................................................... - 52 1.3.4. Анализ редиректов ............................................................................................................................. - 57 Выводы по главе............................................................................................................................................ - 63 -
1.4. Структура сайта ................................................................................................................... - 64 1.4.1. Хлебные крошки.................................................................................................................................. - 65 1.4.2. Глубина страниц .................................................................................................................................. - 66 1.4.3. Внешние ссылки .................................................................................................................................. - 67 1.4.4. Внутренние ссылки и популярность .................................................................................................. - 68 1.4.5. Неработающие ссылки ....................................................................................................................... - 69 1.4.6. Субдомены........................................................................................................................................... - 69 1.4.7. Утерянные страницы (Orphan page) .................................................................................................. - 70 Выводы по главе............................................................................................................................................ - 71 -
1.5. Эффективность ключевых слов .......................................................................................... - 72 1.5.1. Исследование ключевых слов............................................................................................................ - 72 1.5.2. Ранжирование URL-адресов............................................................................................................... - 74 1.5.3. Оптимизация страниц......................................................................................................................... - 77 -
1.6. Дублированный контент.................................................................................................... - 83 1.7. Проблемы с мобильной версией сайта ............................................................................. - 87 1.8. Анализ международных сайтов......................................................................................... - 90 1.8.1. Работа с контентом на нескольких языках ....................................................................................... - 91 1.8.2. Внедрение и проверка Hreflang......................................................................................................... - 92 -
1.9. Структурированные данные (микроразметка) ................................................................. - 99 -
Скачано с сайта - SuperSliv.biz - Присоединяйся!
-2-
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Часть 2. Аудит с использованием программных средств ....................... - 102 2.1. Выбор программ ............................................................................................................... - 102 2.2. Проверка безопасности и производительности .............................................................. - 103 2.2.1. Как найти HTTP ресурсы.................................................................................................................... - 103 2.2.2. Как найти небезопасные внешние исходящие ссылки ................................................................. - 108 -
2.3. Проверка кодов состояния страниц ................................................................................. - 109 2.3.1. Как найти все внутренние битые страницы 4xx ............................................................................. - 109 2.3.2. Как найти битые ссылки в меню для контента............................................................................... - 114 2.3.3. Как найти все редиректы 3xx на сайте ............................................................................................ - 118 2.3.4. Как найти страницы 5xx .................................................................................................................... - 123 -
2.4. Анализ URL сайта............................................................................................................... - 124 2.4.1. Использование в URL не ASCII символов ........................................................................................ - 124 2.4.2. Использование в URL подчеркиваний............................................................................................. - 125 2.4.3. Использование в URL прописных букв ............................................................................................ - 126 2.4.4. Несколько слешей подряд в URL ..................................................................................................... - 126 2.4.5. Повторения в URL .............................................................................................................................. - 127 2.4.6. URL содержит пробел ....................................................................................................................... - 128 2.4.7. Внутренний поиск.............................................................................................................................. - 128 2.4.8. URL содержит параметры................................................................................................................. - 128 2.4.9. Излишне длинный URL ..................................................................................................................... - 129 -
2.5. Анализ мета заголовков ................................................................................................... - 129 2.5.1. Отсутствует мета заголовок.............................................................................................................. - 129 2.5.2. Дубли мета заголовков ..................................................................................................................... - 130 2.5.3. Заголовок более 60 символов.......................................................................................................... - 131 2.5.4. Заголовок менее 30 символов ......................................................................................................... - 132 2.5.5. Мета заголовок одинаков с <h1>..................................................................................................... - 134 2.5.6. Несколько мета заголовков.............................................................................................................. - 134 -
2.6. Анализ мета-описания ...................................................................................................... - 134 2.6.1. Отсутствует мета-описание ............................................................................................................. - 135 2.6.2. Дубли мета описания........................................................................................................................ - 135 2.6.3. Метаописание более 155 символов................................................................................................ - 136 2.6.4. Метаописание менее 70 символов ................................................................................................. - 136 2.6.5. Несколько метаописаний ................................................................................................................. - 137 -
2.7. Мета ключевые слова ....................................................................................................... - 138 2.8. Анализ тега <h1>................................................................................................................ - 138 2.8.1. Отсутствует тег <h1> .......................................................................................................................... - 139 -
Скачано с сайта - SuperSliv.biz - Присоединяйся!
-3-
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
2.8.2. Дублирование <h1> в пределах сайта............................................................................................. - 139 2.8.3. Тег <h1> более 70 символов............................................................................................................. - 140 2.8.4. Несколько h1 в пределах страницы................................................................................................. - 140 -
2.9. Анализ тега <h2>................................................................................................................ - 141 2.9.1. Отсутствует тег <h2> .......................................................................................................................... - 142 2.9.2. Дублирование <h1> в пределах сайта............................................................................................. - 142 2.9.3. Несколько h2 в пределах страницы................................................................................................. - 143 -
2.10. Анализ контента .............................................................................................................. - 143 2.10.1. Точные дубли страниц .................................................................................................................... - 149 2.10.2. Частичные дубли страниц............................................................................................................... - 150 2.10.2. Страницы с малым количеством значимых слов. ........................................................................ - 151 -
2.11. Анализ каноникалов ....................................................................................................... - 154 2.11.1. Каноникалы прописаны.................................................................................................................. - 154 2.11.2. Самореферентные каноникалы..................................................................................................... - 154 2.11.3. Канонизированные страницы........................................................................................................ - 155 2.11.4. Каноникал не прописан .................................................................................................................. - 155 2.11.5. Несколько каноникалов на странице ............................................................................................ - 156 2.11.6. Противоречия в каноникалах на странице ................................................................................... - 156 2.11.7. Неиндексируемый канонический URL .......................................................................................... - 156 2.11.8. Относительный канонический URL................................................................................................ - 158 2.11.9. Потерянные страницы, связанные через canonical...................................................................... - 159 -
2.12. Анализ hreflang................................................................................................................ - 159 2.12.1. Hreflang найден на странице.......................................................................................................... - 162 2.12.2. Hreflang не найден на странице..................................................................................................... - 162 2.12.3. Потерянные страницы, связанные через Hreflang....................................................................... - 163 2.12.4. Отсутствуют обратные Hreflang ссылки......................................................................................... - 164 2.12.5. Неверные языковые или региональные обратные Hreflang ссылки.......................................... - 165 2.12.6. Неканонические обратные ссылки................................................................................................ - 166 2.12.7. Неиндексируемые обратные ссылки ............................................................................................ - 166 2.12.8. Неверные коды языка и региона................................................................................................... - 167 2.12.9. Множественные вхождения .......................................................................................................... - 168 2.12.10. Множественные вхождения ........................................................................................................ - 168 2.12.11. Не канонический URL.................................................................................................................... - 168 2.12.12. Отсутствует X-Default..................................................................................................................... - 169 2.12.13. Отсутствует hreflang ...................................................................................................................... - 169 -
2.13. Анализ ссылок ................................................................................................................. - 170 2.14. Анализ структурированных данных............................................................................... - 175 -
Скачано с сайта - SuperSliv.biz - Присоединяйся!
-4-
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
2.15. Анализ xml-карт............................................................................................................... - 179 -
Часть 3. Пошаговый технический анализ сайта ....................................... - 185 73.1. Осмотр сайта.................................................................................................................... - 185 3.2. Начните анализ сайта техническими средствами ........................................................... - 187 3.3. Анализ Search Console ....................................................................................................... - 188 3.4. Изучение ссылочного профиля ........................................................................................ - 189 3.5. Проверьте наличие ручных действий ............................................................................. - 190 3.6. Проверьте отчет об эффективности ................................................................................. - 193 3.7. Проверьте xml-карту сайта ............................................................................................... - 194 3.8. Проверка удалений........................................................................................................... - 195 3.9. Проверка удобства страниц.............................................................................................. - 196 3.10. Проверьте отчет о сканировании ................................................................................... - 197 3.11. Изучите текущий файл отклонений ............................................................................... - 198 3.12. Проверьте основной сканирующий робот..................................................................... - 199 3.13. Проверьте страницы на мобильную оптимизацию ...................................................... - 204 3.14. Проверьте отреендеренную версию страниц................................................................ - 207 3.15. Проверьте, есть ли на сайте файл robots.txt .................................................................. - 207 3.16. Проверьте, не блокирует ли файл robots.txt нужные ресурсы..................................... - 207 3.17. Проверьте, действительно ли robots.txt блокирует необходимые ресурсы ............... - 208 3.18. Проверьте валидность robots.txt.................................................................................... - 208 3.19. Проверьте, блокирует ли мета-noindex ресурсы, которые должны быть
проиндексированы.................................................................................................................. - 208 3.20. Проверьте, есть ли на сайте индексируемые ресурсы, которые нужно заблокировать в
мета-noindex............................................................................................................................. - 209 3.21. Проверьте, не противоречат ли друг другу директивы, приведенные в файле robots.txt,
метатеге robots и X-Robots-Tag................................................................................................ - 209 3.22. Проверьте, как реализованы языковые версии............................................................ - 209 3.23. Проверьте внутреннюю перелинковку .......................................................................... - 210 3.24. Проверьте хлебные крошки ........................................................................................... - 215 3.25. Проверка основной навигации....................................................................................... - 216 3.26. Проверьте как работают исходящие внешние ссылки ................................................. - 217 3.27. Проверьте URL ................................................................................................................. - 218 3.28. Проверьте редиректы ..................................................................................................... - 218 3.29. Проверьте коды состояния ............................................................................................ - 219 3.30. Проверьте наличие дублей............................................................................................. - 220 -
Скачано с сайта - SuperSliv.biz - Присоединяйся!
-5-
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
3.31. Проверка канонических версий ..................................................................................... - 222 3.32. Проверка мета-заголовков ............................................................................................. - 223 3.33. Проверка мета-описаний................................................................................................ - 224 3.34. Проверка заголовков <h1>-<h6> страницы .................................................................... - 225 3.35. Проверьте изображения сайта ....................................................................................... - 226 3.36. Проверка HTML кода....................................................................................................... - 227 3.37. Проверка контента на страницах сайта.......................................................................... - 227 3.38. Проверьте использование ключей................................................................................. - 228 3.39. Проверка структурированных данных........................................................................... - 229 3.40. Проверка скорости сайта ................................................................................................ - 230 3.41. Проверка безопасности сайта......................................................................................... - 233 3.42. Быстрая проверка E-A-T факторов.................................................................................. - 234 3.43. Проверьте данные о продукции .................................................................................... - 236 3.44. Проверьте фасетную навигацию и фильтры ................................................................. - 238 3.45. Анализ журнала доступа сайта....................................................................................... - 238 3.46 Анализ перелинковки на коммерческом сайте ............................................................. - 239 3.47. Анализ использования Javascript ................................................................................... - 240 -
Выводы по результатам аудита ............................................................... - 241 Заключение ............................................................................................... - 244 -
Скачано с сайта - SuperSliv.biz - Присоединяйся!
-6-
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
ВВЕДЕНИЕ
SEO (оптимизация поисковых систем) относится к методам, которые помогают
вашему сайту занять более высокое место на страницах результатов поисковых систем
(SERP). Одним из аспектов тематики SEO является техническое SEO. Техническое SEO
включает в себя воздействие на ключевые факторы ранжирования, к которым относится
структура вашего сайта, включая сканирование, индексирование и многое другое.
Технический SEO-аудит - это процесс анализа и отслеживания ключевых
показателей производительности сайта, которые влияют на ранжирование. Целью
технического SEO-аудита является выявить недостатки в структуре вашего сайта, которые
негативно влияют на его работоспособность и производительность и тем самым вредят
его SEO и ранжированию в поисковых системах.
Технический характер этого вида SEO-аудита может отпугнуть многих владельцев
сайтов. Но с помощью данного руководства проверить техническое состояние сайта
может сделать каждый. Независимо от того, являетесь ли вы владельцем, контентменеджером веб- разработчиком, аналитиком или кем-то другим, это руководство
предоставит вам всю необходимую информацию для успешного проведения
технического SEO-аудита. После того как аудит выявит области, требующие улучшения,
иногда может потребоваться совместная работа со специалистами, для выполнения
отдельных работ. веб-командой для создания решений.
Многие думают, что технический SEO-аудит - это одноразовый процесс. Однако
очень важно начать аудит уже сегодня и продолжать регулярно оценивать эффективность
вашего сайта. По мере роста вашего бизнеса и изменения и расширения вашего сайта
будет становиться все более важным понимать, как изменения влияют на эффективность
SEO.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
-7-
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Обязательно подпишитесь на наш телеграм-канал
«SEO фишки от DrMax» t.me/drmaxseo
Дорогие друзья. Я не только автор этой книги,
но и занимаюсь целым комплексом SEO работ,
таких как:
аудит и восстановление трафика на сайте
технический аудит
аудит внешнего ссылочного
разработка стратегии линкбилдинга
и многими иными услугами.
Обращайтесь ко мне в Телеграм: t.me/DrMax2SEO
Или на сайте DrMax.su | email: i@drmax.su
Рекомендую курс по продвижению англоязычных сайтов
от Миши Шакина. Поразительные результаты за несколько
высококлассных уроков. Методика обучения постоянно
развивается, с каждым набором актуализируется.
Укажите промокод: DrMax и получите бонус 5000 руб.
Подробная информация тут: https://seoshaolin.com/#how
Кстати, именно Михаил был организатором всех наших телеконференций, которые есть в книге.
Николай Шмичков – наш хороший товарищ и отменный SEO
специалист. Агентство SEOQUICK, где он трудится занимается
полным циклом продвижения интернет-проектов. А еще там
публикуются отличные тематические статьи, обзоры и многочисленные образовательные
материалы. Обязательно к изучению.
seoquick.company
И не могу не порекомендовать. Есть прекрасная,
полноценная альтернатива для Screaming Frog SEO
Spider. Это бесплатный SEO комплекс, написанный
Андреем Симагиным. Он состоит из двух программ SiteAnalyzer и SimpleWebAnalytics,
позволяющие как анализировать техническое состояние сайта, так и собирать данные из
GSC, GA, Яндекс вебмастера и Яндекс Метрики.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
-8-
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
Как работать с книгой
Книга структурно разбита на три части:
•
Первая часть - Введение в техническое SEO
•
Вторая часть - Аудит с использованием программных средств
•
Третья часть - Пошаговый технический анализ сайта
Первая часть отвечает на вопрос «ЧТО ДЕЛАТЬ?» и предназначена для начинающих
оптимизаторов. Если вы знакомы с теорией технического анализа сайтов – её можно
пропустить.
Вторая часть отвечает на вопрос «КАК ДЕЛАТЬ?» и предназначена для
оптимизаторов, недостаточно знакомых с программными средствами аудита. Если вы
использовали софт типа Screaming Frog SEO Spider несколько лет подряд, то вы тоже
можете с легкостью пропустить эту часть.
Третья часть отвечает на вопрос «КАКИМ ОБРАЗОМ ДЕЛАТЬ?» и является основой
выполнения технического анализа данных. Она неявно опирается на материалы первой и
второй части и предполагает, что оптимизатор хорошо подготовлен и знаком с
информацией, изложенной в них.
Перед выполнением аудита крайне рекомендую ознакомиться с первым томом
SEO Монстр NEXT, в том числе с базовыми понятиями, которые в настоящей книге
зачастую пропущены.
https://drmax.su/seo-monstr-next
Желаю удачи и успешного аудита!
Ваш, DrMax
Скачано с сайта - SuperSliv.biz - Присоединяйся!
-9-
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 10 -
Часть 1. Введение в техническое SEO
1.1. Цели технического аудита
Технический анализ сайта преследует выполнение множества целей.
Поиск технических ошибок.
Технические ошибки - это важные "красные флажки", которые показывают
ключевые проблемы на сайте, негативно влияющие на его производительность и
работоспособность. Некоторые из этих ошибок могут включать низкую
производительность сайта, неработающие ссылки/страницы/разделы сайта,
дублированный контент, Thin Content (ненужный в индексе ПС контент), критические сбои
сайта, вызывающие 5xx ошибки и многое другое. Устранение этих проблем имеет
решающее значение для улучшения SEO вашего сайта, а также для улучшения общего
впечатления пользователей (так называемый опыт пользователей).
Целью SEO является оптимизация роста органического трафика, то есть
посетителей из поисковых систем. В современном конкурентном мире это включает в
себя предоставление максимальной ценности для посетителей вашего сайта. Такие
проблемы, как, например, длительное время загрузки или неработающие страницы,
могут привести к снижению посещаемости сайта и снизить его ценность для
пользователей.
Поиск возможностей улучшения ранжирования в SERP
Технический анализ сайта позволяет понять и адаптироваться к тому, как Google
формирует выдачу в ответ на поисковые запросы.
На данный момент в Google существуют десятки систем ранжирования,
большинство из которых напрямую зависят от технического состояния сайта. Давайте
рассмотрим основные системы:
"#$
!
BERT - это система искусственного интеллекта, которую использует Google,
которая позволяет понять, как сочетания слов выражают разные значения и намерения.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Устранение Thin Content при выполнении технического анализа сайта позволяет улучшить
понимание алгоритмом сущность сайта, его намерения.
"#$
!
Deduplication systems – система дедупликации контента. Поиск в Google может
найти тысячи или даже миллионы соответствующих веб-страниц. Некоторые из них могут
быть очень похожи друг на друга. В таких случаях системы дедупликации показывают
только наиболее релевантные результаты, чтобы избежать бесполезного дублирования.
Дедупликация также происходит с избранными сниппетами . Если список вебстраницы становится избранным фрагментом, Google не повторяеn список позже на
первой странице результатов. Это упорядочивает результаты и помогает людям легче
находить нужную информацию.
Технический анализ сайта позволяет находить и устранять дубли контента. Тем
самым сайт избавляется от канибализации запросов и может ранжироваться значительно
лучше в выдаче поисковых систем.
"#$
!
Freshness systems – система определения свежести контента. У Google есть
различные системы, предназначенные для отображения более свежего контента для
запросов там, где этого можно было бы ожидать. Например, если кто-то ищет
информацию о только что вышедшем фильме, ему, скорее всего, нужны недавние
обзоры, а не старые статьи с момента начала производства.
Технический аудит позволяет показать отношение ПС к контенту, указать как часто
сканируется контент, попадает ли он в индекс и каких позиций в выдаче он достигает.
Также он позволяет понять почему не индексируются открытые для индексации страницы
и сравнивать данные «удачных» страниц с неудачными.
"#$
!
Helpful content system – система оценки полезности. Система полезного
контента Google предназначена для того, чтобы люди видели в результатах поиска
оригинальный, полезный контент, написанный людьми для людей, а не контент,
созданный в первую очередь для получения трафика из поисковых систем.
Технический аудит помогает оценить степень полезности контента, используя
пользовательские факторы (GA) и увидеть отношение Google непосредственно к
отдельным страницам сайта (GSC).
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 11 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
"#$
!
Link analysis systems and PageRank – система анализа ссылок и PageRank. У
Google есть различные системы, которые понимают, как страницы ссылаются друг на
друга, чтобы определить, о чем страницы и какие из них могут быть наиболее полезными
в ответ на запрос. Среди них — PageRank, одна из основных систем ранжирования Google,
которая использовалась при первоначальном запуске Google. Принцип работы PageRank
сильно изменился с тех пор, но он продолжает оставаться частью нескольких основных
систем ранжирования.
Технический аудит позволяет оценить структуру сайта, глубину вложения
отдельных разделов и страниц, количество (и качество) внутренних входящих ссылок,
наличие утерянных (Orphan) страниц. Это нужно для анализа перетекания «ссылочного
сока» по отдельным страницам для улучшения ранжирования наиболее важных страниц
сайта.
"#$
!
MUM - многозадачная унифицированная модель ( MUM ) — это система
искусственного интеллекта, способная как понимать, так и генерировать язык. В
настоящее время она не используется для общего ранжирования в поиске, а применяется
для некоторых конкретных запросов, таких как улучшение поиска информации о вакцине
против COVID-19 или улучшение избранных фрагментов в выдаче.
Технический анализ сайта позволяет улучшать взаимоотношения с этой системой.
Например, правильно выполненная микроразметка с указанием на область сущностей
позволяет улучшить понимание содержимого контента. А отсутствие явных технических
проблем увеличивает объем избранных фрагментов в выдаче.
"#$
!
Neural matching - нейронное сопоставление — это система искусственного
интеллекта, которую Google использует для понимания представлений понятий в
запросах и на страницах и сопоставления их друг с другом.
При наличии явных технических проблем, такая система не будет работоспособна.
"#$
!
Original content systems - У Google есть системы, которые помогают показывать
исходный (оригинальный) контент выше в результатах поиска, удаляя или понижая дубли
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 12 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
контента Это включает в себя поддержку канонической разметки , которую вебмастера
могут использовать, чтобы помочь лучше понять, что является основной страницей, если
страница дублируется в нескольких местах.
Технический аудит позволяет найти бесполезный контент, дубли, ошибки в
канонической разметке, страницы с малым объемом контента, что помогает улучшить
ранжирование в Google.
"#$
!
Page experience system – посетители предпочитают сайты, которые предлагают
отличный опыт работы со страницей. Вот почему у Google есть система взаимодействия с
страницами , которая оценивает множество критериев, таких как скорость загрузки
страниц, удобство для мобильных устройств, отсутствие на страницах навязчивых
межстраничных объявлений и безопасность обслуживания страниц. В ситуациях, когда
существует множество возможных совпадений с относительно одинаковой
релевантностью, система помогает отдать предпочтение контенту с лучшим
взаимодействием со страницей.
Технический анализ позволяет оценить большинство критериев, прямо влияющих
на Page experience, тем самым помогает исправлять недостатки и улучшать
ранжирование.
"#$
!
RankBrain - это система искусственного интеллекта, которая помогает понять,
как слова связаны с понятиями. Это означает, что Google может возвращать
соответствующий контент, даже если он не содержит всех точных слов, используемых в
поиске, понимая, что контент связан с другими словами и понятиями. RankBrain - это, по
сути, способ Google улучшить понимание поисковых запросов и веб-сайтов, которые
предоставляют ценность для пользователей, выполняющих поиск в Google. Это
достигается за счет использования машинного обучения. Поскольку RankBrain ежедневно
анализирует все больше поисковых запросов, он все лучше выдает в результатах поиска
веб-страницы, соответствующие запросу.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 13 -
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
Поскольку Rankbrain развивается с каждым апдейтом, оптимизация SEO под
Rankbrain похожа на попытку попасть в движущуюся мишень. Вместо этого лучше
сосредоточиться на техническом SEO и на СЧ и НЧ ключах.
У Google есть еще значительное количество ранжирующих систем. С их описанием
и назначением можно ознакомиться тут:
https://developers.google.com/search/docs/appearance/ranking-systems-guide
Нашей задачей было показать, что на большинство систем ранжирования Google
можно воздействовать с помощью улучшения технического состояния сайта. И это так.
Придание большего веса важным страницам.
Google классифицирует URL-адреса во время сканирования с помощью своего
алгоритма, известного как "Важность страницы". Оценивая страницы домена, Google
лучше понимает, какие страницы наиболее важны для просмотра, а какие имеют
меньший приоритет. На сегодняшний день существует слишком много веб-страниц в
Интернете и краулеры не всегда могут быстро посещать каждый сайт, когда добавляется
или обновляется страница. Google использует показатель важности страницы, чтобы
определить, какие веб- страницы будут сканироваться в первую очередь.
Важно понимать
Сканирование страницы вовсе не гарантирует попадание её в индекс, а тем
более её хорошее ранжирование.
Существует ряд факторов, которые Google учитывает при определении важности
страницы:
• Положение страницы в структуре сайта
• PR страницы
• Тип страницы или файла
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 14 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
• Наличие страницы в Sitemap.xml
• Количество и тип внутренних ссылок
• Количество внешних ссылок
• Актуальность и качество контента
• Частота обновления
• Исходные код страницы и общее качество сайта
Факторов может быть намного больше, но Google их, как правило, не раскрывает.
Оптимизируя все эти факторы, вы сможете повысить Page Importance (важность) вашей
страницы и помочь Google понять, какие страницы вашего сайта имеют приоритет в
очереди на сканирование и индексацию.
Очень важно отслеживать текущий бюджет сканирования сайта. Его можно
определить как количество страниц, которые поисковые системы просматривают или
посещают на вашем сайте в течение определенного периода времени. Поскольку
поисковые системы индексируют, или делают доступными для использования в качестве
результатов поиска, только те страницы, которые они обнаружили во время просмотра,
вы можете понять, почему улучшение расходования бюджета сканирования может быть
полезным.
Увеличив количество ключевых (важных) страниц на сайте, которые сканирует
Google, и уменьшив бюджет на просмотр менее важных страниц, вы сможете повысить
успешность вашего сайта в органическом поиске.
Итак, ваш бюджет сканирования - это среднее количество посещений сайта ботом
Google в день. Вы можете рассчитать это число, проанализировав журналы вашего
сервера на предмет количества посещений ботом Google в течение периода. Это
наиболее точный способ оценки бюджета сканирования.
Для анализа журналов доступа существует десятки разнообразных программ, как
платных так и бесплатных. Я использую SEO Log File Analyser от ScreamingFrog:
https://www.screamingfrog.co.uk/log-file-analyser/
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 15 -
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
Наиболее быстро (но не особо точно) можно оценить бюджет сканирования сайта,
используя GSC (Google Search Console).
Откройте консоль Google https://search.google.com/search-console
В меню выберите «Настройки» и далее отчет «Статистика сканирования»
Важно понимать
Все данные отчета приводятся за последние 90 дней
Оценим бюджет сканирования.
Как мы видим, за последние 90 дней было 22,4 тыс запросов на сканирование или
в среднем 248 запросов в день.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 16 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Нас интересуют запросы HTML страниц, поэтому смотрим в отчет «По типу файлов»
Итого HTML запросов было всего 26%, что составляет 64 страницы в день.
Не все запросы «окончились» благополучно 200 ответом. Поэтому, далее мы
смотрим отчет «По ответу»
«Удачных» было 79% запросов, что составляет (в среднем) уже 51
просканированную HTML страницу в день.
Таким образом, сравнив объем сайта и бюджет сканирования мы можем
примерно оценить за какой период сайт будет полностью пересканирован.
Если ваш сайт можно пересканировать за 5-10 дней полностью, то такой бюджет
сканирования является достаточно хорошим.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 17 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Важно понимать
Приведенные вычисления являются крайне приблизительными, так как
важные страницы сайта Google пересканирует гораздо чаще, чем неважные.
А еще более редко он сканирует не попавшие в индекс страницы.
Для бюджета сканирования крайне важно отсутствие страниц с ошибкой 5xx.
Наличие таких страниц уменьшает объем бюджета сканирования. В случае ошибок
сервера 5xx и 429 роботы Google временно замедляют сканирование. Уже
проиндексированные URL сохраняются в индексе, но в скором времени удаляются.
У вас нет возможности напрямую контролировать увеличение бюджета
сканирования. Google увеличит ваш бюджет сканирования, если посчитает это
необходимым, исходя из способности ваших страниц качественно отвечать на поисковые
запросы. Следовательно, если вы обеспокоены своим бюджетом сканирования, то
помимо улучшения SEO в целом, гораздо эффективнее оптимизировать использование
текущего краулингового бюджета, чем пытаться его увеличить.
Захват ключевых позиций в результатах поиска для увеличения трафика
Не все результаты поиска одинаковы. Некоторые позиции привлекают больше
кликов, некоторые предоставляют дополнительную информацию, некоторые являются
единственным результатом, представленным при голосовом поиске, или единственным
контентом, который просматривают пользователи, ищущие быстрый информационный
ответ.
"Ищу быстрый информационный ответ" - это пример поискового намерения.
Намерение поиска можно определить как конечную цель человека, осуществляющего
поиск, недостающую часть информации, которую пользователь хочет найти. Поисковое
намерение может быть информационным, навигационным или транзакционным.
Учитывая поисковое намерение, стоящее за целевым ключевым словом, вы
можете улучшить позиции в выдаче и даже разместиться выше в выдаче, перед тем как
начнутся показываться основные результаты поиска.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 18 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 19 -
Эта позиция, называемая «нулевой позицией», или «featured snippet», выводиться
для результатов поиска, которые настолько точно соответствуют поисковому запросу, что
Google выводит их первыми, выше всех остальных результатов поиска. Для того чтобы
оптимизировать контент для таких сниппетов, необходимо дать ответ на очень
конкретный вопрос на технически оптимизированной странице. Вот пример типа
контента, который вы можете включить в свои блоги, целевые страницы и другие места на
вашем сайте.
Добавьте поисковый запрос и предложите четко идентифицируемое определение
в качестве начального контента на странице. Google обратит внимание на то, что ваш
контент напрямую отвечает на вопрос. При этом, возможно, Google наградит вашу
информацию расширенным сниппетом, или позицией 0.
«Позицию 0» могут занимать карусели, состоящие из ряда карточек для различных
элементов, таких как рецепты, новости, изображения и т.д. Они создаются на основе
структурированных данных, которые берутся из микроразметки на вашей странице.
Структурированные данные могут повысить вероятность того, что кто-то кликнет на
вашу страницу в серпе органической выдачи, так как Гугл формирует расширенный
сниппет на основе микроразметки. Этот процесс называется «повысить
яркость/видимость сниппета». Расширенные сниппеты включают в себя такую
информацию, как рейтинг, ссылки на разделы вашего сайта или миниатюры
изображений.
Выявление технических проблем, мешающих UX
Разговор о пользовательском опыте (UX) в рамках технического SEO-аудита может
показаться странным, но на самом деле существует ряд SEO-факторов, которые могут
скрываться в дизайне вашего сайта.
Расположение важных страниц. Вы хотите, чтобы ваши наиболее эффективные
страницы были стратегически расположены в структуре вашего сайта. Вы не хотите
размещать страницу для покупки вашего продукта или даже сильную статью в блоге на
пяти уровнях в глубине архитектуры вашего сайта. Подумайте о том, что является вашим
лучшим контентом, и убедитесь, что эти "важные страницы" легко доступны как для
пользователей, так и для поисковых машин.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 20 -
Доступность. Кроме того, UX страницам можно нанести ущерб другими ключевыми
аспектами ранжирования, такими как скорость, размер, мобильная оптимизация,
локальный и/или региональный контент. Страницы, создающие проблемы с доступностью
для пользователей, обычно также очень трудно доступны, читаемы или понятны для
краулеров. Проблемы доступности - это элементы дизайна сайта, которые делают
просмотр или навигацию более трудной для отдельных групп пользователей:
пользователей мобильных устройств, пользователей с медленным соединением,
пользователей, использующих визуальные средства, пользователей из других стран и т.д.
Убедитесь, что ваш дизайн хорошо выглядит, при этом быстро загружается и имеет
небольшой общий размер кода. Создание дизайна, адаптивного для мобильных
устройств, также повысит рейтинг в поисковой выдаче. Кроме того, наличие специальных
версий вашего сайта, предназначенных для локального или регионального поиска,
поможет пользователям и поисковым роботам ориентироваться в нужных разделах сайта.
Стратегические цели бизнеса.
Не забывайте о собственных стратегических целях. Не забывайте отдавать
предпочтение тем техническим усовершенствованиям, которые обеспечивают наиболее
быстрый выигрыш для вашего бизнеса. Возможно, вы хотите увеличить посещаемость
своего сайта, привлечь больше потенциальных клиентов в определенный раздел сайта
или совершить больше продаж/конверсий. Например, если вы являетесь рестораном, вам
не особо нужно инвестировать в международные разделы сайта. Гораздо лучше улучшить
время загрузки с мобильных устройств и внедрить микроразметку, чтобы люди, ищущие
где бы поесть поблизости, получали доступ к вашему сайту.
Каковы бы ни были цели вашего бизнеса, подбирайте свои усилия по SEO в
соответствии с ними.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
1.2. Индексирование
Техническое SEO может помочь вам установить ограничения на то, что должно
быть видно Google и проиндексировано, а что нет.
Одной из первых целей технического аудита является проверка того, что важные
страницы сайта проиндексированы и что элементы вашего сайта, которые не должны
появляться в результатах поиска, не индексируются.
Страницы, которые посещают или могут посещать боты поисковых систем,
являются открытыми для индексации. Чтобы быть индексируемыми, страницы должны
позволять поисковым системам индексировать их, должны быть доступны при запросе с
сервера и не перенаправлять посетителей на другую страницу.
Проиндексированные страницы могут быть использованы в результатах поиска,
если алгоритмы поисковой системы определят, что страница соответствует поисковому
запросу. Другими словами: для того чтобы занять место в поисковой выдаче, ваши
страницы должны быть предварительно просканированы и проиндексированы.
Отсюда вывод: несканируемые и неиндексируемые страницы не могут появиться в
результатах поиска.
Самый надежный способ узнать, какие страницы были проиндексированы
поисковой системой, - использовать информацию самой поисковой системы. Google
Search Console предоставляет такую информацию.
Другой способ проверить количество страниц, проиндексированных Google для
стороннего сайта, - зайти в Google и ввести "site:example.com". Замените example.com на
домашнюю страницу исследуемого сайта.
Вы также можете получить дополнительную информацию, отслеживая страницы,
которые посетили индексирующие боты поисковой системы, используя файлы журнала
доступа. В случае с Google отслеживайте посещения ботами googlebot-desktop и
googlebot-mobile и не забывайте проверять ботов, просматривая их IP-адреса.
Помните, что контентные страницы — это не единственное, что есть на вашем
сайте. Ваш сервер также предоставляет - и поисковые системы и пользователи также
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 21 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 22 -
просматривают - другие типы файлов. Вместе эти файлы обычно называются ресурсами.
Они могут включать в себя:
• PDF-файлы
• Медиафайлы: изображения, видео...
• Ресурсы, которые загружаются вместе со страницей: Файлы Javascript, файлы css,
файлы шрифтов...
Иногда вам совершенно необходимо, чтобы краулер индексировал ресурсы,
например, изображения, которые вы хотите видеть в поиске по картинкам, или Javascript,
который вводит содержимое на вашу страницу.
Однако ботам не нужно видеть или индексировать такие файлы, как шрифты,
изображения по умолчанию, предоставляемые, например, WordPress, или библиотеки css
в вашем шаблоне, которые вы не используете.
Откройте GSC – Страницы (1)- Отчет о проиндексированных страницах.
Изучите список проиндексированных страниц (2). Используя фильтр (3) изучите
отдельные разделы сайта. Помните, что GSC предоставляет в отчете только 1000 URL,
поэтому активно используйте фильтры.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Как правило, вам необходимо убедиться в том, что у вас проиндексированы:
• Посадочные страницы
• Наиболее важные страницы сайта
• Страницы конвертации
• Главные страницы (например, на многоязыковом сайте)
• Новости
• Новые страницы
• Страницы, на которые были перенаправлены старые страницы
• Возможно, сезонные или временные рекламные страницы
Не забывайте просматривать как именно индексируются отдельные страницы
Изучите, какие ресурсы страницы не индексируются
Не принимайте во внимание скрипты метрик, счетчиков, маркетинговых
инструментов. Необходимо, чтобы были проиндексированы файлы JavaScript,
необходимые для просмотра содержимого страницы и изображения, которые вы хотите
видеть в поисковых запросах.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 23 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Нажмите на кнопку «Проверить страницу на сайте»
И посмотрите, как выглядит ваша страница в представлении Google.
Все скрипты и картинки, формирующие внешний вид и функционал страницы
должны быть открыты для индексации, скриншот должен показывать работоспособную
версию сайта.
Пример, когда все необходимые ресурсы проиндексированы:
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 24 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Пример, когда ряд ресурсов страницы не индексируется и скриншот
«разъезжается»
В последнем случае Google не смог загрузить и проиндексировать CSS шаблона и
ряд изображений, влияющих на формирование скриншота были заблокированы в
robots.txt
В обязательном порядке эти ресурсы должны быть проиндексированы.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 25 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 26 -
Не нужно индексировать следующие страницы и ресурсы сайта:
• Страницы с дублирующимся содержанием (кроме главной страницы пула
дублей)
• Страницы с Thin Content
• Страницы администрирования системы управления контентом
• Предварительный просмотр черновиков
• Файлы, которые следует загружать только после заполнения формы
• URL-адреса страниц с одинаковым содержанием, отсортированные или
отфильтрованные с помощью запросов – т.е. ненужные страницы фильтров
• Пустая пагинация страниц. Сюда же я отношу страницы пагинации, где менее 3-х
товаров/статей и пр.
• Неоформленные и/или пустые страницы тегов
• Подтверждающие страницы для регистрации, загрузки, покупки...
• Страницы, которые больше не доступны
• Страницы, которые были перенаправлены
Иногда, ненужные страницы, несмотря на то, что они закрыты от индексации
каноничесвими тегами или в robots.txt всё равно попадают в индекс. По всей видимости,
Гугл считает такие страницы важными (но он может и ошибаться). Чтобы выявить такие
страницы, можно в отчете об индексации ввести знак вопроса в фильтрах по URL.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Так мы можем отследить все страницы с параметрами, которые попадают в
индекс. И если пагинация допустима и желательна в списке проиндексированных
страниц, то страницы фильтров в большинстве случаев там не нужны.
Аналогично, вводя различные признаки ненужных в индексе страниц необходимо
проверить, чтобы они (ненужные страницы) не попадали в индекс. Для этого, как
правило, приходиться закрывать их в «мета noindex»
Чтобы проверить, как ваш сайт предлагает страницы для индексации и как он
скрывает страницы от ботов, вам необходимо провести аудит нижеперечисленных
элементов.
1.2.1. Карты сайта
Карта сайта в формате xml - это способ предоставления списка страниц, о которых
должна знать поисковая система. Поисковая система попытается посетить все страницы,
указанные в вашей карте сайта. Однако отсутствие страницы в карте сайта не помешает
поисковой системе узнать о ее существовании, если на нее есть ссылки с других страниц.
XML- карта сайта должна быть отформатирована в соответствии с протоколом
sitemap и размещена в корне (не в папке) той части сайта, которую она охватывает.
В файле Sitemap содержится информация о том, как организован контент на сайте
(например, веб-страницы, видео и прочие ресурсы). Она помогает Google и другим
поисковым системам более точно индексировать ваши материалы. К примеру, в файле
Sitemap можно указать, какие разделы сайта наиболее важны, и сообщить нам
дополнительную информацию о них (когда страница последний раз обновлялась,
существуют ли ее версии на других языках и т. д.).
Наконец, в файл Sitemap можно добавить дополнительные сведения о контенте
разных типов, в том числе о видео, изображениях и новостях. Пример:
• Для видеофайлов: продолжительность, рейтинг, возрастное ограничение.
• Для графических файлов: местоположение изображений, размещенных на
странице.
• Для новостей: название статьи и дата публикации.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 27 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
В рамках аудита необходимо проверить валидность самой карты сайта и то, что
карта сайта содержит URL, которые вы хотите индексировать, и не содержит URL, которые
вы не хотите (или нельзя) индексировать.
Для xml-карт действуют следующие ограничения: файл Sitemap может содержать
не более 50 000 URL, а его размер в несжатом виде не должен превышать 50 МБ. Если
объем файла или количество перечисленных в нем адресов превышают эти лимиты,
разбейте его на несколько частей. Вы можете создать и отправить в Google индексный
Sitemap, который содержит данные об отдельных файлах Sitemap. При необходимости
можно отправить несколько файлов и/или индексов Sitemap.
Если у вас есть блог с фидом RSS или Atom, можно отправить URL этого фида в
качестве источника файла Sitemap. Большинство сервисов для ведения блогов позволяют
создать фид, но нужно учитывать, что такие фиды предоставляют информацию только о
последних URL.
Общие рекомендации в отношении файлов Sitemap:
• Указывайте полные URL, используя один и тот же синтаксис. Google будет
сканировать в точности те URL, которые вы перечислите. Например, если адрес
сайта – https://www.example.com/, не указывайте URL https://example.com/ (без
www) или ./mypage.html (относительный).
• Файл Sitemap может быть размещен в любой части сайта, но влияет только на
каталоги уровнем ниже родительского. Поэтому, чтобы файл Sitemap
действовал на весь сайт, мы рекомендуем располагать его на корневом уровне.
• Не указывайте в добавляемых URL идентификаторы сеансов или иные
идентификаторы, относящиеся к пользователям. Это может привести к
избыточному сканированию страниц.
• Отмечайте иноязычные версии страницы атрибутом hreflang.
• Файлы Sitemap должны создаваться в кодировке UTF-8, а в URL необходимо
применять экранирование.
• Разбивайте большие файлы Sitemap на файлы поменьше. Файл Sitemap может
содержать до 50 000 URL и не должен занимать больше 50 МБ в несжатом виде.
Вместо отдельных файлов Sitemap отправляйте в Google их индекс.
• Включайте в файлы Sitemap только канонические URL. Если у вас две версии
страницы, укажите только ту, которая должна появляться в результатах поиска.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 28 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 29 -
Если у вас две версии сайта (например, с префиксом www и без него), выберите
основную и разместите файл Sitemap в ней, а на страницы второго сайта
добавьте атрибут rel=canonical или реализуйте на них переадресацию.
• Если у мобильной и обычной версии страницы разные URL, советуем указывать
только одну из них. Если все же требуется включить в файл оба URL, добавьте
для них аннотации, чтобы обозначить эти версии.
• Используйте файлы Sitemap с расширенным синтаксисом для указания
дополнительных MIME-типов, например изображений, видео и новостей.
• Если существуют версии страницы на других языках или для других регионов, вы
можете указать их с помощью атрибута hreflang в файле Sitemap или тегах HTML.
Проверьте наличие в любом месте файла robots.txt строки с путем к файлу Sitemap.
Например:
SITEMAP: HTTPS://EXAMPLE.COM/MY_SITEMAP.XML
Проверьте наличие и валидность карты сайта в GSC. Примеры ниже:
Здесь карта сайта не найдена и/или не добавлялась вручную в GSC (об этом далее).
Необходимо вручную добавить xml- карту сайта.
В следующем примере в GSC добавлено несколько карт сайта, в том числе
индексная (1) и обычные (2)(3). При этом ошибок (поле статус) не обнаружено.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Обратите внимание
В отчете видны только файлы Sitemap, отправленные с помощью этого
отчета или API, а не обнаруженные по ссылкам в файле robots.txt или другими
способами.
Если Google уже получили ваш файл Sitemap из другого источника, вы все равно
должны отправить его в GSC через этот отчет, чтобы следить за тем, как сканируются
страницы сайта.
Для этого в отчете об индексации (1) страниц выберите закладку (2)
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 30 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
И далее вы сможете проанализировать индексацию отправленных (1) или
неотправленных в xml-картах сайта страниц или отправленных в отдельных xml-картах (2)
страниц.
Обратите внимание
"Отправить" файл Sitemap означает сообщить Google, где найти его на
вашем сайте. Сам файл в Google не загружается.
Вы сможете отправить файл Sitemap с помощью отчета, только если у вас есть
права владельца ресурса. Если таких прав у вас нет, просто добавьте ссылку на файл
Sitemap в файл robots.txt.
Опубликуйте файл Sitemap на своем сайте.
Файл Sitemap должен быть доступен роботу Googlebot. Чтобы проверить, так ли
это, попробуйте перейти по URL файла Sitemap в режиме инкогнито.
Проверьте, есть ли у Google доступ к файлу Sitemap. Это можно сделать двумя
способами:
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 31 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 32 -
1. Введите URL файла Sitemap в адресную строку браузера. Файл Sitemap должен
открыться в формате XML. Он будет выглядеть как набор вложенных блоков, а
не как обычный сайт.
2. Проверьте URL файла Sitemap, введя его в поле
https://search.google.com/search-console?action=inspect .В разделе Доступность
должно быть указано "URL можно проиндексировать". Если это не так, должна
быть названа причина, по которой это невозможно сделать (например, правило
robots.txt, неверный URL или работа брандмауэра). Если у Google нет доступа к
файлу Sitemap, устраните эту проблему.
Убедившись в том, что ваш файл доступен, откройте отчет о файлах Sitemap вот
здесь https://search.google.com/search-console/sitemaps и отправьте файл Sitemap.
Время от времени проверяйте, может ли Google получать и обрабатывать ваши
файлы Sitemap.
Если вы внесли в файл Sitemap значительные изменения, которые необходимо
немедленно обработать, вы можете отправить его в Google повторно, подав новый
запрос. В противном случае он будет обрабатываться в соответствии с обычным
расписанием сканирования сайта.
Если файл Sitemap не удается получить при первом запросе или позже при
запланированном повторном сканировании, то Google продолжает попытки в течение
нескольких дней, а затем прекращает их, если файл по-прежнему недоступен или
содержит критические ошибки. В этом случае вы должны устранить проблему и отправить
файл повторно, подав новый запрос. В отчете показывается статус последнего
сканирования для каждого запроса.
Если вы удалите файл Sitemap, он исчезнет из отчета, но Google запомнит его и все
перечисленные в нем URL. Если вам нужно, чтобы роботы Google перестали посещать
ваши веб-страницы, запретите им это с помощью правила в файле robots.txt.
Вы должны регулярно обновлять свои xml-карты сайта и отправлять их в поисковые
системы.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
- 33 -
1.2.2. Robots.txt
Файлы Robots.txt - это текстовые файлы, содержащие инструкции для ботов. Они
являются первым, что посещает бот на сайте. Правила в этом файле могут быть
направлены на всех ботов или только на некоторых.
Файл robots.txt применяется к домену или поддомену, в котором он расположен, а
также к содержимому папок в этом месте. Он не применяется к другим поддоменам или к
другим доменам на том же сервере.
С его помощью можно уменьшить количество поступающих запросов на
сканирование и тем самым перераспределить бюджет сканирования в пользу важных
страниц сайта.
Обратите внимание
Файл robots.txt не предназначен для того, чтобы запретить показ ваших
материалов в Google. Если вы не хотите, чтобы какие-либо страницы были
представлены в Google, добавьте на страницы директиву мета- noindex или
сделайте их доступными только по паролю.
Итак, robots.txt используется прежде всего для управления трафиком поисковых
роботов на вашем сайте. Как правило, с его помощью также можно исключить контент из
результатов поиска Google (это зависит от типа контента).
Файл robots.txt позволяет управлять сканированием веб-страниц в форматах,
которые робот Googlebot может обработать (он поддерживает, например, HTML или PDF,
но не мультимедийные файлы). С его помощью вы можете уменьшить количество
запросов, которые Google отправляет вашему серверу, или запретить сканировать
разделы сайта, в которых содержится неважная или повторяющаяся информация.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Проверьте валидность robots.txt. Вот правила в отношении формата и
расположения файла:
• Файл должен называться robots.txt.
• На сайте должен быть только один такой файл.
• Файл robots.txt нужно разместить в корневом каталоге сайта. Например, на
сайте https://www.example.com/ он должен располагаться по адресу
https://www.example.com/robots.txt. Он не должен находиться в подкаталоге
(например, по адресу https://example.com/pages/robots.txt). Если вы не знаете,
как получить доступ к корневому каталогу, или у вас нет соответствующих прав,
обратитесь к хостинг-провайдеру. Если у вас нет доступа к корневому каталогу
сайта, используйте альтернативный метод блокировки, например метатеги.
• Файл robots.txt можно разместить по адресу с субдоменом (например,
https://website.example.com/robots.txt) или нестандартным портом (например,
https://example.com:8181/robots.txt).
• Действие robots.txt распространяется только на пути в пределах протокола,
хоста и порта, где он размещен. Иными словами, правило по адресу
https://example.com/robots.txt действует только для файлов, относящихся к
домену https://example.com/, но не к субдомену, такому как
https://m.example.com/, или другим протоколам, например
https://example.com/.
• Файл robots.txt должен представлять собой текстовый файл в кодировке UTF-8
(которая включает коды символов ASCII). Google может проигнорировать
символы, не относящиеся к UTF-8, в результате чего будут обработаны не все
правила из файла robots.txt.
Правила – это инструкции для поисковых роботов, указывающие, какие разделы
сайта можно сканировать. Добавляя правила в файл robots.txt, учитывайте следующее:
• Файл robots.txt состоит из одной или более групп.
• Каждая группа может включать несколько правил, по одному на строку. Эти
правила также называются директивами. Каждая группа начинается со строки
User-agent, определяющей, какому роботу адресованы правила в ней.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 34 -
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
• Группа содержит следующую информацию:
• К какому агенту пользователя относятся директивы группы.
• К каким каталогам или файлам у этого агента есть доступ.
• К каким каталогам или файлам у этого агента нет доступа.
• Символ # означает начало комментария.
Поисковые роботы обрабатывают группы по порядку сверху вниз. Агент
пользователя может следовать только одному, наиболее подходящему для него набору
правил, который будет обработан первым.
По умолчанию агенту пользователя разрешено сканировать любые страницы и
каталоги, доступ к которым не заблокирован правилом disallow.
Обратите внимание
Правила должны указываться с учетом регистра. К примеру, правило
disallow: /file.asp распространяется на URL https://www.example.com/file.asp,
но не на https://www.example.com/FILE.asp.
Правила в файлах robots.txt, поддерживаемые роботами Google
user-agent: (обязательное правило, может повторяться в пределах группы). Определяет, к
какому именно автоматическому клиенту (поисковому роботу) относятся правила в
группе. С такой строки начинается каждая группа правил. Названия агентов пользователя
Google перечислены в этом списке. Используйте знак *, чтобы заблокировать доступ всем
поисковым роботам (кроме роботов AdsBot, которых нужно указывать отдельно).
Примеры:
# EXAMPLE 1: БЛОКИРУЕМ GOOGLEBOT
USER-AGENT: GOOGLEBOT
DISALLOW: /
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 35 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
# EXAMPLE 2: БЛОКИРУЕМ GOOGLEBOT И ADSBOT
USER-AGENT: GOOGLEBOT
USER-AGENT: ADSBOT-GOOGLE
DISALLOW: /
# EXAMPLE 3: БЛОКИРУЕМ ВСЕ КРАУЛЕРЫ, КРОМЕ ADSBOT (ADSBOT ДОЛЖЕН УКАЗЫВАТЬСЯ ОТДЕЛЬНО)
USER-AGENT: *
DISALLOW: /
disallow: (каждое правило должно содержать не менее одной директивы disallow или
allow). Указывает на каталог или страницу относительно корневого домена, которые
нельзя сканировать агенту пользователя. Если правило касается страницы, должен быть
указан полный путь к ней, как в адресной строке браузера. В начале строки должен быть
символ /. Если правило касается каталога, строка должна заканчиваться символом /.
allow: (каждое правило должно содержать не менее одной директивы disallow или allow).
Указывает на каталог или страницу относительно корневого домена, которые разрешено
сканировать агенту пользователя. Используется для того, чтобы переопределить правило
disallow и разрешить сканирование подкаталога или страницы в закрытом для обработки
каталоге. Если правило касается страницы, должен быть указан полный путь к ней, как в
адресной строке браузера. Если правило касается каталога, строка должна заканчиваться
символом /.
sitemap: (необязательная директива, которая может повторяться несколько раз или не
использоваться совсем). Указывает на расположение файла Sitemap, используемого на
сайте. URL файла Sitemap должен быть полным. Google не перебирает варианты URL с
префиксами http и https или с элементом www и без него. Из файлов Sitemap роботы
Google получают информацию о том, какой контент нужно сканировать и как отличить его
от материалов, которые можно или нельзя обрабатывать.
Директива Host: не используется в Google и давно устарела в Яндексе – её
следует удалить.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 36 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Все правила, кроме sitemap, поддерживают подстановочный знак * для
обозначения префикса или суффикса пути, а также всего пути.
Строки, не соответствующие ни одному из этих правил, игнорируются.
Если в файле robots.txt есть несколько групп для определенного агента
пользователя, выполняется внутреннее объединение этих групп. Пример:
USER-AGENT: GOOGLEBOT-NEWS
DISALLOW: /FISH
USER-AGENT: *
DISALLOW: /CARROTS
USER-AGENT: GOOGLEBOT-NEWS
DISALLOW: /SHRIMP
Поисковые роботы объединяют правила с учетом агента пользователя, как указано
в примере кода ниже.
USER-AGENT: GOOGLEBOT-NEWS
DISALLOW: /FISH
DISALLOW: /SHRIMP
USER-AGENT: *
DISALLOW: /CARROTS
Содержание файла robots.txt обычно хранится в кеше не более суток, но может
быть доступно и дольше в тех случаях, когда обновить кешированную версию
невозможно (например, из-за истечения времени ожидания или ошибок 5xx).
Сохраненный в кеше ответ может передаваться другим поисковым роботам. Google
может увеличить или уменьшить срок действия кеша в зависимости от значения атрибута
max-age в HTTP-заголовке Cache-Control.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 37 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Вопросы, которые следует задать при изучении файла robots.txt:
• Видят ли индексирующие боты поисковых систем те же страницы, что и
посетители-люди?
• Могут ли индексирующие боты поисковых систем получить доступ к страницам,
которые должны быть проиндексированы?
• Запрещено ли индексирующим ботам поисковых систем обращаться к
страницам, которые не должны индексироваться?
1.2.3. Инструкции для мета-роботов
В теге <head> каждой страницы можно указать инструкции для роботов. Как и
файлы robots.txt, эти инструкции могут быть общими, в случае с
<META NAME="ROBOTS" CONTENT="NOINDEX" />
или специфические для конкретного бота, такие как
<META NAME="GOOGLEBOT" CONTENT="NOINDEX">
Метатег robots следует размещать в разделе <head> страницы. Пример:
<!DOCTYPE HTML>
<HTML><HEAD>
<META NAME="ROBOTS" CONTENT="NOINDEX">
(…)
</HEAD>
<BODY>(…)</BODY>
</HTML>
В этом примере метатег robots запрещает поисковым системам показывать
страницу в результатах поиска. Заданное для атрибута name значение robots указывает,
что директива предназначена для всех поисковых роботов. Если вы хотите закрыть доступ
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 38 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 39 -
только одному из них, вместо robots укажите в значении атрибута name название нужного
робота. Отдельные поисковые роботы также называются агентами пользователя
(поисковый робот использует агент пользователя для отправки запроса страницы). Агент
пользователя стандартного поискового робота Google называется Googlebot.
Указанные ниже директивы позволяют управлять индексированием страницы и
показом ее фрагмента в результатах поиска.
All - нет ограничений на индексирование и показ контента. Эта директива
используется по умолчанию и не влияет на работу поисковых роботов, даже если она
указана в коде.
Noindex - Не показывать страницу, медиаконтент или ресурс в результатах поиска.
Если не указать эту директиву, страница, медиаконтент или ресурс будет
проиндексирован и сможет показываться в результатах поиска.
Nofollow - не выполнять переход по ссылкам на странице. Если не указать эту
директиву, роботы Google могут использовать ссылки на странице для поиска целевых
страниц.
None - Является эквивалентом noindex, nofollow.
Noarchive - не показывать ссылку на кеш в результатах поиска. Если не указать эту
директиву, Google сможет создать кешированную страницу, доступную пользователям в
результатах поиска.
Nositelinkssearchbox - Не показывать для этой страницы окно поиска по сайту в
результатах поиска. Если не указать эту директиву, в результатах поиска Google смогут
появляться окно поиска по вашему сайту и прямые ссылки на разделы этого сайта.
Nosnippet - Не показывать в результатах поиска текстовый фрагмент или видео.
Статические уменьшенные изображения, если они есть и способны повысить удобство
использования, могут по-прежнему появляться. Если не указать эту директиву, роботы
Google могут создать фрагмент текста и видео на основе информации со страницы.
Indexifembedded - В отличие от директивы noindex эта директива позволяет Google
индексировать контент страницы, если он встроен в другую страницу с помощью тега
iframes или аналогичного. indexifembedded действует, только если присутствует
директива noindex.
max-snippet: [число] - ограничение на количество символов в текстовом фрагменте
(не более [число]), который показывается в результатах поиска. Обратите внимание, что
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
один и тот же URL может появляться на странице результатов поиска несколько раз. Эта
директива не распространяется на предварительный просмотр изображений и видео, но
действует в отношении всех видов результатов поиска (веб-поиск Google, Google
Картинки, рекомендации и данные, предоставляемые Ассистентом). Тем не менее
ограничение не применяется в тех случаях, когда издатель предоставил отдельное
разрешение на использование контента, например добавил структурированные данные
или заключил лицензионное соглашение с компанией Google. Тогда эта настройка не
отменяет подобные дополнительные разрешения. Если в этой директиве использовать
некорректное числовое значение, она будет игнорироваться.
Если же не указать ее, Google будет выбирать длину фрагмента самостоятельно.
Специальные значения:
0 – нет фрагмента для показа. Является эквивалентом nosnippet.
-1 – Google будет самостоятельно выбирать длину фрагмента, которая позволит
эффективнее привлекать пользователей на ваш сайт.
max-image-preview: [setting] - Эта директива определяет максимальный размер
изображений, которые могут показываться в результатах поиска для этой страницы.
Если не указать директиву max-image-preview, при показе картинки в результатах
поиска Google для нее будет выбран размер по умолчанию.
Допустимые значения для элемента [setting]:
• none – нет изображения для предварительного просмотра.
• standard – может быть показано изображение для предварительного просмотра
по умолчанию.
• large – может быть показано более крупное изображение, вплоть до
максимальной ширины области просмотра.
Это распространяется на все виды результатов поиска (веб-поиск Google, Google
Картинки, рекомендации и данные, предоставляемые Ассистентом). Тем не менее
ограничение не применяется в тех случаях, когда издатель предоставил отдельное
разрешение на использование контента, например добавил структурированные данные
или заключил лицензионное соглашение с компанией Google. В частности,
структурированные данные могут определять каноническую и AMP-версию статьи.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 40 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Если вы не хотите, чтобы ваши канонические страницы и их AMP-версии
показывались в Google Поиске и рекомендациях с более крупными изображениями,
укажите в директиве max-image-preview значение standard или none.
max-video-preview: [number] - Эта директива задает для фрагмента видео со
страницы ограничение по длительности в секундах при показе в результатах поиска (не
более [number]).
Если не указать директиву max-video-preview, в результатах поиска сможет
показываться фрагмент видео. В этом случае определять возможную продолжительность
предварительного просмотра будет Google.
Noimageindex - Эта директива запрещает индексировать изображения,
размещенные на странице. Если не указать это значение, изображения на странице будут
проиндексированы и смогут показываться в результатах поиска.
unavailable_after: [date/time] - Эта директива запрещает показывать страницу в
результатах поиска после даты и времени, указанных в одном из основных форматов,
таких как RFC 822, RFC 850, ISO 8601 и др. Эта директива игнорируется, если не указано
допустимое значение даты и времени. По умолчанию у контента нет срока действия.
Если не указать эту директиву, страница может показываться в результатах поиска
неограниченное время. После указанной даты и времени частота сканирования URL
роботом Googlebot значительно уменьшится.
Метатеги robots определяют, какое количество контента Google может
автоматически извлекать с веб-страниц и показывать в результатах поиска. Однако
многие издатели также применяют структурированные данные schema.org, чтобы
показывать в результатах поиска нужную им информацию. Заданные в метатегах robots
ограничения не распространяются на структурированные данные, кроме значений
article.description и description, которые указываются для творческих работ. Чтобы задать
максимальную длину текстового фрагмента в результатах поиска с учетом этих значений
description, используйте метатег robots с директивой max-snippet. К примеру, если на
странице есть структурированные данные для рецептов (recipe), определенный ими
контент может показываться в карусели рецептов независимо от ограничения длины
текстового фрагмента. Длину текстового фрагмента можно ограничить при помощи maxsnippet, однако эта директива метатега robots не действует, когда информация
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 41 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
предоставляется с применением структурированных данных для расширенных
результатов.
Вместо тега <meta> можно возвращать HTTP-заголовок X-Robots-Tag со значением
noindex или none в ответе. Вы можете использовать этот способ для файлов, формат
которых отличается от HTML, например PDF, видео и изображений. Ниже приведен
пример HTTP-ответа с заголовком X-Robots-Tag, запрещающим поисковым системам
индексировать страницу:
HTTP/1.1 200 OK
(...)
X-ROBOTS-TAG: NOINDEX
(...)
Итак, noindex – это правило, которое задается с помощью тега <meta> или
заголовка HTTP-ответа и запрещает индексирование контента поисковыми системами,
поддерживающими noindex, например Google. Обнаружив такой тег или заголовок во
время сканирования страницы, робот Googlebot проигнорирует ее, даже если на нее
ссылаются другие сайты.
Чтобы обнаружить теги <meta> и HTTP-заголовки, Google должен просканировать
страницу. Если страница продолжает появляться в результатах поиска, вероятно, Google
ещё не обработал ее после добавления правила noindex. Робот Googlebot может
повторно посетить страницу только спустя несколько месяцев. Воспользуйтесь
инструментом проверки URL, чтобы запросить повторное сканирование страницы
роботом Google.
Вопросы, которые вы должны задать при изучении стратегии мета-роботов:
• Если на некоторых страницах есть указания для мета-роботов, позволяют ли они
ботам индексировать те страницы, которые должны быть проиндексированы?
• Если некоторые страницы содержат инструкции для мета- роботов, являются ли
страницы, которые ботам запрещено индексировать, действительно
страницами, которые не должны индексироваться?
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 42 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 43 -
1.2.4. Канонические URL
В теге <head> каждой страницы можно использовать декларации <link
rel="alternate"> и <link rel="canonical">, чтобы указать поисковым системам, что страница
имеет несколько версий, и показать какая из них должна быть проиндексирована.
Если у вас есть одна страница, доступная по нескольким URL, или разные страницы
с практически одинаковым контентом (например, версии для мобильных устройств и
компьютеров), Google будет считать один URL каноническим, а остальные – его копиями.
Сканирование канонического URL будет выполняться чаще, чем сканирование копий.
При этом небольшие различия в контенте, например обусловленные настройками
фильтрации или сортировки, не имеют значения (сортировка по цене или фильтрация
товаров по цвету не делает страницу уникальной). Каноническая страница и ее копии
могут находиться в разных доменах.
Версии одной страницы на разных языках считаются копиями, только если
основной контент написан на одном и том же языке. Иными словами, если переведены
лишь колонтитулы и прочие незначительные текстовые элементы, такие страницы будут
считаться копиями.
Google оценивает контент по каноническим страницам и показывает в результатах
поиска именно их (за исключением случаев, когда другой вариант страницы в большей
степени подходит для пользователя). Например, при поиске на мобильном устройстве
пользователь, скорее всего, увидит в результатах мобильную страницу, даже если
канонической является ее версия для компьютеров.
Выбрать каноническую страницу из числа одинаковых или похожих стоит по
нескольким причинам:
• Чтобы указать, какой URL следует показывать в результатах поиска.
Предположим, вы хотите, чтобы посетители переходили на страницу с
описанием платьев зеленого цвета по адресу
https://www.example.com/dresses/green/greendress.html, а не
https://example.com/dresses/cocktail?gclid=ABCD.
• Для консолидации переходов на одинаковые или повторяющиеся страницы. Это
позволит поисковым системам объединить всю информацию, которая у них есть
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
о разных страницах (например, ссылки на них), и связать ее с одним URL. Так,
ссылки с других сайтов на страницу
https://example.com/dresses/cocktail?gclid=ABCD будут объединены со
ссылками на страницу https://www.example.com/dresses/green/greendress.html.
• Чтобы упростить получение статистики по отдельным товарам или темам. Если
контент размещен на нескольких страницах с разными URL, это затрудняет
получение обобщенной статистики по нему.
• Для управления скопированным контентом. Если вы размещаете контент в
других доменах, нужно, чтобы в результатах поиска появлялся основной URL.
• Чтобы оптимизировать сканирование сайта. У робота Googlebot должна быть
возможность обрабатывать новый и обновленный контент, не тратя время на
множество вариантов страниц, например предназначенных для разных типов
устройств. В противном случае ваш сайт не будет сканироваться эффективно.
Чтобы узнать, какую страницу алгоритмы Google считают канонической,
воспользуйтесь инструментом проверки URL https://search.google.com/searchconsole?action=inspect
Обратите внимание
Даже если вы явно укажете канонический URL, Google может выбрать другую
страницу. Это зависит от многих факторов, например от контента
страницы, PageRank, внутренних ссылок, наличия страницы в xml-карте
сайта, ее эффективности в Google Поиске и т.д..
Чтобы указать, является ли страница канонической, можно использовать тег <link>
в разделе head HTML-документа.
Предположим, вы хотите назначить канонической страницу
https://example.com/dresses/green-dresses, в то время как ее контент доступен и по
другим URL. Выполните следующие действия:
Пометьте все копии страницы при помощи тега link с атрибутом rel="canonical".
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 44 -
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
- 45 -
Добавьте в раздел <head> всех копий страницы элемент <link>, содержащий
атрибут rel="canonical" и ссылку на каноническую версию. Пример:
<LINK REL="CANONICAL" HREF="HTTPS://EXAMPLE.COM/DRESSES/GREEN-DRESSES" />
Если у канонической страницы есть вариант для мобильных устройств, добавьте на
нее тег link с атрибутом rel="alternate" и ссылкой на мобильную версию:
<LINK REL="ALTERNATE" MEDIA="ONLY SCREEN AND (MAX-WIDTH: 640PX)"
HREF="HTTPS://M.EXAMPLE.COM/DRESSES/GREEN-DRESSES">
В случае необходимости добавьте атрибуты hreflang или настройте переадресацию
другими способами.
Обратите внимание
Теги link с атрибутом rel="canonical" должны содержать абсолютные пути, а
не относительные.
Если у вас есть доступ к настройкам сервера, то для HTML-страниц, PDF-файлов и
других поддерживаемых Google Поиском документов канонические URL можно указывать
с помощью атрибута rel="canonical" в HTTP-заголовке, а не HTML-теге.
Например, если на вашем сайте один и тот же PDF-файл доступен по нескольким
URL, вы можете использовать HTTP-заголовок с атрибутом rel="canonical", чтобы сообщить
роботу Googlebot, какой из этих URL является каноническим:
LINK: <HTTPS://WWW.EXAMPLE.COM/DOWNLOADS/WHITE-PAPER.PDF>; REL="CANONICAL"
Для HTTP-заголовка с атрибутом rel="canonical" действуют те же рекомендации, что
и для тега link с атрибутом rel="canonical".
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 46 -
Как альтернатива – можно указать канонический URL для каждой страницы в файле
Sitemap. По умолчанию, все страницы в xml-карте сайта предполагаются в качестве
канонических. Роботы Google будут определять, какие из них являются повторяющимися
(при наличии), по их контенту.
Обратите внимание
Не включайте в файл Sitemap неканонические страницы, если вы его
используете.
Иногда, в качестве канонической страницы, алгоритмы Google выбирают URL
внешней страницы, на которой без разрешения размещен ваш контент. Если ваши
материалы были опубликованы на другом сайте в нарушение авторских прав, вы можете
обратиться к владельцу сервера этого сайта с просьбой их убрать. Вы также можете
запросить в Google удаление страницы с украденными материалами так, как указано вот
здесь: https://support.google.com/legal/answer/1120734
Выводы по главе
Итак, проверка индексации сайта – это первое, с чего нужно начинать технический
анализ. И для этой проверки лучше использовать GSC, чем данные собранные краулрами,
такими как Site Analyzer или Screaming Frog SEO Spider.
Всё дело в том, что Google достаточно вольно обращается и с директивами
robots.txt и с указанием канонических версий страниц. Он может как проиндексировать
закрытые от индексации страницы, так и не проиндексировать открытые для индекса.
При этом все программы – краулеры опираются на идеальные случаи, когда робот
строго соответствует указанным правилам (или не учитывает эти правила вовсе). Таким
образом выстраиваемая модель сайта, значительно отличается от того, что находиться в
индексе поисковых систем. Именно поэтому, помимо использования программ или
сервисов необходима ручная работа по анализу индекса, поиску тех страниц которые не
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
нужны и попали в индекс и их удалению, а также поиску страниц, которые должны быть в
индексе, но туда не попали.
Анализ, поиск недостатков и их устранение (например закртыие страниц от
индексации в мета noindex или физическое удаление ненужного контента), позволяет
экономить бюджет сканирования и перенаправить вес на наиболее нужные и
конвертабельные страницы сайта.
Такие вот дела )))
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 47 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
1.3. Работоспособность и производительность сайта
Производительность и работоспособность сайта - это факторы, которые оказывают
наибольшее влияние на ранжирование по двум чрезвычайно важным причинам. Вопервых, Google признал, что производительность сервера влияет на частоту посещений и
авторитетность сайта. Во-вторых, сайты, которые воспринимаются пользователями как
крайне медленные или глючные, будут иметь меньше переходов из органической выдачи
или (того хуже) будут способствовать "пого- стикингу" (когда пользователь возвращается к
результатам поиска с помощью кнопки "назад", чтобы выбрать другой результат).
Меньшее количество кликов (CTR) и рост "пого-стиков" означает не только
меньшее количество посещений. Они также означают потерю места в SERP – так как эти
типы поведения пользователей также являются факторами ранжирования.
Аудит производительности сервера направлен на проверку параметров:
•
Ваш сервер работает и доступен (нет ошибок 5xx).
• Ваш сервер использует соответствующие протоколы безопасности
• (HTTPS).
• Ваш сервер своевременно отвечает на запросы (скорость страницы).
• Ваш сервер правильно предоставляет содержимое страницы (скорость и
состояние страницы).
• Ошибки вашего сервера удобны для пользователя (пользовательские страницы
404).
• Ваш сервер предоставляет одинаковое содержимое страницы посетителям и
ботам (как того требует Google).
Хороший веб-краулер предоставит большую часть информации, необходимой для
аудита сайта. Однако для сравнения результатов, предоставляемых ботам, и результатов,
предоставляемых людям, лучше всего использовать информацию, содержащуюся в логфайлах вашего сервера.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 48 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
1.3.1. Использование HTTPS
HTTPS - это стандарт для передачи информации через Интернет - таких как
запросы, URL-адреса и содержимое URL-адресов - который защищает данные,
передаваемые во время обмена данными между посетителем и сервером.
HTTPS обеспечивает защиту посредством шифрования передаваемых данных,
проверки целостности передаваемых данных и аутентификации того, что отвечающий
сервер является тем, за кого себя выдает.
Этот протокол связи стал основным стандартом, а за использование менее
безопасных протоколов, таких как HTTP, могут наказать ваш сайт.
Аудит должен определить, использует ли ваш сайт соответствующие стандарты и
протоколы.
Для быстрой оценки можно воспользоваться отчетом об удобстве страниц в GSC.
Удобными для пользователей могут считаться только страницы, которые передают
данные по протоколу HTTPS. Однако в отчете об удобстве страниц нельзя посмотреть,
какой протокол используется для конкретного URL. Приводится только соотношение
количества страниц HTTP и HTTPS. Если на вашем сайте слишком много URL, которые
передаются по протоколу HTTP, вы увидите предупреждающий об этом баннер, а в
разделе "HTTPS" будет показываться статус Страницы с ошибками.
В дальнейшем будет показано, как с помощью краулеров собрать полную
информацию о всех страницах, использующих незащищенный протокол.
При первоначальном анализе достаточно убедиться, что есть проблема с HTTPS
страницами и требуется дополнительная работа с ними.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 49 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 50 -
1.3.2. Скорость работы сайта
Скорость работы вашего сайта является фактором ранжирования, особенно при
поиске с мобильного устройства. Короче говоря, если два сайта идентичны, за
исключением скорости сайта, более быстрый сайт будет лучше ранжироваться в SERP.
Цели оценки скорости страницы в ходе технического SEO-аудита - определить
пороговую скорость страницы, при которой снижается посещаемость ботами и
органическими пользователями, составить исчерпывающий список страниц, скорость
которых ниже этого порога, и выявить факторы, вызывающие медленную загрузку этих
страниц.
Проведя перекрестный анализ файлов журнала доступа и результатов
сканирования, вы можете получить прямые ответы на первые два вопроса, а также
собрать необходимую информацию для ответа на третий.
Чем медленнее страница, тем больше вероятность того, что на ней будет меньше
органических посещений. Чем быстрее загружается страница, тем чаще ее просматривают
(скорее всего).
Обратите внимание
Улучшение страниц, загружающихся медленнее, чем за 1 с, более
целесообразно, чем увеличение скорости страниц, которые и так
загружаются менее чем за 1 с.
Если предположить, что ваш сервер отвечает правильно, то фактором,
оказывающим наибольшее влияние на время загрузки, является размер страницы. Длина
страницы и все ресурсы, необходимые для создания контента, вносят свой вклад в размер
страницы. Эти ресурсы включают изображения, видео, встроенные PDF-файлы, css,
шрифты и JavaScript, которые должны быть загружены для отображения конечной
страницы.
Некоторые данные о скорости страниц сайта вы можете получить из отчета об
основных интернет показателей. Там группируются данные отдельно для мобильной и
десктопной версии сайта.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 51 -
Изучите список страниц, которые генерируют проблемы со скоростью сайта.
Однако, наиболее точные данные вы можете получить в выгрузках из API GSC или анализе
логов журналов доступа.
Выявив слишком большие страницы, вы можете уменьшить их размер, используя
следующие стратегии:
• Сжатие HTML
• Минимизация JavaScript и CSS
• Уменьшение размеров изображения
• По возможности переместите скрипты, которые мешают рендерингу страницы,
на более поздний этап процесса загрузки
Кэширование:
• Используйте кэширование браузера
• Используйте CDN
Ответ сервера:
• Улучшите скорость работы сервера
• Сократите количество перенаправлений
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 52 -
1.3.3. Состояние страницы (коды статуса HTTP)
На каждый запрос к URL-адресу сервер отвечает статусом страницы, который
указывает на доступность содержимого для этого URL-адреса. Отсутствующие страницы
(404) и ошибки сервера (например, 503) указывают поисковым системам на то, что
информация на вашем сайте не всегда доступна в ответ на поиск пользователя.
Постоянные коды состояния из серий 4xx и 5xx могут негативно повлиять на
ранжирование страницы.
Иногда коды состояния, отличные от 200 ("ok"), являются намеренными, например,
когда вы изменили URL страницы и использовали код состояния 301 для
перенаправления на новый URL. Коды 3xx предоставляют поисковым системам важную
информацию об изменениях на вашем сайте. Google четко заявил, что коды 3xx передают
"сок ссылок" и рейтинг страницы на новый URL, который в конечном итоге должен
заменить старый URL в SERP.
В GSC существуют отчеты об индексировании страниц, где выводятся найденные
страницы с ошибочными кодами состояния.
Наиболее распространенные коды состояния HTTP, которые вы можете увидеть,
включают в себя следующие (кроме 2xx кодов, которые не отражаются в отчете).
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
2xx (success) - Роботы Google проверяют, можно ли проиндексировать контент.
Если контент не загружается, например появляется пустая страница или сообщение об
ошибке, в Search Console будет зарегистрирована ошибка soft 404.
• 200 (success)
- Страница передается на индексирование. Алгоритмы Google
могут проиндексировать контент, но это не гарантировано.
• 201 (created) и 202 (accepted) - Робот Googlebot ждет некоторое время, не
загрузится ли страница, а затем передает ее для индексирования. Время
ожидания зависит от агента пользователя. Например, у робота Googlebot для
смартфонов и у Googlebot Image оно разное.
• 204 (no content) - Робот Googlebot сообщает алгоритмам индексирования, что
контент не получен. В отчете об индексировании сайта может быть указана
ошибка soft 404.
3xx (redirection) - Робот Googlebot выполняет до 10 переходов в цепочке
переадресаций. Если за это время поисковый робот не получает контент, в отчете об
индексации сайта Search Console будет указана ошибка переадресации. Количество
переходов робота Googlebot зависит от агента пользователя, например у роботов
Googlebot Smartphone и Googlebot Image оно будет отличаться. Googlebot выполняет пять
переходов в цепочке переадресаций согласно спецификации RFC 1945. Затем он
прерывает операцию и интерпретирует ситуацию как ошибку 404. Роботы игнорируют
любой контент, получаемый с URL переадресации. При индексировании используется
контент, размещенный по конечному целевому URL.
• 301 (moved permanently) - Робот Googlebot выполняет переадресацию, а
алгоритм индексации интерпретирует это действие как явный сигнал того, что
перенаправление должно выполняться на каноническую страницу.
• 302 (found) и 303 (see other) -Робот Googlebot выполняет переадресацию, а
алгоритм индексации интерпретирует это действие как неявный сигнал того, что
перенаправление должно выполняться на каноническую страницу.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 53 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
• 304 (not modified) - Робот Googlebot сообщает алгоритму индексирования, что
страница не была изменена с момента предыдущего сканирования. В связи с
этим система может по-новому интерпретировать сигналы, относящиеся к
определенному URL. Если же она этого не сделает, то код статуса не повлияет на
индексацию.
• 307 (temporary redirect) - Этот код интерпретируется так же, как и 302.
• 308 (moved permanently) - Этот код интерпретируется так же, как и 301.
4xx (client errors) - Роботы Google не индексируют URL с кодом статуса 4xx, а те URL,
которые уже проиндексированы и выдают код статуса 4xx, удаляются. Роботы Googlebot
игнорируют любой контент, получаемый с URL, которые возвращают код статуса 4xx.
• 400 (bad request) и 401 (unauthorized) и 403 (forbidden) - Все ошибки 4xx, за
исключением 429, обрабатываются таким же образом. Googlebot сообщает, что
контент отсутствует. Не используйте коды статусов 401 и 403 для ограничения
частоты сканирования. Коды статусов 4xx, за исключением 429, не влияют на
нее.
• 404 (not found) и 410 (gone) - Если ранее URL был проиндексирован, то он будет
удален из индекса. Обнаруженные страницы с кодом 404 не обрабатываются.
Частота сканирования постепенно снижается.
• 429 (too many requests) - Робот Googlebot интерпретирует код статуса 429 как
сигнал того, что сервер перегружен и что имеет место его ошибка.
5xx (server errors) - В случае ошибок сервера 5xx и 429 роботы Google временно
замедляют сканирование. Уже проиндексированные URL сохраняются в индексе, но в
скором времени удаляются. Если файл robots.txt выдает ошибку сервера более 30 дней,
будут выполняться правила, указанные в последней кешированной копии этого файла.
Если такой копии нет, роботы Google будут действовать без ограничений. Роботы
Googlebot игнорируют любой контент, получаемый с URL, которые возвращают код
статуса 5xx.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 54 -
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
- 55 -
• 500 (internal server error) и 502 (bad gateway) и 503 (service unavailable) - Робот
Googlebot снижает скорость сканирования сайта. Частота сканирования
уменьшается пропорционально количеству отдельных URL, которые возвращают
ошибку сервера. Google удаляет из индекса URL, постоянно возвращающие
такую ошибку.
Особняком стоят ошибки soft 404. Ошибкой soft 404 называется ситуация, когда
посетитель веб-страницы видит сообщение о том, что ее не существует, при этом браузер
получает ответ с кодом статуса 200 (success). Этот код означает "Успешно". В некоторых
случаях открывается страница, на которой нет основного или вообще никакого контента.
Такие страницы создаются веб-сервером, где размещен сайт, системой управления
контентом или браузером пользователя. Причины могут быть разными. Пример:
• Ошибка при обращении к базе данных
• Пустая внутренняя страница результатов поиска
• Незагруженный или отсутствующий по другой причине файл JavaScript
Не рекомендуется возвращать код статуса 200 (success), а затем выводить
сообщение об ошибке или указывать на наличие ошибки на странице. Пользователи
могут подумать, что попали на действующую страницу, но после этого увидят сообщение
об ошибке. Подобные страницы исключаются из Google.
Обратите внимание
Если алгоритмы Google по контенту страницы определяют, что она
содержит сообщение об ошибке, то в отчете об индексировании этого
сайта в Search Console будет указана ошибка soft 404. Для коммерческих
сайтов это может быть сообщение об отсутствующем товаре.
Есть разные способы устранения ошибок soft 404 в зависимости от типа сайта,
состояния сайта и от желаемого результата:
• Если страница удалена и для нее нет замены на вашем сайте с аналогичным
контентом, нужно отправлять ответ с кодом статуса 404 (not found) или 410
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 56 -
(gone). Эти коды статуса сообщают поисковым системам, что страницы не
существует, а контент не нужно индексировать. Если у вас есть доступ к файлам
конфигурации вашего сервера, страницы с сообщениями об ошибках можно
сделать полезными для пользователей. Например, на такой странице 404 вы
можете разместить функции, которые помогут посетителям в поиске нужной
информации, или полезный контент, который удержит их на вашем ресурсе.
• Если страница перенесена или у нее есть замена, отправляйте ответ с кодом 301
(permanent redirect), чтобы перенаправлять пользователей. Посетителям сайта
это не помешает, а поисковые системы узнают новое расположение страницы.
Чтобы узнать, правильный ли код ответа отправляется при открытии страницы,
используйте инструмент проверки URL.
• Если нормально работающая страница вызвала ошибку soft 404, вероятно, она
не была корректно загружена роботом Googlebot, во время отрисовки не были
доступны важные ресурсы или показывалось заметное сообщение об ошибке.
Проанализируйте отрисованный контент и код ответа HTTP с помощью
инструмента проверки URL. Если на обработанной странице нет или очень мало
контента или он вызывает ошибку, ошибка soft 404 может быть обусловлена
тем, что страница содержит ресурсы (например, изображения, скрипты и прочие
нетекстовые элементы), которые не удается загрузить. Возможные причины
проблем с загрузкой – блокировка доступа в файле robots.txt, слишком большое
количество ресурсов или слишком большой их размер, а также любые ошибки
сервера.
Итак, аудит состояния страниц должен выявить:
• Все страницы, вызывающие ошибки сервера (5xx). Эти ошибки должны быть
исправлены.
• Все страницы, которые возвращают ошибки 4xx. Хотя эти страницы не
обязательно негативно влияют на ваше SEO, они расстраивают пользователей.
Они должны быть исправлены или перенаправлены с кодом состояния 3xx.
• Все страницы, перенаправленные с помощью кода 3xx, и страница, на которую
они перенаправлены.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
1.3.4. Анализ редиректов
Постоянная модификация сайта иногда может создавать цепочки кодов 3xx, где
страница A перенаправляется на страницу B, которая перенаправляется на страницу C... и
т.д.
После 5 ссылок Google перестает отслеживать перенаправления, а примерно после
20 ссылок браузер выдает ошибку, хотя это число варьируется в зависимости от браузера.
Некоторые цепочки зацикливаются сами на себе: страница C перенаправляется - не
на страницу D, а обратно на страницу B. Это создает бесконечную петлю.
Обследование вашего сайта, включая все страницы со статусом 3xx, позволит вам
обнаружить цепочки и петли перенаправления.
Для начала изучите отчет в GSC, указывающий страницы с переадресацией
В дальнейшем, используя краулер, мы сможем собрать все такие страницы с
переадресацией и ссылки и редиректы их порождающие и исправить эту проблему.
Существует несколько типов редиректа
HTTP Redirects
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 57 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Вот как работает HTTP-перенаправление:
Браузер пользователя запрашивает старый (перенаправленный) URL. Сервер
автоматически отображает веб-страницу для нового URL (цель перенаправления).
С точки зрения пользователя, HTTP-перенаправления абсолютно бесшовные.
В технических терминах такие перенаправления называются перенаправлениями
на стороне сервера. Потому что ваш веб-сервер (на котором размещен ваш сайт)
позаботится об этом еще до загрузки сайта.
Для этого он отвечает HTTP-кодом 3xx, когда получает запрос на перенаправление
URL.
Эти коды 3xx - как инструкции для вашего браузера. Они указывают, что
запрашиваемый URL был перенаправлен. И где найти новую веб-страницу (цель
перенаправления).
Вот простой список наиболее распространенных типов кодов 3xx (и что они
означают, когда сервер посылает их):
•
301: Перемещено навсегда
•
302: Временно перенаправлен
•
303: Перенаправлено временно
•
307: Временно перенаправлено
•
308: Перенаправление на постоянной основе
Meta Refresh Redirects
Обновление метаданных происходит на уровне страницы (на стороне клиента), а
не на уровне сервера. Это означает, что они происходят в вашем браузере, а не на
сервере, в отличие от HTTP-перенаправлений.
Если вам необходимо сделать перенаправление, то для SEO лучше использовать
HTTP-перенаправления, чем мета-перенаправления.
Мета-переадресация может запутать Google и посетителей сайта. Они работают
медленнее (ухудшая пользовательский опыт). И они могут привести к тому, что Google
проиндексирует не ту страницу.
Но Google рекомендует перенаправление с помощью мета-рефреша только в том
случае, если вы не можете использовать перенаправление на стороне сервера. Это
связано с тем, что они медленнее и не передают столько ссылочного сока.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 58 -
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
Существует два типа перенаправлений meta refresh: мгновенные и отложенные.
Мгновенные мета-редиректы срабатывают сразу после загрузки страницы в
браузер. Google интерпретирует их как постоянные редиректы.
Они выглядят следующим образом:
<META HTTP-EQUIV="REFRESH" CONTENT="0; URL=HTTPS://WWW.EXAMPLE.COM/">.
Перенаправления с задержкой обновления мета-файла срабатывают через
выбранное вами количество секунд. Google интерпретирует их как временные
перенаправления.
Вот пример, который срабатывает через пять секунд:
<META HTTP-EQUIV="REFRESH" CONTENT="5; URL=HTTPS://WWW.EXAMPLE.COM/">
Редиректы на JavaScript
Редиректы JavaScript также происходят на стороне клиента, а не на стороне
сервера.
Как и перенаправления meta refresh, они не рекомендуются для SEO. Это связано с
тем, что Google может неправильно индексировать ваши страницы при перенаправлении
с помощью JavaScript. А это может негативно сказаться на рейтинге вашего сайта в
результатах поиска.
Тесты показывают, что Google относится к JavaScript-перенаправлениям так же, как
и к 301-му. Но это не гарантировано, так что, возможно, при использовании этого типа
перенаправления вам не повезет с авторитетностью страницы.
Вот пример JavaScript-перенаправления в вашем HTML-коде:
WINDOW.LOCATION.REPLACE("HTTPS://EXAMPLE.COM");
Использование редиректов и возможные последствия.
Важно
Всегда перенаправляйте на близкое по содержанию содержимое
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 59 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Когда вы устанавливаете перенаправление, убедитесь, что содержание новой
страницы близко к содержанию старой страницы.
Например, перенаправление страницы специальных предложений с истекшим
сроком действия на главную страницу специальных предложений вместо главной
страницы имеет гораздо больше смысла.
Если вы перенаправляете старый URL-адрес на URL-адрес, который не является
релевантным, поисковые системы могут не передать авторитет старой страницы. Это
может привести к мягкому 404.
Мягкий 404 происходит, когда сервер отправляет HTTP-статус "200 OK", но Google
считает, что страница должна быть 404. (Код состояния 200 означает, что запрос был
успешным по мнению сервера).
Такая проблема может возникнуть, если на вашей странице нет контента
(например, пустая страница категории продукта или категории блога), если ваша страница
кажется не связанной с перенаправленной страницей или если на странице отображается
сообщение 404 (но при этом отправляется HTTP-статус 200).
Технически, мягкий 404 - это не код статуса. Это скорее метка, которую Google
использует, чтобы понять смысл страницы.
Google, по сути, пропускает настоящие страницы 404. Этого не происходит с
ошибками soft 404, поэтому лучше избегать их и исправлять все существующие ошибки.
Найти soft 404 можно с помощью Google Search Console.
Search Console отмечает soft 404 как ошибки. В разделе "Ошибки" под графиком
будет приведен список URL-адресов, которые выглядят как soft 404.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 60 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Как только вы найдете soft 404 ошибки, настанет время их исправить.
Для всех soft 404, связанных с перенаправлениями, обновите перенаправление,
чтобы оно указывало на наиболее релевантную страницу.
Избегайте цепочек и петель перенаправлений
Цепочка перенаправлений - это когда между исходным и конечным URL
существует более одного перенаправления.
Допустим, URL страницы ранее был www.yoursite.com/about-the-company/ (URL A),
а затем был перенаправлен на www.yoursite.com/about-us/ (URL B).
Если вы позже перенаправите новый URL на www.yoursite.com/about/ (URL C), это
создаст цепочку перенаправлений.
Потому что теперь первый URL перенаправляет на второй URL. А второй URL
перенаправляет на третий URL.
Google может без проблем проследить до 10 "скачков" перенаправления. Но
будьте осторожны и не усложняйте ситуацию.
Слишком длинные цепочки перенаправлений могут задерживать сканирование,
приводить к потере ссылочной массы и увеличивать время загрузки страницы. Это может
навредить вашему SEO и разочаровать пользователей.
Чтобы исправить эту проблему, сделайте перенаправление прямо с URL A на URL C,
не останавливаясь на URL B.
Петля перенаправления возникает, когда URL перенаправляет на другой URL. А
второй URL перенаправляет обратно на исходный URL. Это создает бесконечный круг
перенаправлений. Это перенаправление нарушено и не направляет посетителей или
поисковые системы к месту назначения.
Исправьте петли перенаправления, выбрав "правильную" страницу и убедившись,
что другая страница перенаправляет на нее. Затем удалите другой редирект, вызвавший
петлю.
Избегайте ссылок на страницы с перенаправлениями
Допустим, вы перенаправляете старую страницу на новую. Возможно, на вашем
сайте есть другие страницы, которые по-прежнему ссылаются на старую страницу.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 61 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
В этом случае пользователи будут переходить по старой ссылке. А затем
перенаправляются на новый URL.
Пользователи, скорее всего, не заметят этого. Но это дополнительное
перенаправление может со временем привести к цепочке перенаправлений, если вы не
будете помнить о ее поддержании.
Поэтому лучше всего изменить старые внутренние ссылки на URL вашей новой
страницы.
Перенаправление для предотвращения дублирования контента
Нередко бывает, что сайт существует на нескольких поддоменах (не-www и www,
HTTP и HTTPS и т.д.).
Например, http://example.com и https://example.com указывают на один и тот же
домен.
Поисковые системы рассматривают их как отдельные сайты, что по умолчанию не
так уж плохо. Однако, если вы не будете осторожны, это может привести к проблемам с
дублированным контентом.
По сути, вы можете разделить трафик и конкурировать сами с собой, если Google
не будет знать, на какую версию вашего сайта направлять пользователей.
Вы можете легко решить эту проблему, сделав 301 перенаправление всех
вариантов страницы на один URL. Это направит Google на предпочитаемую вами страницу
(цель перенаправления).
Используйте перенаправления для предотвращения дублирования контента в
следующих случаях:
•
URL не www и www
•
HTTP и HTTPS URL
•
URL с косой чертой (/) и URL без косой черты
•
URL с заглавной и строчной буквы
При необходимости перенаправьте каждую дублирующую страницу.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 62 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
В ходе аудита:
• Определите все страницы, которые являются частью цепочек и циклов
перенаправления
• Определите все петли и все цепи длиной более 5 звеньев
• Определите ссылки, указывающие на страницы со статусом 3xx в цепочке
перенаправлений. Их следует изменить, чтобы они указывали на конечную
страницу в цепочке.
Выводы по главе
Избавление от ошибок, вызываемых 4xx и 5xx страницами позволяет резко
повысить качество сайта, указать Google наиболее важные страницы сайта и не тратить
попусту бюджет сканирования.
Избавление от ненужных переадресаций, цепочек редиректов позволяет повысить
скорость работы сайта, улучшить пользовательский опыт и, в конечном итоге, улучшить
ранжирование и конвертацию сайта.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 63 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 64 -
1.4. Структура сайта
Структура сайта - важный элемент технического SEO-аудита, особенно учитывая
важность структуры сайта для Google.
Структура сайта включает в себя то, как формируются URL-адреса страниц, как
связаны страницы на сайте и как пользователь (или поисковая система) понимает цель
вашего сайта в целом и его отдельных разделов.
Из многих источников, в том числе из руководства Google для веб-мастеров о том,
как создать удобный для Google сайт, мы знаем, что Google анализирует архитектуру
вашего сайта. Например, Google советует: "Разрабатывайте свой сайт так, чтобы у него
была четкая концептуальная иерархия страниц".
Google использует понимание архитектуры сайта, чтобы уяснить, о чем конкретно
ваш сайт. Google может использовать структуру вашего сайта, чтобы предлагать
пользователям тематические страницы категорий в результатах поиска, например
формируя быстрые ссылки в сниппете сайта
Кроме того, страницы вашего сайта, связанные между собой, передают друг другу
популярность и авторитет. Сильная структура внутренних ссылок укажет Google, какие
страницы вы считаете наиболее важными. Стратегии, основанные на внутренней
структуре сайта, доказали свою успешность в повышении рейтинга определенных страниц
сайта.
В ходе аудита следует рассмотреть различные элементы организации сайта, чтобы
определить текущую структуру и выявить возможности ее улучшения.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
1.4.1. Хлебные крошки
Хлебные крошки - это текстовый список все более узких категорий, ведущих к
текущей странице, который обычно находится под заголовком страницы, в верхней части
ее содержимого.
Строка навигации отражает положение страницы в иерархии сайта. Она помогает
пользователям ориентироваться на сайте. Пользователи могут переходить по ссылкам от
нижнего уровня сайта к верхнему, вплоть до главной страницы. Во многих случаях они
служат разновидностью навигационной структуры, хотя они не обязательно должны
повторять навигацию вашего меню. Их также можно использовать для отображения
иерархии разделов, ведущих к текущей странице.
Хлебные крошки полезны для SEO, поскольку они представляют важные
структурные категории сайта, что помогает поисковым системам понять ваш контент.
Кроме того, они представлены в структурированном виде, что облегчает их поиск и
понимание поисковыми системами.
Хлебные крошки обеспечивают лучший пользовательский опыт, удерживая
посетителей на сайте и повышая уверенность поисковых систем в том, что сайт отвечает
на вопросы пользователей. Это тем более актуально для пользователей мобильных
устройств, где хлебные крошки зачастую легче увидеть и следовать за ними, чем
используя главное навигационное меню.
Хлебные крошки особенно полезны на сайтах такого типа:
• сайты электронной коммерции
• крупные блоги
• базы знаний
• большие или сложные сайты
Ваш аудит должен определить, где и как на сайте используются хлебные крошки,
чтобы ответить на следующие вопросы:
• Используются ли на вашем сайте хлебные крошки?
• Являются ли названия категорий хлебных крошек короткими и понятными?
• Используются ли хлебные крошки во всех подходящих местах?
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 65 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
1.4.2. Глубина страниц
Глубина страницы - это количество кликов по внутренним ссылкам, по которым
пользователь должен перейти, чтобы попасть на данную страницу. Это еще одна
концепция, которая влияет на SEO как с точки зрения UX, так и с точки зрения поисковых
систем.
Вы можете получить представление о поведении ваших пользователей в Google
Analytics, заглянув в Поведение --> Карта поведения. На начальной странице вы увидите
100% сеансов, но возможно, только 8% на втором шаге, 3% на третьем, менее 1% на
четвертом и так далее. Чем больше пользователю приходится кликать, тем меньше
вероятность того, что он попадет на конечную страницу.
Это справедливо и для веб-краулеров поисковых систем. Проанализировав сотни
сайтов, было обнаружено, что чем дальше страница от главной страницы, тем меньше
Google ее просматривает. Впоследствии это было подтверждено Google: расстояние от
главной страницы влияет на важность страницы, которая используется как фактор
ранжирования.
Ваш аудит должен определить:
• Сколько и какого типа страниц найдено на какой глубине
• Оказывает ли глубина страницы негативное влияние на индексацию и
ранжирование ваших страниц, сравнивая количество просмотренных страниц с
их глубиной, и количество ранжированных страниц с их глубиной.
Если аудит выявит возможности для улучшения, в дело вступит ваша стратегия
внутренней перелинковки.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 66 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
1.4.3. Внешние ссылки
Внешние ссылки - это ссылки на URL-адреса вашего сайта из внешних источников,
то есть с других сайтов.
Внешние ссылки используются поисковыми системами для определения
авторитетности сайта в определенной теме. Поскольку авторитет становится все более
важным для ранжирования по конкурентным ключевым словам, сбор легитимных
обратных ссылок из надежных, тематических источников является важной частью
комплексной стратегии SEO.
Эти ссылки повышают доверие к вашему сайту и увеличивают его посещаемость.
Они должны размещаться на страницах, которые являются частью структуры вашего сайта
(на них должна ссылаться другая страница вашего сайта), и они должны передавать свой
"ссылочный сок" другим связанным страницам вашего сайта (ссылаться на них).
Страницы, получающие обратные ссылки, должны создавать хорошее впечатление о
вашем сайте: они должны загружаться корректно и с приемлемой скоростью.
Перекрестный анализ между данными сканирования и данными, полученными с
помощью инструментов анализа обратных ссылок (например, Majestic SEO), позволит
получить представление о результатах аудита. Сюда можно отнести влияние обратных
ссылок на органический трафик, поведение ботов и их распределение по сайту в
зависимости от таких факторов, как типы страниц или глубина страницы.
Вы также должны понимать, что спамные обратные ссылки (внешние ссылки с
плохих, опасных, не относящихся к теме сайтов) могут навредить вашему SEO.
Целью вашего аудита должно быть выявление:
• Какие страницы получают внешние ссылки?
• Функциональны ли страницы, на которые ставятся обратные ссылки:
• Является ли их HTTP-статус 200?
• Получают ли они ссылки с других страниц вашего сайта?
• Какие сайты ссылаются на ваш?
• Существует ли корреляция между страницами с обратными ссылками и
ранжированием?
• Передают ли внутренние ссылки на другие страницы вашего сайта эффект,
полученный вашей страницей от внешней ссылки?
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 67 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
1.4.4. Внутренние ссылки и популярность
Как уже упоминалось выше, внутренние ссылки - это инструменты для создания
архитектуры сайта и передачи популярности и доверия от одной страницы к другой.
Основные правила внутренней перелинковки таковы:
• Ограничьте объем ссылок на странице до разумного. Не забывайте, что сюда
входят все ссылки в шапке, меню, боковой панели и футере.
• Ссылайтесь с главных страниц (например, с домашней страницы) на страницы
категорий, а со страниц категорий - на все страницы в этой категории, создавая
тематические кластера.
• Создавайте связи между категориями.
• Ссылки с популярных страниц, которые получают много посещений, чтобы
распространить популярность.
• Ссылайтесь на страницы, популярность которых вы хотите повысить.
В ходе аудита вы должны понять:
• Какие группы страниц ссылаются на другие группы страниц?
• Какие группы страниц получают больше всего ссылок?
• Какова взаимосвязь на вашем сайте между ссылками на страницу (внутренними
ссылками) и посещаемостью ботами? Используйте оптимальный объем для
улучшения страниц с низкими показателями.
• Какова взаимосвязь между внутренними ссылками и органическим трафиком?
Используйте оптимальный объем для улучшения страниц с низкими
показателями.
• Есть ли на сайте страницы, которые имеют слишком много ссылок
• Есть ли на сайте страницы, которые имеют слишком мало ссылок
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 68 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
1.4.5. Неработающие ссылки
Неработающие (битые) ссылки - это внутренние ссылки сайта, которые не
позволяют пользователю попасть по назначению. Обычно это происходит из-за ссылок на
страницы 4xx (например, неправильный URL или отсутствующая страница) или 5xx
(ошибки сервера).
Помимо проблем с UX, поисковые системы будут понижать и в конечном итоге
деиндексировать страницы, которые невозможно найти.
Отдельные SEO-специалисты (и я в том числе) также рассматривают статус 3xx как
индикатор неработающей ссылки: хотя перенаправление помогает человеку попасть туда,
куда он хотел, ссылка сама по себе не справляется с задачей. Google также может не
проиндексировать страницу, которая известна ему только как цель перенаправления 3xx,
поэтому необходимо изменение внутренних ссылок со страниц перенаправления на
обновленную страницу со статусом 200. Это гарантирует, что обновленная страница, на
которую вы отправляете пользователей и ботов, будет проиндексирована.
Ваш технический аудит должен создать список ссылок для исправления:
• Внутренние ссылки, ведущие на страницу со статусом 4xx или 5xx
• Внутренние ссылки, ведущие на страницу со статусом 3xx
1.4.6. Субдомены
Для целей сканирования и индексации Google официально рассматривает
поддомены: https://subdomain. example.com/page/
и подпапки https://www.example.com/subfolder/page/
примерно одинаково.
Некоторые оптимизаторы предпочитают использовать вложенные папки, потому
что за пределами индексирующих ботов Google рассматривает отдельные поддомены как
отдельную "сущность" – т.е. как независимый сайт. Считается, что поддержание и
продвижение поддоменов, которые могут рассматриваться как отдельные сайты, требует
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 69 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
больше усилий. Это означает, что они будут ранжироваться отдельно, и рейтинг и
ранжирование, которое добились на одном поддомене, не обязательно перейдет на
другой.
Другие оптимизаторы предпочитают использовать поддомены, особенно если
речь идет о совершенно разных типах контента, либо при разнесении YMYL и не-YMYL
контента.
В ходе аудита поддомены должны рассматриваться как часть проверяемого сайта,
если только у вас нет веских причин не делать этого. Во время аудита вы должны изучить
те же факторы для поддоменов, что и для основного сайта.
1.4.7. Утерянные страницы (Orphan page)
Утерянные страницы или страницы – сироты или Orphan Page - это страницы,
которые не включены в структуру вашего сайта. У них нет "родителей", или страниц,
которые ссылаются на них, либо все ссылки, ведущие на эту страницу закрыты от
индексации.
Это означает, что они не пользуются никакими сигналами, которые сайт может
дать странице, чтобы показать ее важность, например, размещением ссылок на нее с
важных страниц, рост объема ссылок на нее со страниц схожей тематики или
предоставление пользователям возможности попасть на нее с главной страницы всего за
несколько кликов. Следовательно, страницы-сироты никогда не смогут ранжироваться так
хорошо, как должны.
Избавление от «утерянных» страниц – это быстрый путь для улучшения качества
сайта. Это позволяет улучшить рейтинг и производительность такой страницы путем ее
интеграции в структуру сайта.
Сиротские страницы могут создаваться, например, при реструктуризации сайтов,
истечении срока действия страниц, а также при удалении страниц или ссылок вне аудита.
Ваш технический анализ сайта должен:
• Выявить все бесхозные страницы
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 70 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
• Выделить среди них активные утерянные страницы -т.е. те, которые
ранжируются и получают органический трафик. Эти страницы уже работают
относительно хорошо и могут получить наибольшую пользу от улучшений.
Выводы по главе
Анализ и совершенствование структуры сайта – важнейшее мероприятие,
позволяющее без существенных затрат резко повысить качество сайта в целом и
отдельных разделов в частности. Внедрение тематических кластеров или тематических
коконов, совершенствование внутренней перелинковки – позволяет сконцентрировать
вес отдельных факторов на наиболее важных страницах. Избавление от битых ссылок,
бесконечных и бессмысленных редиректов позволяет улучшить UX, глубже раскрыть
тематику сайта в глазах поисковых систем.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 71 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
1.5. Эффективность ключевых слов
Понимание эффективности ключевых слов является важной частью проведения
технического SEO-аудита. Самым большим фактором успеха является количество
органического трафика, который приходит на страницы сайта.
Чтобы понять, как ваши ключевые слова работают с точки зрения органического
трафика, вам нужно покопаться в исследованиях ключевых слов и URL-адресах
ранжирования, чтобы определить технические характеристики наиболее успешных
страниц и те области вашего сайта, в которых есть возможности для улучшения. Если
техническая проблема, например, скорость страницы, превышающая определенный
порог, затрагивает почти все страницы, нуждающиеся в улучшении, ее устранение даст
результаты. Абсолютно аналогично и с иными техническими факторами.
Чтобы выявить технические проблемы, связанные с эффективностью ключевых
слов, необходимо выбрать соответствующие ключевые слова и проследить за
ранжированием по этим выбранным ключевым словам.
Давайте начнем с изучения ключевых слов.
1.5.1. Исследование ключевых слов
Независимо от того, находитесь ли вы на ранних стадиях создания сайта или уже
являетесь состоявшимся брендом, проведение исследований ключевых слов является
основополагающим фактором успешного технического SEO. Ваши ключевые слова будут
меняться по мере развития вашего сайта, поэтому необходима периодическая оценка
новых ключей, которая должна быть включена в регулярный аудит вашего сайта.
Ниже приведен краткий процесс исследования ключевых слов:
• Составьте список важных и актуальных тем, основываясь на том, что вы знаете о
своем сайте и его предназначении. Подумайте широко о своем бизнесе. О каких
темах вы постоянно пишете в блогах? Какие темы всплывают в разговорах при
обсуждении вашего проекта? Используйте эти вопросы, чтобы помочь уяснить
общие термины, связанные с вашей компанией или сайтом.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 72 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
• Заполните эти тематические области конкретными, связанными ключевыми
словами. Это ключевые фразы, которые вы считаете важными для
ранжирования в поиске.
• Исследуйте соответствующие поисковые запросы. Дополните свой список
дополнительными, связанными ключевыми словами, используя поиск Google
или другие инструменты поиска ключевых слов.
• Проверьте, чтобы в каждой тематическом кластере было сочетание основных
терминов и низкочастотных запросов с длинным хвостом. Основные термины это широкие (и, вероятно, популярные) ключевые слова, а низкочастотные
ключевые слова - это многословные, связанные с основным термином запросы.
Ключевые слова с длинным хвостом обычно включают несколько слов, и по ним
легче ранжироваться из-за меньшей конкуренции.
• Посмотрите, как ваши конкуренты ранжируются по этим ключевым словам.
Здесь есть два момента, на которые следует обратить внимание. Ключевые
слова, по которым ранжируются ваши конкуренты, важны для вас. Однако
ключевые слова из вашего списка, по которым не ранжируются ваши
конкуренты, могут стать для вас отличной возможностью занять отдельную
нишу. Используйте дополнительные инструменты, например SEMrush, для
анализа конкурентов.
• Сузьте свой список, например с помощью Планировщика ключевых слов Google
Ads. Посмотрите на предполагаемый объем поиска для потенциальных
ключевых слов из вашего списка, чтобы выявить те, которые имеют слишком
мало (или слишком много) поисковых запросов.
Теперь, когда у вас есть список ключевых слов, необходимо посмотреть, как ваши страницы в настоящее время ранжируются по ним, чтобы
определить сильные
стороны и возможности сайта.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 73 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 74 -
1.5.2. Ранжирование URL-адресов
URL-адреса, которые ранжируются или появляются на каких то позициях в SERP,
являются подтверждением того, что ваша стратегия SEO работает для выбранных вами
ключевых слов. Рейтинг для каждого URL - это его позиция в SERP (например, первый,
десятый или двадцать третий результат в органической выдаче) в определенный день.
Вы должны отслеживать, как страницы вашего сайта ранжируются по каждому из
ваших ключевых слов. Это поможет определить, какие страницы сайта работают хорошо,
и покажет, где вы можете улучшить ситуацию. Перенос усилий по техническому SEO на
ключевые слова, которые не показывают высоких результатов, поможет улучшить
ранжирование в органическом поиске.
Вы можете использовать основные данные ранжирования ключевых слов из
Google Search Console, чтобы понять, как различные технические факторы влияют на
эффективность ключевых слов.
В ходе аудита следует изучить потенциальную взаимосвязь между эффективностью
ключевых слов и такими факторами, как:
• Тип страницы на сайте, будь то страница продукта, страница блога, целевая
страница...
• Длина ключевого слова
• Брендированные и небрендированные ключевые слова
• Глубина страницы, или расстояние от главной страницы в количестве кликов
• Количество внутренних ссылок, указывающих на страницу
• Время загрузки страницы
• Количество слов на странице
• Оптимизация тега Title
• Показатели внутренней популярности, например оценка объема внутренних
ссылок
• Длина и оптимизация мета-описания
• Использование структурированных данных
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
• Частота сканирования
• И прочие технические факторы, которые можно собрать из аналитики и при
сканировании сайта.
Вы также должны отслеживать, насколько эффективно URL-адреса привлекают
органический трафик на ваш сайт. Упорядочивание URL- адресов по их органическому
трафику - лучший способ определить успех вашей стратегии ключевых слов
Вы можете сделать это вручную, если у вас есть данные Google Analytics. Лично я
делаю упрощенный анализ. Пошагово выглядит он так.
В GSC в отчете «Результаты поиска» (1) устанавливаем диапазон за последние 28
дней (2), включаем все вкладки (3) и (4) и жмем Экспорт (5) в Excel (6)
В загруженном файле нам необходим лист «Страницы». Выбираем его и сортируем
данные по числу кликов.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 75 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Далее, берем выгрузку всех данных из Screaming Frog SEO Spider и через формулу
=ВПР() связываем обе части данных.
После этого мы можем группировать / сортировать / анализировать данные.
Для каждой страницы можно сделать выгрузку из GSC всех ключевых слов, по
которым она ранжируется. Для этоо достаточно добавить новый фильтр по URL (1),
перейти на вкладку Запросы (2), проанализировать эти запросы, по которым ранжируется
страница (3) и можно выгрузить эти запросы в Excel (4).
В итоге аудит ранжирования должен показать:
• Количество органических посещений для каждого ранжируемого URL.
• Уметь упорядочить и анализировать страницы, которые привлекают больше
всего посетителей, от страниц, которые привлекают меньше всего посетителей.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 76 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
1.5.3. Оптимизация страниц
Оптимизация страниц (Onpage Optimization) охватывает все действия, которые
могут быть выполнены на данной странице для улучшения SEO- показателей. Это
вопросы, которые затрагивают каждую страницу в отдельности, а не сайт в целом.
К элементам страницы относится как само содержание страницы, так и метаэлементы в исходном коде страницы, которые используются поисковыми системами для
получения информации о странице.
HTML-теги, используемые в SEO. HTML-теги используются для структурирования
вашего контента и помогают краулерам и людям понять его.
В настоящее время наиболее важными HTML-тегами для SEO являются метатеги,
используемые в SEO (включая тег Title, атрибут Meta Description, атрибут Meta Robots) и
заголовки (H1, H2...).
Тег заголовка Теги заголовка (мета заголовки) являются наиболее важными
тегами, которые необходимо учитывать при создании и аудите вашего контент на
странице. Изначально теги title были разработаны для маркировки окон и вкладок
браузера. Сегодня теги title по-прежнему отображаются в ярлыке вкладки браузера и
поэтому являются одними из немногих метатегов SEO, которые видны вашей аудитории.
Теги заголовков также оказывают большое влияние на результаты ранжирования.
Вот несколько советов по их оптимизации:
• Включите основные ключевые фразы, которые, по вашему мнению, будут
использовать для поиска ваша аудитория. Для ранжировании используется
мета заголовок целиком, даже если он обрезается при выдаче.
• Чем длинней мета заголовок, тем ниже вес и значимость отдельных слов в нем
• Чем левее расположены ключи, тем они ценней
• Если заголовок менее 40 и более 70 символов, то он, скорее всего, будет
переписан при выводе в сниппете, но при этом для целей ранжирования будет
использован изначальный мета заголовок
• Используйте в заголовке ключи с длинным хвостом, чтобы зацепить аудиторию
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 77 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
• Не используйте вертикальную черту | для разделения заголовка на части. Всесто
неё применяйте дефис. Кликабельность такого заголовка в сниппете выше.
В процессе вашего аудита:
• Убедитесь, что каждая страница имеет уникальный заголовок
• Убедитесь, что первые 60 символов заголовка дают представление о том, о чем
страница
• Убедитесь, что в мета заголовок включены ключевые слова
Мета-описание. Описание страницы, которое отображается в SERPs, примерно в
трети случаев берется из атрибута Meta Description, который вы можете использовать для
краткого описания вашего контента.
Поскольку Google пытается адаптировать описания страниц к поисковым запросам,
описание, отображаемое в SERP, может отличаться для каждого поискового запроса. Если
метаописание не используется, Google чаще всего отображает соответствующее
предложение из содержания страницы.
Несколько приемов оптимизации мета заголовков:
• Используйте индивидуальный и уникальный тег мета описания. В противном
случае поисковые системы, скорее всего, покажут первые предложения вашего
контента.
• Стремитесь к тому, чтобы длина мета описания составляла около 70-155
символов
• Не используйте кавычки, так как Google будет их отсекать. Если вы должны
включить цитату, используйте одинарную кавычку ('), а не двойную кавычку (").
• Не набивайте излишне ключевые слова.
• Не используйте одинаковый или слабо уникализированный шаблонный текст.
Это снижает вероятность того, что Google отобразит ваше описание.
• Включите факты о содержании страницы и четко отделите их друг от друга.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 78 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
В процессе технического анализа:
• Убедитесь, что все ваши страницы имеют мета-описание
• Найдите использование шаблонных и дублирующих метаописаний
• Найдите слишком короткие или слишком длинные метаописания
Meta Robots. Атрибут Meta Robots указывает поисковым системам, что делать с
вашими веб- страницами.
• "Index/noindex" указывает поисковым системам, показывать вашу страницу в
результатах поиска или нет.
• "Follow/nofollow" указывает поисковым системам, должны ли они учитывать и
переходить по вашим ссылкам на следующую страницу или нет.
Вот некоторые способы их сочетания:
• Если вы хотите, чтобы боты индексировали текущую страницу и посещали
страницы, на которые она ссылается, используйте "Index, Follow".
• Если вы хотите, чтобы боты индексировали текущую страницу, но не посещали
страницы, на которые вы ссылаетесь на ней, используйте "Index, NoFollow".
• Если вы хотите, чтобы боты не индексировали текущую страницу, но при этом
переходили по ссылкам, которые появляются на странице, используйте
"NoIndex, Follow".
• Если вы хотите, чтобы боты не индексировали текущую страницу и не
переходили по ссылкам на страницы, на которые она ссылается, используйте
"NoIndex, NoFollow".
Мы уже рассматривали выше теги meta robots при изучении индексируемости
страниц, но теперь следует убедиться, что теги страниц используются правильно.
Теги <h1>-<h6>. В этих тегах размещаются заголовки — это названия и
подзаголовки разделов контента, видимых на вашей странице. Они помогают читателям,
включая ботов, ориентироваться в структуре содержимого вашей страницы.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 79 -
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
- 80 -
• Используйте только один <h1> на странице. Он используется для заголовка в
содержании страницы и не должен совпадать с <title>.
• Не прибегайте к набиванию заголовков ключевыми словами. Используйте
ключевые слова и связанные с ключами синонимы в заголовках чтобы помочь
Google определить тему вашего контента.
Проблемы с URL. Большинство советов по созданию и оптимизации URL
направлено на то, чтобы сделать URL более удобным для чтения человеком. Это включает
в себя использование человекочитаемого языка в URL (ЧПУ), использование тире в
качестве знака препинания между словами в URL, добавление ключевых слов в URL и
сохранение относительно короткого URL.
Хотя эти советы относятся к категории улучшений пользовательского опыта (UX), их
все же следует выполнять для SEO. Хотя они не повышают вероятность появления ваших
страниц в результатах поиска, эти оптимизации увеличивают вероятность того, что
пользователь нажмет на ваш URL, когда он появится.
Что касается чисто технического SEO, то Google советует следующее:
• Используйте простую структуру URL.
• Избегайте URL, содержащих множество параметров, которые могут
непреднамеренно создать большое количество возможных URL, что создаст
проблемы для ботов Google. Эта проблема также может возникнуть при
использовании фасетной навигации, или навигации, которая позволяет
пользователям по сути персонализировать страницу с помощью сортировки и
фильтрации.
• Избегайте использования # в URL вашей страницы. Этот хэш-символ
исторически был зарезервирован для ссылок на места внутри страницы, и
Google по-прежнему считает страницы с идентичным содержанием до # одной и
той же страницей.
Важно понимать
Если у вас нет серьезных проблем с URL - лучше не изменять существующие
URL-адреса, если это не требуется в обязательном порядке.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Ваш аудит должен помочь вам ответить на такие вопросы, как:
• Используется ли в моих URL слишком много параметров?
• Тратит ли Google слишком много времени на просмотр моих страниц с фасетной
навигацией?
• Содержат ли URL-адреса, которые я хочу проиндексировать, хэш (#)?
• Является ли моя структура URL простой и легко читаемой?
Размеры медиаматериалов. Медиа, которые вы включаете на свою страницу,
влияют на производительность страницы, в частности, на скорость ее работы. Медиа
может включать изображения, видео, css, JavaScript, шрифты, pdf и любые другие файлы,
которые загружаются для отображения страницы. Страница с большим количеством
больших дополнений к текстовому содержимому будет загружаться гораздо дольше, чем
страница с оптимизированными изображениями и меньшим количеством ресурсов.
Типичные стратегии уменьшения размера страницы включают:
• Удаление ресурсов, которые загружены, но не используются
• Сжатие данных
• Замена встроенных шрифтов на веб-шрифты
• Различные методы оптимизации изображений путем уменьшения их размера,
такие как: замена изображений эффектами CSS, использование
соответствующего разрешения изображений, сжатие изображений,
использование соответствующего формата изображений, ленивая загрузка
изображений и т.д.
Ваш аудит должен найти излишне большие изображения и оптимизировать их
размер, помочь избавиться от ненужных объектов на странице.
Вам необходимо стремиться к идеальному размера страницы менее 100 КБ и
идеальному времени загрузки (TTLB, или время, необходимое для загрузки всей
страницы) менее 500 мс.
Размер контента. Решение об оптимальной длине контента для SEO является
предметом долгих споров. Одни утверждают, что лучше всего работает короткий контент,
состоящий всего из нескольких сотен слов, в то время как другие говорят, что лучше
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 81 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
работает длинный контент, состоящий из 2 000 слов и более. В последнее время
превалирует мнение, что количество слов в вашем контенте не имеет значения.
Ваш аудит должен установить, верно ли это для вашего сайта, определив для
каждого типа контента на вашем сайте, существует ли связь между количеством слов на
странице и глубиной вложения страницы и размером контента (в словах).
В действительности, каждый сайт и каждый тип контента отличаются друг от друга.
Оптимальное количество слов, которое должно быть включено в ваш контент на странице
для каждого типа страниц, можно определить, изучив страницы, которые показывают
наилучшие результаты для каждого типа страниц на вашем сайте.
Независимо от этого, вы всегда должны стремиться создавать контент, который
хорошо написан и является полезным для посетителей.
Вот три ключевых момента, которые следует учитывать при написании контента на
странице:
• Не бойтесь писать короткие и длинные материалы. Скорее всего, и тому, и
другому найдется место в вашем блоге или на сайте.
• Если вы можете написать что-то более сжато, сделайте это! Не усложняйте свой
текст только для того, чтобы увеличить количество слов.
• Проведите исследование блогов или сайтов ваших конкурентов и оцените,
насколько их контент сопоставим с вашим. Попробуйте поэкспериментировать с
новыми идеями и проследите за их результатами.
• Используйте свой аудит для измерения влияния количества слов и
корректируйте свой контент в зависимости от результата.
Наконец, не забывайте, что качество контента и его форматирование для
поисковых систем важнее объема контента.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 82 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 83 -
1.6. Дублированный контент
Дублированный контент - это текст страницы, который одинаково (или практически
одинаково) отображается на разных URL.
Это может произойти на двух (или более) разных страницах, когда:
• ваш основной контент на странице слишком мал по сравнению с вторичным
контентом (header, footer, sidebar, повторяющаяся информация на страницах),
хотя многие поисковые системы снижают вес этих разделов и концентрируются
на основном контенте страницы.
• вы повторно используете стандартный текст в качестве заголовков, названий
страниц или метаописаний, в результате чего сниппеты результатов поиска для
разных страниц выглядят одинаково, хотя страницы не являются таковыми.
• у вас есть две идентичные версии страницы, например для тестирования.
• две похожие страницы, например, страница товара для гвоздя 100 мм и
страница товара для гвоздя 200 мм, содержат минимальные различия. В
данном примере с метизами единственным отличием могут быть миллиметры,
указанные в названии товара.
Наконец, даже если вы не использовали контент в другом месте, дублированный
контент может быть создан CMS (системой управления контентом, например, WordPress),
которая может иметь несколько способов адресации одной и той же страницы.
Важно помнить, что для целей поисковой системы одна страница, на которую
можно попасть по четырем следующим URL-адресам, не выглядит как одна страница.
Вместо этого она выглядит как четыре разные страницы с одинаковым содержанием:
•
https://www.example.com/about/
•
http://www.example.com/about/
•
https://www.example.com/about?utm=my_parameter
•
https://www.example.com/category/article/100/
Проблема, связанная с дублированием контента, довольно проста: Как поисковая
система должна узнать, какой адрес является основным и подходящим для индексации?
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Имейте в виду, что если все эти URL будут проиндексированы и начнут
ранжироваться – то это заставит их конкурировать друг с другом за рейтинг в результатах
поиска и клики пользователей. Возникает пресловутая «канибализация запросов». При
этом позиции в выдаче снижаются для всех страниц по сравнению с позициями,которые
вы могли бы получить для одного URL.
К типам контента, которые следует проверять на полное или частичное
дублирование относятся:
• Названия страниц (мета заголовок)
• Теги H1
• Теги H2 (как правило их проверку опускают)
• Мета-описания
• Текст на полной странице (основной контент)
В результате аудита должен получиться список страниц с проблемами
дублирования, типом проблемы, а также списком страниц, на которых можно найти такое
же содержание.
Лучшим решением является полная уникализация контента, мета заголовков, мета
описания и <h1>.
Когда дублирование контента происходит из-за того, что одна страница имеет
несколько URL-адресов, лучшей стратегией является информирование поисковых систем
о том, какой URL-адрес является правильным, а какие URL- адреса являются
дополнительными указателями на одну и ту же страницу.
Это можно сделать с помощью тега <link rel="canonical"> в заголовке. Этот тег
должен присутствовать на всех URL с дублированным контентом и указывать на ту
страницу, который вы хотите проиндексировать.
Элемент rel=canonical, часто называемый «канонической ссылкой», представляет
собой элемент HTML, который помогает веб-мастерам предотвращать проблемы с
дублированием контента. Он делает это, указывая «канонический URL»,
«предпочтительную» версию веб-страницы. В большинстве случаев это исходный URL.
Использование канонических URL улучшает SEO вашего сайта .
Идея проста: если у вас есть несколько версий одного и того же контента, вы
выбираете одну «каноническую» версию и указываете на нее поисковым системам.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 84 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Добавление канонического элемента к URL-адресу сообщает поисковым системам, что
именно его они должны отображать в своих результатах.
Ваш аудит должен включать список канонизированных URL и URL, на которые они
указывают. Убедитесь, что:
• Все страницы-дубли с различными URL-адресами имеют канонический URLадрес.
• Укажите, имеет ли канонический URL мобильную версию, добавив параметр
<link rel="alternate"> в заголовок канонического URL.
Google имеет несколько отчетов в GSC в разделе страницы – неиндексируемые
страницы, где выводит списки страниц – дублей.
Страница является копией. Канонический вариант не выбран пользователем
Страница дублирует другую, но не имеет соответствующей пометки. Робот Google
считает канонической другую версию этой страницы, поэтому дубликат не появляется в
результатах поиска. Узнать, какой ресурс робот Google считает исходным, можно при
помощи инструмента проверки URL.
Если канонической выбрана верная страница, то делать ничего не нужно. Если же
произошла ошибка, можно выполнить нормализацию. Чтобы страница не считалась
копией той, которая занесена в индекс Google как каноническая, их содержимое должно
существенно различаться.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 85 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Страница является копией. Канонические версии страницы, выбранные Google и
пользователем, не совпадают
Этот URL помечен как канонический для набора страниц, но Google считает, что
другой URL больше подходит в качестве канонического. Робот проиндексировал не эту
страницу, а выбранную Google. Чтобы узнать, какой ресурс был выбран роботом Google в
качестве канонического, проверьте этот URL. Чтобы страница не считалась копией той,
которая занесена в индекс Google как каноническая, их содержимое должно существенно
различаться.
Во второй части руководства я покажу как искать дубли контента с использованием
краулера.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 86 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
1.7. Проблемы с мобильной версией сайта
Как показала практика сотен проведенных технических аудитов, у мобильных
версий сайта значительно больше ошибок, чем у десктопных.
Порой это связано с наплевательским отношением к мобильной версии, как к
чему-то вторичному. Например, зачастую при реструктуризации сайта исправляется
основное навигационное меню, а в мобильной версии меню (если оно формируется
отдельно), никто изменения не вносит. И тем самым появляются десятки сквозных
ссылок, по которым ссылочный сок утекает в никуда с сотен тысяч, а то и миллионов
страниц сайта. При этом, для Google мобильная версия сайта значительно важней, чем
десктопная. Он применяет к ней повышенные требования. Недаром в GSC есть отдельные
отчеты для мобильной версии.
Кроме того, в мобильной версии гораздо проще «накосячить». Например, внедрив
на страницу изображение или слайдер или видео, при этом не проконтролировав как эти
элементы выглядят в мобильной версии. Зачастую они выходят за пределы экрана, и мы
получаем на странице горизонтальное скроллирование, что крайне не нравиться Google и
он помечает такие страницы как недружелюбные к мобильности и ухудшает их
ранжирование.
Для аудита проблем в GSC есть отчет «Удобство для мобильных устройств», где
можно посмотреть и проанализировать некоторые проблемы с мобильными версиями
сайта:
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 87 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 88 -
Чтобы узнать, какие страницы вашего ресурса неудобно просматривать на
мобильных устройствах, воспользуйтесь отчетом. На верхнем уровне отчета представлены
все страницы, которые не оптимизированы для мобильных устройств. Нажав на ту или
иную строку, вы увидите подробные сведения о проблеме, например на каких страницах
она обнаружена, что нужно сделать для ее решения и как сообщить в Google о принятых
вами мерах.
В отчете "Удобство просмотра на мобильных устройствах" могут быть указаны
следующие ошибки:
Используются неподдерживаемые плагины
На странице содержатся плагины, несовместимые с большинством мобильных
браузеров, например плагины Flash.
Google рекомендует использовать на странице современные технологии с широкой
поддержкой, такие как HTML5.
Область просмотра не настроена
В коде страницы не указано свойство viewport, которое сообщает браузеру, как
правильно изменить размеры элементов страницы в соответствии с размером экрана
устройства.
Чтобы ваш сайт корректно отображался на экранах разных размеров (от больших
настольных мониторов до планшетов и небольших смартфонов), настройте область
просмотра с помощью метатега viewport.
В метатеге viewport должно быть значение device-width
Адаптация страницы для экранов разных размеров невозможна, так как в ее коде
указано свойство viewport с фиксированной шириной.
Используйте адаптивный дизайн, настроив масштабирование страниц в
соответствии с размерами экрана. Подробнее о настройке области просмотра…
Контент шире экрана
Для просмотра текста и изображений на странице приходится пользоваться
горизонтальной прокруткой. Эта проблема возникает, когда размеры в стилях CSS заданы
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
абсолютными значениями или используются изображения, которые лучше всего
показывать в окне конкретной ширины (например, 980 пикселей).
Убедитесь, что значения ширины и позиционирования CSS-элементов
относительны, а изображения масштабируются. Подробные сведения об этом
представлены в разделе руководства по адаптивному веб-дизайну, который посвящен
масштабированию контента в соответствии с размером области просмотра.
Слишком мелкий шрифт
Значительная часть текста набрана шрифтом, слишком мелким по отношению к
ширине страницы. Это затрудняет чтение текста на мобильных устройствах. Посмотрите
пример скриншота для вашего устройства, чтобы найти сложночитаемый текст.
Задайте для своих страниц область просмотра и настройте масштабирование
шрифтов в области просмотра так, чтобы текст хорошо читался на экране устройства.
Подробнее о том, как выбирать размер шрифта…
Интерактивные элементы расположены слишком близко
Интерактивные элементы (например, кнопки и ссылки для навигации)
расположены слишком близко друг к другу, поэтому пользователю сложно нажать один
из элементов, не задев соседние.
Посмотрите примеры скриншотов и найдите все кнопки, ссылки и другие области
прикосновения. Убедитесь, что все области прикосновения расположены достаточно
далеко друг от друга и что при нажатии на один элемент не срабатывают соседние.
Проверить оптимизацию для мобильных устройств для отдельных страниц можно
тут: https://search.google.com/test/mobile-friendly
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 89 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
1.8. Анализ международных сайтов
Международные сайты предоставляют контент, адаптированный для разных
регионов или языков. Для удобства здесь мы будем говорить о разных языках, но с таким
же успехом это может быть контент на одном и том же языке с различиями,
обусловленными национальными обычаями, законами и правилами, валютой и т.д.
Международный контент может быть организован на сайте различными
способами, при этом Google настоятельно рекомендует не использовать анализ IPадресов для перенаправления посетителей на «правильную» версию вашего сайта.
Независимо от того, какую структуру вы используете, ваш аудит должен:
• Показать, что сайт позволяет Google исследовать и индексировать все ваши
страницы. Если вы автоматически перенаправляете посетителей с главной
страницы или динамически изменяете контент, имейте в виду, что большинство
ботов google выполняют сканирование с помощью агента пользователя,
локализованного в США.
• Проанализировать структуру внутренних ссылок, чтобы убедиться, что ссылки с
одной страницы на другую не заставляют пользователей переходить на другой
язык
• Убедиться, что язык, на котором написана каждая страница, очевиден.
Виды организации сайтов:
Как есть. Ничто не отделяет страницы на одном языке от страниц на другом. Эти
сайты еще не оптимизированы, и Google (и пользователи) могут испытывать трудности с
поиском страниц, которые к ним относятся.
Ваш аудит должен найти и идентифицировать страницы для каждого языка.
Используются параметры URL. Каждый язык идентифицируется с помощью
параметра URL, например, https://www.example. com?loc=en.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 90 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 91 -
Такая практика не рекомендуется, поскольку она создает трудности для краулеров
Google и для многих инструментов мониторинга сайта. Это также может создать
трудности для пользователей.
Языки по папкам. Каждый язык находится в своем каталоге, например,
https://www.example.com/en и https://www.example.com/ru. Это один из лучших способов
организации одного веб-сайта, переведенного на несколько языков, особенно когда
локализация или модификация с учетом местных обычаев, правил или культур
незначительна.
В ходе аудита необходимо убедиться, что все языковые каталоги могут быть
просмотрены ботами Google.
Языки по поддоменам. Каждый язык расположен в своем собственном
поддомене, например, https://ru.example.com и https://ут.example.com.
Ваш аудит должен:
• Проанализировать страницы на всех языковых поддоменах.
• Убедится, что правила каждого поддомена для ботов позволяют страницам быть
обнаруженными googlebot.
Языки по доменам. Каждый язык имеет свой собственный домен сайта, например
https://www.example.ru и https://www.example.de. Такой тип организации рекомендуется
при ориентации на разные страны.
Ваш аудит должен включать все сайты на разных языках.
1.8.1. Работа с контентом на нескольких языках
Google попытается определить язык ваших страниц на основе многих показателей,
включая:
• Расширения доменов странового уровня (ccTLD), такие как
https://www.example.ru, если вы их используете.
• Декларации Hreflang.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
• Местоположение сервера веб-сайта.
• Информация на странице, такая как адреса, номера телефонов и валюта.
Следовательно, если вы проводите аудит международного сайта, вам необходимо
проверить выполнение декларации hreflang.
Декларация Hreflang очень важна:
• для того, чтобы Google мог правильно определить язык вашего контента.
• чтобы избежать создания сигналов дублирования контента, когда вы
предлагаете контент для двух стран на одном и том же языке.
• чтобы помочь перенести популярность существующего контента на новые
переводы.
1.8.2. Внедрение и проверка Hreflang
Hreflang - это объявления ссылок, которые идентифицируют альтернативные
версии текущей страницы (ее переводы) с помощью двухбуквенного кода языка (в
формате ISO 639-1) и необязательного кода страны (в формате ISO 3166-1 Alpha 2). Для
каждой переведенной страницы в декларациях hreflang указываются ссылки на саму
страницу и на все переведенные версии.
Чтобы безобразники на других сайтах не могли произвольно указывать свои
страницы как переводы ваших, объявления hreflang должны быть взаимными: если
страница A указывает страницу B как перевод, страница B также должна указывать
страницу A как перевод.
Обратите внимание
Если страницы не ссылаются друг на друга, Hreflang будет игнорироваться
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 92 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Используйте hreflang="default-x" для общих, непереведенных страниц или целевых
страниц, которые существуют для того, чтобы вы могли выбрать язык или регион.
Декларации Hreflang могут быть реализованы:
В <head> страницы. Эти теги должны встречаться перед любыми элементами,
которые могут преждевременно закрыть <head>.
Каждый элемент link должен иметь следующую структуру:
<LINK REL="ALTERNATE" HREFLANG="LANG_CODE" HREF="URL_OF_PAGE" />
Поскольку каждый вариант должен быть связан со всеми другими вариантами, эти
реализации могут стать довольно обширными и замедлить работу вашего сайта. Если у
вас есть двадцать языков, выбор элементов ссылок HTML будет означать добавление
двадцати элементов ссылок, как показано выше, на каждую страницу. Это 1,5 КБ на
каждую загрузку страницы, которые ни один пользователь никогда не будет
использовать, но их все равно придется загружать. Кроме того, вашей CMS придется
сделать несколько вызовов базы данных, чтобы сгенерировать все эти ссылки. Эта
разметка предназначена исключительно для поисковых систем. Вот почему я бы не
рекомендовал это для больших сайтов, так как это добавляет слишком много ненужных
накладных расходов.
Чтобы сообщить Google о версиях страницы на других языках и для других
регионов, можно использовать заголовок HTTP в ответах на запрос GET страницы.
Заголовки HTTP предназначены для всех ваших PDF-файлов и другого контента,
отличного от HTML, который вы, возможно, захотите оптимизировать. Элементы ссылок
хорошо работают с HTML-документами, но не с другими типами контента, поскольку их
нельзя включить. Вот тут-то и появляются заголовки HTTP, и они должны выглядеть так:
LINK: <URL1>; REL="ALTERNATE"; HREFLANG="LANG_CODE_1", <URL2>; REL="ALTERNATE";
HREFLANG="LANG_CODE_2", ...
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 93 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Наличие большого количества заголовков HTTP похоже на проблему с элементами
ссылки в вашем файле <head>: это добавляет много накладных расходов к каждому
запросу.
Сообщить Google о том, что на вашем сайте есть версии для разных языков или
стран, можно с помощью XML-файла Sitemap. Для этого добавьте в него элемент <loc>,
указав в нем URL страницы, а в дочерних тегах <xhtml:link> – ссылки на все ее языковые и
региональные варианты, включая саму страницу.
Если вы думали, что элементы ссылок слишком длинные, реализация XML-карты
сайта хуже. Чтобы проиллюстрировать, это разметка, необходимая только для одного
URL-адреса с двумя другими языками:
<URL>
<LOC>HTTPS://WWW.EXAMPLE.COM/UK/</LOC>
<XHTML:LINK REL="ALTERNATE" HREFLANG="EN" HREF="HTTPS://WWW.EXAMPLE.COM/" />
<XHTML:LINK REL="ALTERNATE" HREFLANG="EN-AU" HREF="HTTPS://WWW.EXAMPLE.COM/AU/" />
<XHTML:LINK REL="ALTERNATE" HREFLANG="EN-GB" HREF="HTTPS://WWW.EXAMPLE.COM/UK/" />
</URL>
Вы можете видеть, что в качестве третьего URL-адреса указан самоссылающийся
URL-адрес, указывающий, что конкретный URL-адрес предназначен для en-gb, и он
определяет два других языка. Теперь оба разных URL-адреса также должны быть в карте
сайта, которая выглядит следующим образом:
<URL>
<LOC>HTTPS://WWW.EXAMPLE.COM/</LOC>
<XHTML:LINK REL="ALTERNATE" HREFLANG="EN" HREF="HTTPS://WWW.EXAMPLE.COM/" />
<XHTML:LINK REL="ALTERNATE" HREFLANG="EN-AU" HREF="HTTPS://WWW.EXAMPLE.COM/AU/" />
<XHTML:LINK REL="ALTERNATE" HREFLANG="EN-GB" HREF="HTTPS://WWW.EXAMPLE.COM/UK/" />
</URL>
<URL>
<LOC>HTTPS://WWW.EXAMPLE.COM/AU/</LOC>
<XHTML:LINK REL="ALTERNATE" HREFLANG="EN" HREF="HTTPS://WWW.EXAMPLE.COM/" />
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 94 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
<XHTML:LINK REL="ALTERNATE" HREFLANG="EN-AU" HREF="HTTPS://WWW.EXAMPLE.COM/AU/" />
<XHTML:LINK REL="ALTERNATE" HREFLANG="EN-GB" HREF="HTTPS://WWW.EXAMPLE.COM/UK/" />
</URL>
Как видите, мы меняем только URL-адреса внутри элемента <loc>, так как все
остальное должно остаться прежним. Каждый URL-адрес имеет самоссылающийся
атрибут hreflang и возвращает ссылки на соответствующие другие URL-адреса с помощью
этого метода.
Разметка карты сайта XML, подобная этой, очень многословна: вам нужно много
вывода, чтобы сделать это для многих URL-адресов. Преимущество реализации XMLкарты сайта простое: ваших обычных пользователей не будет беспокоить эта разметка. В
конечном итоге вы не увеличиваете вес страницы, и не требуется много вызовов базы
данных при загрузке страницы для создания этой разметки.
Еще одно преимущество добавления hreflang через XML-карту сайта заключается в
том, что обычно намного проще изменить XML-карту сайта, чем изменить все страницы на
сайте.
Таким образом, если у вас есть три варианта страницы, то в файле Sitemap будет
запись для URL каждого варианта и в каждой из записей будет три идентичных дочерних
тега.
При аудите:
• Проверьте наличие деклараций hreflang.
• Убедитесь, что все объявления hreflang являются полными URL
(https://www.example. com/de/), а не короткими или относительными ссылками.
• Убедитесь, что все страницы, являющиеся переводами одного и того же
содержимого, взаимно перечисляют друг друга и себя в своих декларациях
hreflang.
• Проверьте, существуют ли все страницы, перечисленные в декларациях hreflang.
x-default— это специальное значение атрибута hreflang, указывающее, куда
должен быть направлен пользователь, если ни один из языков, установленных вами в
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 95 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
других ссылках hreflang, не соответствует настройкам их браузера. В элементе ссылки это
выглядит так:
<LINK REL="ALTERNATE" HREF="HTTPS://WWW.EXAMPLE.COM/" HREFLANG="X-DEFAULT" />
Когда он был введен, он объяснялся как предназначенный для «международных
целевых страниц», т. е. страниц, на которые вы перенаправляете пользователей в
зависимости от их местоположения. Тем не менее, его можно назвать последним
«универсальным» из всех операторов hreflang. Сюда будут отправляться пользователи,
если их местоположение и язык не совпадают ни с чем другим.
Вот несколько типичных ошибок, которые следует избегать при работе с Hreflang
Ошибки тега возврата - означают, что аннотации hreflang не ссылаются друг на
друга. Ключевое правило, которое вы должны иметь в виду, заключается в том, что ваши
аннотации должны быть подтверждены на других страницах. Например, если A ссылается
на B, B должен ссылаться на A, чтобы избежать неправильного понимания со стороны
поисковых систем. Страница A должна использовать аннотацию rel-alternate-hreflang,
ссылающуюся на себя, чтобы работать правильно.
Использование неправильного кода страны или языка. Использование hreflang
подразумевает таргетинг на правильную страну или язык. Не забудьте добавить
правильные коды на свои веб-страницы. Гугл говорит, что «Значение атрибута hreflang
должно быть в формате ISO 639-1 для языка и в формате ISO 3166-1 Alpha 2 для региона.
Указание только региона не поддерживается».
Добавление тегов hreflang на страницы закрытые от индексации. Это будет
считаться ошибкой, если hreflang указывают на страницы noindex, либо они имеют тег
noindex мета-роботов, либо заблокированы в robots.txt.
Google не сможет перейти по обратной ссылке с этой заблокированной страницы
обратно на исходную ссылку. Обратите внимание, что перестанут работать только
заблокированные страницы, а не все ваши теги hreflang в группе страниц. Имейте в виду,
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 96 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 97 -
что создание тегов hreflang, которые будут указывать на страницы, заблокированные от
индексации Google, не сработает.
Смешивание методов тегирования страниц и добавление в xml-карты сайта.
Комбинировать методы для реализации hreflang бессмысленно.
Решение проблем с дублированием контента. Некоторые SEO-мифы говорят о
том, что использование тегов hreflang поможет решить проблемы с дублированием
контента . На самом деле, для аналогичного контента добавление тегов hreflang на ваш
сайт поможет Google распознать и понять страну и язык целевой страницы вашей
страницы, но не поможет поисковым системам решить, какая версия контента лучше
всего подходит для запроса в результатах поиска.
Допустим, у вас есть две страницы на одном языке с таргетингом на разные
регионы, например французский во Франции и французский в Бельгии. Содержание этих
двух страниц может быть настолько похожим, что они будут считаться дубликатами.
Добавление тегов hreflang не поможет. По-прежнему возможно, что ваша французская
страница может опередить вашу бельгийскую страницу, если французская страница имеет
больше ссылок, и особенно если на нее есть ссылки из французских источников.
rel="alternate" hreflang="x"разметки и rel="canonical"могут и должны
использоваться вместе. Каждый язык должен иметь rel="canonical"ссылку, указывающую
на него самого. В первом примере это будет выглядеть так, если предположить, что мы
находимся на домашней странице example.com:
<LINK REL="CANONICAL" HREF="HTTPS://WWW.EXAMPLE.COM/">
<LINK REL="ALTERNATE" HREF="HTTPS://WWW.EXAMPLE.COM/" HREFLANG="EN" />
<LINK REL="ALTERNATE" HREF="HTTPS://WWW.EXAMPLE.COM/EN-GB/" HREFLANG="EN-GB" />
<LINK REL="ALTERNATE" HREF="HTTPS://WWW.EXAMPLE.COM/EN-AU/" HREFLANG="EN-AU" />
Если бы мы были на странице en-gb, изменилось бы только каноническое:
<LINK REL="CANONICAL" HREF="HTTPS://WWW.EXAMPLE.COM/EN-GB/">
<LINK REL="ALTERNATE" HREF="HTTPS://WWW.EXAMPLE.COM/" HREFLANG="EN" />
<LINK REL="ALTERNATE" HREF="HTTPS://WWW.EXAMPLE.COM/EN-GB/" HREFLANG="EN-GB" />
<LINK REL="ALTERNATE" HREF="HTTPS://WWW.EXAMPLE.COM/EN-AU/" HREFLANG="EN-AU" />
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Не ошибитесь, установив канонический адрес en-gbстраницы на
https://www.example.com/, так как это нарушит реализацию. Ссылки hreflang должны
указывать на каноническую версию каждого URL, потому что эти системы должны
работать совместно.
После того, как вы создали рабочую настройку hreflang, вам необходимо настроить
процессы обслуживания. Также рекомендуется регулярно проверять вашу реализацию,
чтобы убедиться, что она все еще настроена правильно.
Убедитесь, что люди в вашей компании, которые имеют дело с контентом на
вашем сайте, знают о атрибуте hreflang, чтобы они не делали вещей, которые нарушают
вашу реализацию. Важны две вещи:
1. Когда страница удаляется, проверьте, обновляются ли ее аналоги.
2. Когда страница перенаправляется, измените URL-адреса hreflang на ее
аналогах.
Если вы делаете это и регулярно проводите аудит, у вас не должно возникнуть
никаких проблем.
Настройка hreflang — трудоемкий процесс. Это требовательный стандарт со
многими специфическими вещами, которые вы должны знать и с которыми должны
иметь дело.
Подводя итог, можно сказать, что выше были рассмотрены одни из самых
распространенных ошибок, которые SEO-специалисты совершают с тегами Hreflang.
Существуют и другие проблемы, такие как проблемы с абсолютными URL-адресами или
смешение канонических тегов и тегов hreflang, но в основном мы рассмотрели наиболее
важные из возможных ошибок.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 98 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
1.9. Структурированные данные (микроразметка)
Структурированные данные - это разметка, которая позволяет обрабатывать
контент как сущности, что позволяет машинам «понимать» взаимосвязи между частями
контента. Это позволяет ботам и другим алгоритмам распознавать знакомые типы
контента и предоставлять лучшие результаты в ответ на поисковые запросы.
При правильном внедрении поисковые системы могут использовать
структурированные данные, чтобы лучше понять содержимое вашей страницы. В
результате ваш сайт может быть лучше представлен в результатах поиска, например, в
виде расширенных результатов , таких как расширенные описания .
Schema.org предоставляет стандарты для структурированных данных в Интернете.
Google использует структурированные данные для создания:
• Результатов панели знаний
• Карусели видео, изображений, ингредиентов, главных историй
• Расширенные результаты в SERP, которые включают дополнительную
информацию, такую как: рейтинг, время показа, цены, калории в рецептах, окна
поиска, корпоративная информация и т.д.
Эти расширенные сниппеты выделяют URL-адрес в результатах поиска, помещают
его в правую сторону страницы выдачи или присуждают ему место в "нулевой позиции",
перед началом традиционных результатов поиска.
Описание ваших продуктов, обзоров, событий, объявлений о вакансиях и многого
другого с помощью структурированных данных в словаре Schema.org делает ваш сайт
понятным для поисковых систем. Это означает, что они могут точно сказать, о чем каждая
часть вашего сайта и как все связано. Поисковым системам больше не нужно
догадываться, что список продуктов — это список продуктов; теперь вы можете сказать,
что это так. Кроме того, вы можете определить, как все связано.
Вы должны провести аудит:
• Определите страницы со структурированными данными.
• Определите типы структурированных данных, используемых на сайте.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 99 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
• Убедитесь, что используемые структурированные данные действительны.
• Сравните производительность (ранжирование в SERP, посещения ботов,
органические посещения) страниц со структурированными данными и страниц
без них, чтобы определить их ценность для вашего сайта.
Описывая свой сайт для поисковых систем, вы позволяете им делать интересные
вещи с вашим контентом. Schema.org и его поддержка находятся в постоянном развитии,
поэтому он постоянно совершенствуется и расширяется. Поскольку структурированные
данные составляют основу многих новых разработок в мире SEO, таких как голосовой
поиск, в ближайшее время их станет больше.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 100 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 101 -
Обязательно подпишитесь на наш телеграм-канал
«SEO фишки от DrMax» t.me/drmaxseo
Дорогие друзья. Я не только автор этой книги,
но и занимаюсь целым комплексом SEO работ,
таких как:
аудит и восстановление трафика на сайте
технический аудит
аудит внешнего ссылочного
разработка стратегии линкбилдинга
и многими иными услугами.
Обращайтесь ко мне в Телеграм: t.me/DrMax2SEO
Или на сайте DrMax.su | email: i@drmax.su
Рекомендую курс по продвижению англоязычных сайтов
от Миши Шакина. Поразительные результаты за несколько
высококлассных уроков. Методика обучения постоянно
развивается, с каждым набором актуализируется.
Укажите промокод: DrMax и получите бонус 5000 руб.
Подробная информация тут: https://seoshaolin.com/#how
Кстати, именно Михаил был организатором всех наших телеконференций, которые есть в книге.
Николай Шмичков – наш хороший товарищ и отменный SEO
специалист. Агентство SEOQUICK, где он трудится занимается
полным циклом продвижения интернет-проектов. А еще там
публикуются отличные тематические статьи, обзоры и многочисленные образовательные
материалы. Обязательно к изучению.
seoquick.company
И не могу не порекомендовать. Есть прекрасная,
полноценная альтернатива для Screaming Frog SEO
Spider. Это бесплатный SEO комплекс, написанный
Андреем Симагиным. Он состоит из двух программ SiteAnalyzer и SimpleWebAnalytics,
позволяющие как анализировать техническое состояние сайта, так и собирать данные из
GSC, GA, Яндекс вебмастера и Яндекс Метрики.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Часть 2. Аудит с использованием программных средств
2.1. Выбор программ
На сегодняшний день существуют десятки десктопных программ, позволяющих
провести технический анализ сайта, а еще больше разнообразных онлайн сервисов.
Функционал у них примерно одинаков и нещадно воруется у лидеров. При этом
ценовая политика весьма разнообразная и порой недоступна начинающему
оптимизатору.
На сегодняшний день выбор программ по различным причинам невелик – либо
бесплатный SiteAnalyzer нашего товарища Андрея Симагина и Co
https://site-analyzer.ru/
Либо «лягушка» - Screaming Frog SEO Spider, которая платная и для скачивания
требуется VPN.
https://www.screamingfrog.co.uk/seo-spider/
Я хотел сделать описание обеих программ в книге, но в текущей версии пока
управился только с «лягушкой».
Поэтому основной программой анализа сайтов будет именно Screaming Frog SEO
Spider.
Ниже я расписал как использовать «лягушку» для поиска и анализа основных
проблем сайта.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 102 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 103 -
2.2. Проверка безопасности и производительности
2.2.1. Как найти HTTP ресурсы
Как найти: используйте вкладку Security и фильтр HTTP URLs
Этот фильтр будет показывать небезопасные (HTTP) URLs. Сегодня в Интернете все
веб-сайты должны быть защищены по протоколу HTTPS. Это не только важно для
безопасности, но и ожидается пользователями. Chrome и другие браузеры отображают
сообщение 'Not Secure' для любых URL, которые являются HTTP или имеют проблемы со
смешанным содержимым (когда они загружают небезопасные ресурсы).
Чтобы узнать, как были обнаружены эти URL, просмотрите их "входящие ссылки" в
нижней вкладке окна. Вы также можете экспортировать все страницы, которые ссылаются
на HTTP URL, через 'Bulk Export > Security > HTTP URLs Inlinks'.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Если ваш сайт содержит отдельные элементы (например изображения или видео),
не защищенные HTTPS, это может привести к проблемам безопасности. Более того,
браузеры будут предупреждать пользователей о загрузке небезопасного контента, а это
может негативно повлиять на опыт пользователей и снизить их доверие к вашему сайту.
Как найти: используйте вкладку Security и фильтр Mixed Content
Фильтр Mixed Content - показывает все HTML-страницы, загруженные через
безопасное HTTPS-соединение, которые содержат ресурсы, такие как изображения,
JavaScript или CSS, загруженные через небезопасное HTTP-соединение. Смешанное
содержимое ослабляет HTTPS и делает страницы более легкими для компрометации
безопасных страниц. Браузеры могут автоматически блокировать загрузку HTTP-ресурсов
или попытаться перевести их на HTTPS. Все ресурсы HTTP должны быть переведены на
HTTPS, чтобы избежать проблем с безопасностью и загрузкой в браузере.
HTTP-ресурсы можно просмотреть на вкладке 'outlinks' для каждого URL, а также
экспортировать вместе со страницами, на которых они находятся, через 'Bulk Export >
Security > Mixed Content'.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 104 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 105 -
Встраивайте HTTPS-контент только на HTTPS-страницы. Замените все HTTP-ссылки
на новые HTTPS-версии. Если есть внешние ссылки, ведущие на страницу, которая не
имеет HTTPS-версии, необходимо проверить, что настроен редирект на HTTPS версию
страницы, чтобы не утерять вес, передаваемый внешней ссылкой.
Иногда на сайте используется крайне устарелая xml-карта сайта, содержащая HTTPверсии URL. Ваш sitemap.xml должен включать только те ссылки, которые вы хотите,
чтобы поисковые системы нашли и проиндексировали. Использование в sitemap
различных протоколов для URL может ввести поисковые системы в заблуждение и
привести к неполному сканированию сайта.
Как найти: используйте вкладку Sitemaps и фильтр Url in Sitemap
После этого в дополнительный фильтр (3) введите http:// и нажмите Enter
Вы получите список всех http ресурсов в ваших xml-картах.
Как пофиксить: Замените все HTTP URL в файле sitemap.xml на HTTPS URL. Для
этого, скорее всего, придется обновить sitemap.xml.
Иногда на HTML-странице имеется форма которая передает информацию на
небезопасный HTTP адрес. Это означает, что любые данные, введенные в форму,
небезопасны, так как могут быть просмотрены при передаче. Все URL, содержащиеся в
формах на сайте, должны быть зашифрованы и поэтому должны быть HTTPS.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Как найти: используйте вкладку Security и фильтр Form URL Insecure
HTTP URL формы можно просмотреть, щелкнув на URL в верхнем окне, а затем на
вкладке 'URL Details' в нижнем окне, где будет отображен URL формы.
Их можно экспортировать вместе со страницами, на которых они находятся, через
'Bulk Export > Security > Form URL Insecure'.
Как пофиксить: Замените HTTP URL в форме на HTTPS URL.
Что еще важно- это проверить на какой версии протокола работает ваш сайт.
Переход на HTTPS значительно замедлил работу сайтов, они стали более
неповоротливыми. Использование протокола HTTP/2 предоставляет возможность
ускорить работу сложных страниц, на которых используется HTML, CSS, JavaScript,
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 106 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 107 -
большое количество медиа за счет грамотного расставления приоритетов, сжатия
заголовков и возможности параллельной загрузки объектов.
Если вам интересно, то самостоятельно изучите преимущества и недостатки HTTP/2
протокола.
Чтобы проверить, на какой версии протокола работает ваш сайт, откройте вкладку
Internal, установите фильтр в ALL и проскроллируйте таблицу до столбца HTTP Version
Как мы видим, в приведенном примере используется версия протокола 2.0 –
значит всё в порядке. Если бы там было прописано 1.1 – то у вас проблемы и необходимо
настраивать сервер на использование протокола HTTP/2.
На шаред хостингах это делается включением одного крыжика в настройках
хостинга, например вот так:
На выделенных серверах настройка чуть сложней и необходимо читать
документацию. Но там тоже нет ничего сложного и в интернете есть тысячи примеров
настройки.
Итак, обязательно проверьте, какую версию протокола HTTP вы используете – в
отдельных случаях это позволит значительно ускорить работу сайта.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
2.2.2. Как найти небезопасные внешние исходящие ссылки
Исходящие ссылки, которые ссылаются на внешние сайты, используя атрибут
target="_blank" (для открытия в новой вкладке), без одновременного использования
rel="noopener" (или rel="noreferrer") являются небезопасными. Само по себе
использование target="_blank" делает эти страницы уязвимыми как с точки зрения
безопасности, так и с точки зрения производительности. В идеале rel="noopener" должен
использоваться для всех ссылок, содержащих атрибут target="_blank", чтобы избежать
внедрения сторонних поддельных адресов.
Как найти: используйте вкладку Security и фильтр Unsafe Cross-Origin Links
Внешние ссылки, содержащие атрибут target="_blank" сами по себе, можно
просмотреть на вкладке 'outlinks' и в колонке 'target'. Их можно экспортировать вместе со
страницами, с которых они связаны, через 'Bulk Export > Security > Unsafe Cross-Origin
Links'.
Как пофиксить: Используйте аттрибут rel="noopener" при использовании аттрибута
target="_blank"
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 108 -
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
2.3. Проверка кодов состояния страниц
2.3.1. Как найти все внутренние битые страницы 4xx
Ошибка 4xx означает, что доступ к веб-странице невозможен. Обычно это
результат неработающих ссылок. Эти ошибки не позволяют пользователям и роботам
поисковых систем получить доступ к вашим веб-страницам и могут негативно повлиять
как на удобство пользователей, так и на доступность для поисковых систем. Это, в свою
очередь, приведет к снижению посещаемости вашего сайта.
Обратите внимание
Краулер может определить рабочую ссылку как нерабочую, если ваш сайт
блокирует доступ для Screaming Frog SEO Spider. Обычно это происходит из
за системы защиты от DDoS-атак и тогда нужно добавить ваш IP в
исключения для этой системы. Либо у вас перегруженный или неправильно
настроенный сервер. Тогда уменьшите число потоков при сканировании
сайта.
Как найти: используйте вкладку Response Codes, фильтр Internal и фильтр Client Error
(4xx)
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 109 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 110 -
Ошибка 4xx - указывает на проблему, возникшую при выполнении запроса. Сюда
могут входить такие ответы, как 400 bad request, 403 Forbidden, 404 Page Not Found, 410
Removed, 429 Too Many Requests и другие. В идеале все ссылки на сайте должны
преобразовываться в URL-адреса 200 'OK'.
Как пофиксить: Если страница выдает ошибку, удалите все ссылки, ведущие на эту
страницу или исправьте неправильную ссылку на рабочую.
Очевидно, вы захотите узнать источник обнаруженных неработающих страниц
(какие URL-адреса на веб-сайте ссылаются на эти неработающие страницы), чтобы их
можно было исправить. Для этого просто щелкните URL-адрес в верхней панели окна (1),
а затем щелкните вкладку «Inlinks» внизу (2), чтобы просмотреть ссылки в нижней панели
окна (3).
Как мы видим из примера, здесь ссылка на битую страницу генерируется в
устарелом XML-сайтмапе (4). Нам просто нужно обновить xml-карты сайта, чтобы
устранить ссылку на битую страницу с кодом 404.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Мне гораздо удобней анализировать ссылки в Excel. Для этого их нужно
экспортировать, используя отчет ‘Bulk Export > Response Codes > Internal > Client Error
(4XX) Inlinks’
Несколько практических советов, как анализировать отчет. Открываем его в Excel,
включаем автофильтры и сортируем по столбцу
Теперь мы посмотрим, нет ли битых ссылок в основном меню.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 111 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Для этого в столбце Link Position автофильтром выбираем Header
Далее копируем данные из столбца Link Path. Он будет выглядеть примерно так:
//BODY/DIV[3]/DIV[@ID='MOBILEHEADER']/DIV[@ID='MOBILEMENU']/DIV/DIV/DIV[2]/UL/LI[14]/A
Как мы видим, здесь битая ссылка находиться в мобильной версии меню. Давайте
посмотрим на неё на сайте.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 112 -
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
Для этого, из столбца Source копируем URL и открываем его в Хроме. Далее
нажимаем сочетание клавиш CTRL+SHIFT+I и переходим во вкладку Элементы (1), где
нажимаем CTRL+F и внизу вставляем наш Link Path (2).
Желтым цветом подсветилась ссылка (3), ведущая на битую страницу.
Как мы видим, это действительно мобильное меню.
Теперь нажимаем инструмент выбора элементов на странице для проверки (4) и
наводим его на подсвеченную желтым ссылку (3).
В левой части, где представлен сам сайт, подсвечивается пункт меню (5), ссылку в
котором нужно заменить на новую или полностью удалить данный пункт меню.
Не забывайте переключаться между мобильным и десктопным представлением
сайта (6).
Давайте вернемся к отчету в Excel.
Для поиска битых ссылок из меню вовсе не обязательно использовать фильтр в
столбце «Link Position». Достаточно отсортировать данные в столбце «Destination» и
просмотреть список. Обнаруженные многочисленные повторения URL в этом столбце
покажут вам, что нашлась битая ссылка в меню. Ну или может быть в иной навигации на
сайте или в футере или в сайдбаре.
Просмотрев где находиться эта ссылка, используя Link Path, как указано выше, вы
сможете сразу определить где у вас расположена ссылка, ведущая на битый ресурс.
Важно понимать
Если Screaming Frog SEO Spider нашел незначительное число битых ссылок,
это не означает, что это небольшая проблема. Если ссылка расположена в
меню или футере, то мы получаем огромное количество битых ссылок,
кратное числу страниц на сайте. И по ним утекает «ссылочный сок» в
никуда, что резко снижает общее качество сайта.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 113 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 114 -
Именно поэтому, мы сначала устраняем проблему с битыми ссылками из меню или
футера или иных колонтитулов, где размещена сквозная битая ссылка.
Устранив битые ссылки из меню, я, как правило, удаляю строки в отчете, где она
расположена. В конце остаются единичные битые ссылки, которые я постепенно
исправляю.
Есть еще несколько проблем, связанных с битыми ссылками/ ресурсами на сайте.
Одна из них – наличие битого ресурса в цепочке редиректов. Но она будет рассмотрена в
разделе руководства про редиректы.
Другая проблема – наличие битых ссылок в меню страницы (меню для контента) и
мы сейчас рассмотрим как их найти
2.3.2. Как найти битые ссылки в меню для контента
Если у вас на страницах сайта есть отдельные меню для контента каждой страницы
- то это очень хорошо. Как минимум это означает, что на страницах у вас контент
отформатирован и разбит на смысловые разделы и/или подразделы.
С введением обновления в алгоритм ядра Google, который научился анализировать
и ранжировать отдельные пассажи это стало крайне важным приемом оптимизации
контента на странице.
Внедрить такие меню очень просто. Для этого нужно использовать якоря/закладки
на странице и потом ссылаться на них.
Вы можете использовать атрибут ID для создания такой закладки, например:
<H2 ID="YMYL">ЧТО ТАКОЕ YMYL</H2>
А потом просто сослаться на этот якорь:
<A HREF="#YMYL">ЧТО ТАКОЕ YMYL</A>
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 115 -
При нажатии на ссылку страница прокручивается до места с закладкой — в данном
случае это раздел «Что такое YMYL». Хотя Google будет рассматривать все подобные URLадреса как одну и ту же страницу (поскольку он игнорирует все, что начинается с #), он
может лучше понять о чем данный подраздел, ранжировать отдельно этот подраздел и
выводить ссылки на отдельные куски контента в сниппете.
Это выглядит примерно так:
Очень интересно наблюдать, как Google экспериментирует с выводом
разнообразных ссылок на разные разделы одной и той же страницы:
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 116 -
А формирует он эти быстрые ссылки из вот такого меню, расположенного на
странице: https://drmax.su/statistika-poiskovyh-sistem-2020.html
Хотя эти ссылки могут быть полезны для пользователей, при их создании легко
допустить ошибки, и со временем они часто становятся "сломанными", поскольку
страницы обновляются, а идентификаторы меняются или удаляются. Неработающая
закладка означает, что пользователь все еще переходит на нужную страницу, но не
попадает в нужный раздел.
Неработающие закладки нельзя найти так же, как неработающие ссылки,
поскольку они не отвечают кодом состояния 404 и часто остаются незамеченными.
Чтобы решить эту проблему нужно проверить URL с идентификаторами фрагментов
и убедится, что этот идентификатор существует в HTML коде страницы. И так на всех
страницах сайта.
Для такого поиска перед сканированием сайта необходимо включить в
конфигурации поиск фрагментов.
Как сделать: используйте основное меню, пункт Configuration > Spider и вкладку
Advanced. Включите пункт Crawl Fragment Identifiers
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Далее просканируйте весь сайт.
После этого перейдите на вкладку ‘URL’ и выберите фильтр ‘Broken Bookmark’
Чтобы просмотреть, какие URL-адреса на веб-сайте ссылаются на эти
неработающие закладки, чтобы их можно было исправить (или можно было обновить
идентификатор атрибута на странице с неработающей закладкой), щелкните URL-адрес в
верхней панели окна, а затем «Inlinks», внизу, чтобы посмотреть адреса.
Необходимо поправить ссылки и/или идентификаторы, чтобы повысить качество
страниц и сайта в целом.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 117 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 118 -
2.3.3. Как найти все редиректы 3xx на сайте
Хотя использование постоянных перенаправлений (301 или 308) уместно во многих
ситуациях (например, при переносе сайта на новый домен, перенаправлении
пользователей с удаленной страницы на новую или при решении проблем
дублированного контента), рекомендуется свести их к разумному минимуму. Каждый раз,
когда вы перенаправляете одну из страниц вашего сайта, это уменьшает ваш бюджет на
переходы, который может закончиться до того, как поисковые системы смогут
просмотреть страницу, которую вы хотите проиндексировать. Кроме того, слишком
большое количество постоянных перенаправлений может запутать пользователей.
Временные перенаправления (например, перенаправления 302 и 307) означают,
что страница была временно перемещена на новое место. Поисковые системы будут
продолжать индексировать перенаправленную страницу, но ни «сок ссылок», ни трафик
не передаются на новую страницу, поэтому временные перенаправления могут повредить
ранжированию, если они используются ошибочно.
В идеале, желательно избавиться от всех открытых и индексируемых ссылок на
сайте, которые генерируют редиректы, заменив эти ссылки конечными URL цепочки
перенаправлений.
Не нужно трогать и избавляться от полезных редиректов, например со старых,
удаленных URL с внешними входящими ссылками на новые, рабочие URL.
Как найти: используйте вкладку Response Codes, фильтр Internal и фильтр Internal
Redirecttion (3xx)
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 119 -
В столбце Address (1) начальный Url, который редиректит на URL, находящийся в
столбце Redirect Url (2). В конечном итоге вам необходимо на страницах заменить первый
URL на второй.
Чтобы узнать, где расположены (на каких страницах) редиректящие URL, щелкните
интересующий вас URL, вызывающий редирект (3) и внизу перейдите на вкладку Inlinks
(4). В столбце From будут располагаться страницы, где имеется редиректящий URL (3).
Прежде всего вам необходимо заменить все редиректы, порождающиеся в
меню/футере/сайдбаре – т.е. расположенные сквозняком, на большинстве страниц сайта.
Есть еще один способ, для которого не нужно выгружать отчет.
Отсортируйте столбец Inlinks (6) в порядке уменьшения. Если значения в верхних
строчках столбца примерно равны числу страниц (7), то, скорее всего, это ссылка (3)
находиться в меню (или в иной сквозной навигации) или в футере. Необходимо срочно
заменить эту ссылку на конечный URL редиректа (2).
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Также вы можете сделать выгрузки в Excel. Отчет расположен здесь: ‘Bulk Export >
Response Codes > Internal > Internal Redirection (3XX) Inlinks’
Давайте посмотрим на отчет
В столбце Type (1) – тип редиректа. Как мы видим, помимо обычных ссылок есть и
редирект, порождаемый ссылкой из XML-карты сайта (2)
В столбце Source (3) находятся страницы, где располагается ссылка, вызывающая
редирект. Она находится в столбце Destination (4).
Чтобы проще её найти на странице – используйте анкор (5).
Недостатком этого отчета является отсутствие конечного адреса редиректа,
поэтому при замене ссылок приходится подсматривать в ScreamingFrog SEO Spider.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 120 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 121 -
Я для работы использую наиболее полный отчет, где имеется а порядок больше
информации, в том числе и конечная ссылка и все шаги редиректов, если это цепочка.
Загрузить его можно так: Reports > Redirects > All Redirects
Давайте рассмотрим структуру этого важнейшего отчета
1. Chain Type – Тип редиректа
2. Number of Redirects – количество шагов в цепочке редиректа
3. Loop – зацикленность редиректа
4. Source – страница, где расположена ссылка, вызывающая редирект
5. Temp Redirect in Chain – В цепочке редиректа встретилось временное
перенаправление
6. Address – ссылка, порождающая редирект. Именно её и нужно менять
7. Final Address – конечный адрес цепочки редиректов. На этот URL мы меняем
предыдущий.
8. Final Indexability – индексируется или нет конечный URL
9. Final Indexability Status – почему не индексируется конечный URL
10. Final Content – какой тип контента находится в финальном URL
11. Final Status Code – код состояния конечного URL. Требуется только 200.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 122 -
12. Final Status – должно быть OK
13. Alt Text – альт текст изображения, обернутого в ссылку, которая вызывает
редирект. Помогает найти и заменить ссылку на финальный адрес.
14. Anchor Text – анкор ссылки, вызывающей редирект. Помогает найти и
заменить ссылку на финальный адрес.
15. Link Path – Xpath ссылки для поиска её в коде. См подробнее разбор 4xx
ошибок.
16. Link Position – где находится ссылка (контент, навигация, заголовок)
Все остальные столбцы раскрывают пошагово всю цепочку редиректа (10 шагов).
Как правило я удаляю все столбцы, начиная со столбца Q – «Content 1» и всё что
расположено правей.
Теперь несколько советов по работе с отчетом
1. Отчет содержит как внутренние, так и внешние редиректы. Вам нет нужды
анализировать редиректы за пределами сайта. Поэтому, используя автофильтр
в столбце «Address» найдите все ссылки на внешние ресурсы и удалите эти
строки.
2. Финальный URL должен отдавать ответ 200. С помощью автофильтра отберите в
столбце «Final Status Code» все страницы, кроме как с ответом 200. Теперь вам
нужно решить – либо удалить начальную ссылку с исходной страницы, либо
заменить финальный URL на новый URL, который будет работоспособным и
изменить ссылку на него.
3. Всегда сначала исправляйте редиректы из меню/футера/сайдбара, а лишь
потом исправляйте единичные ссылки с редиректом.
4. Для поиска ссылки на странице используйте «Link Path» либо ищите ссылку в
коде с анкором из столбца «Anchor Text»
Длинные цепочки и бесконечные петли сводят на нет ваши усилия по поисковой
оптимизации. Они затрудняют сканирование сайта, что негативно отражается на бюджете
сканирования, качестве индексации и скорости загрузки. Это отрицательно сказывается на
рейтинге сайта и удобстве его использования. Исправляйте редиректы!
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 123 -
2.3.4. Как найти страницы 5xx
Ошибки 5xx относятся к тем проблемам, когда сервер не может выполнить запрос
пользователя или поисковой машины. Они препятствуют доступу пользователей и
роботов поисковых систем к вашим веб-страницам и могут негативно сказаться на
удобстве пользователей и доступности для поисковых систем. Это, в свою очередь,
приведет к снижению трафика на ваш сайт.
Как найти: используйте вкладку Response Codes, фильтр Internal и фильтр Internal
Server Error (5XX)
Серверу не удалось выполнить явно правильный запрос. Это может включать такие
распространенные ответы, как 500 Internal Sever Errors и 503 Server Unavailable. Все URLадреса должны отвечать статусом 200 'OK', и это может указывать на нагрузку на сервер
или неправильную конфигурацию, требующую изучения.
Отсортируйте отчет по столбцу Inlinks (4). В приведенном примере есть множество
ссылок на одну страницу, которая вызывает ошибку 500.
Вам необходимо либо «починить» страницу так, чтобы она отдавала 200 код, либо
поменять ссылку на иной работоспособый URL, либо удалить ссылку.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 124 -
2.4. Анализ URL сайта
Screaming Frog SEO Spider имеет вкладку для анализа проблем с URL (1) и
несколько фильтров, которые мы разберем ниже.
2.4.1. Использование в URL не ASCII символов
Фильтр: Non ASCII Characters
Здесь собраны URL, которые содержат символы, не входящие в набор символов
ASCII. Стандарты определяют, что URL можно отправлять только с использованием набора
символов ASCII, и некоторые пользователи могут испытывать трудности с этими
символами за пределами диапазона ASCII.
В соответствии с Google, не рекомендуется использовать в URL символы, не
относящиеся к кодировке ASCII, например:
•
https://www.example.com/‫عاﻧﻌﻦ‬
•
https://www.example.com/!"/薄荷
•
https://www.example.com/gemüse
•
https://www.example.com/
&'()
%
URL-адреса должны быть преобразованы в допустимый формат ASCII путем
кодирования ссылок на URL-адреса безопасными символами (состоящими из %, за
которым следуют две шестнадцатеричные цифры).
Скачано с сайта - SuperSliv.biz - Присоединяйся!
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
- 125 -
Рекомендуется при необходимости использовать кодировку UTF-8. Ниже показан
пример использования кодировки UTF-8 для арабских символов в URL:
https://www.example.com/%D9%86%D8%B9%D9%86%D8%A7%D8%B9/%D8%A8%D9%
82%D8%A7%D9%84%D8%A9
В этом примере кодировка UTF-8 используется для китайских символов:
example.com/%E6%9D%82%E8%B4%A7/%E8%96%84%E8%8D%B7
В этом – для умлаутов (двоеточий над гласными):
https://www.example.com/gem%C3%BCse
А в этом – для эмодзи:
example.com/%F0%9F%A6%99%E2%9C%A8
Сегодня браузеры и поисковые системы в основном способны точно
преобразовывать URL.
Обратите внимание
Любые изменения URL нужно выполнять только при отсутствии трафика на
страницу и внешних входящих ссылок. Иначе вы рискуете упасть в
ранжированнии и потерять трафик.
2.4.2. Использование в URL подчеркиваний
Фильтр: Underscores
Когда речь идет о структуре URL, использование подчеркивания в качестве
разделителя слов не рекомендуется, поскольку поисковые системы могут неправильно их
интерпретировать и считать частью слова. Использование дефисов вместо знаков
подчеркивания облегчает поисковым системам понимание того, о чем ваша страница.
Хотя использование подчеркивания не оказывает большого влияния на видимость
страницы, оно уменьшает шансы вашей страницы появиться в результатах поиска, в
отличие от использования дефисов.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
Итак, в качестве разделителей слов рекомендуется использовать дефисы.
Замените подчеркивание на дефис. Однако, если ваша страница хорошо ранжируется, я
не рекомендую этого делать.
2.4.3. Использование в URL прописных букв
Фильтр: Uppercase
URL содержит символы в верхнем регистре. URL-адреса чувствительны к регистру,
поэтому обычно все URL-адреса должны быть в нижнем регистре, чтобы избежать
возможной путаницы и дублирования URL-адресов.
Обратите внимание
Для Google
https://example.ru/Page
и
https://example.ru/page
- это два различных URL
2.4.4. Несколько слешей подряд в URL
Фильтр: Multiple Slashes
URL содержит несколько косых черт (слешей) в URL (например,
example.com/book//). Как правило, это является ошибкой, и в соответствии с практикой
URL должен содержать только одну косую черту между разделами, чтобы избежать
возможных путаниц и дублирования URL.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 126 -
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
2.4.5. Повторения в URL
Фильтр: Repetitive Path
Повторяющаяся часть в URL – когда URL имеет одно или несколько повторений в
структуре. Например путь, который повторяется в строке URL (например,
example.com/book/book/page1 или example.com/book/page/book/page). В некоторых
случаях это может быть нормально, однако это всегда указывает на плохую структуру
сайта. Это также может помочь выявить проблемы с неправильной относительной
ссылкой, вызывающей бесконечные URL.
Обратите внимание
Это один из важнейших признаков при работе с Битрикс, Drupal и
некоторыми иными CMS, сигнализирующие о сбоях в движке, их неправильной
настройке, что приводит к генерации бесконечного числа дублей страниц.
Попробуйте смоделировать новый повторяющийся путь.
Например было:
example.com/book/page/book/page
попробуйте модифицировать URl как то так:
example.com/book2/page/book2/page
Потом так:
example.com/iohdook2/page/bowrjkfwoook2/page
если будут 200 страницы при произвольной придуманной категории – то у сайта
большие проблемы и необходима консультация с профессионалами, как поправить
генерацию недействительных путей. В противном случае вы никогда не сможете
продвинуть сайт из за наличия бесконечного числа дублей.
Мне в год попадает 3-4 таких случаев.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 127 -
КУПЛЕНО НА SKLADCHIK.COM
- 128 -
DrMax.su «SEO Монстр Next. Том 2.»
2.4.6. URL содержит пробел
Фильтр: Contains A Space
URL содержит пробел. Такие пробелы считаются небезопасными и могут привести
к разрыву ссылки при совместном использовании URL. В качестве разделителей слов
следует использовать дефисы, а не пробелы.
2.4.7. Внутренний поиск
Фильтр: Internal Search
URL может быть частью функции внутреннего поиска сайта. Google и другие
поисковые системы рекомендуют блокировать страницы внутреннего поиска от
просмотра. Чтобы Google не индексировал заблокированные URL внутреннего поиска,
они также не должны быть доступны по внутренним ссылкам. Поэтому следует удалить
внутренние ссылки на эти URL и включить мета nofollow для таких страниц.
Блокирование в robots.txt, как правило, не позволяет полностью избавиться от
индексации таких некачественных страниц.
2.4.8. URL содержит параметры
URL содержит такие параметры, как '?' или '&'. Это не является проблемой для
Google или других поисковых систем, но рекомендуется ограничить количество
параметров в URL, которые могут быть сложными для пользователей и могут быть
признаком URL с низкой добавленной стоимостью.
Как правило, URL с параметрами не должны попадать в индекс Google. Поэтому, не
проставляйте на такие страницы открытые ссылки и добавьте на все ненужные страницы с
параметрами
мета
Скачано с сайта - SuperSliv.biz - Присоединяйся!
noindex.
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
2.4.9. Излишне длинный URL
Фильтр - Over 115 characters
Длина URL превышает 115 символов (регулируется в настройках). Это не
обязательно является проблемой.
Хотя теоретически для URL-адресов не существует ограничений по количеству
символов, все же рекомендуется не превышать длину в 2 000 символов. Это важно,
поскольку некоторые браузеры не могут обрабатывать URL, превышающие этот лимит.
Кроме того, разумная длина URL значительно облегчает их поиск, в то время как слишком
длинные URL могут быть проигнорированы поисковыми системами.
2.5. Анализ мета заголовков
Для анализа мета заголовков служит вкладка Page titles. Вкладка "Заголовок
страницы" включает данные, относящиеся к элементам заголовка страницы внутренних
URL-адресов в процессе сканирования. Фильтры показывают общие проблемы,
обнаруженные для заголовков страниц.
Заголовок страницы, часто называемый "тегом title", "meta title" или иногда "SEO
title", - это элемент HTML в заголовке веб-страницы, который описывает цель страницы
для пользователей и поисковых систем. Считается, что это один из самых сильных
сигналов ранжирования страницы.
Элемент заголовка страницы должен располагаться в шапке документа и в HTML
выглядит следующим образом:
<TITLE>ЭТО ЗАГОЛОВОК СТРАНИЦЫ</TITLE>.
2.5.1. Отсутствует мета заголовок
Фильтр: Missing
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 129 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 130 -
Здесь собраны страницы, у которых отсутствует элемент заголовка страницы,
отсутствует содержимое тега.
Тег <title> является ключевым элементом SEO на странице. Он отображается в
браузерах и результатах поиска и помогает поисковым системам и пользователям понять,
о чем ваша страница.
Если на странице отсутствует заголовок или тег <title> пуст, Google может посчитать
ее низкокачественной. Если вы будете продвигать эту страницу в результатах поиска, вы
упустите шансы занять высокое место и получить более высокий объем кликов в выдаче.
Очень важно писать краткие, описательные и уникальные заголовки страниц на
каждом индексируемом URL, чтобы помочь пользователям и дать возможность
поисковым системам оценивать и ранжировать страницу по соответствующим поисковым
запросам.
Убедитесь, что каждая страница на вашем сайте имеет уникальный и лаконичный
заголовок, содержащий наиболее важные ключевые слова.
2.5.2. Дубли мета заголовков
Фильтр: Duplicate
Дубликат - любые страницы с дублирующимися заголовками. Очень важно иметь
отдельные и уникальные заголовки для каждой страницы.
Дублирование тегов <title> затрудняет для поисковых систем определение того,
какая из страниц сайта релевантна определенному поисковому запросу, и какая из них
должна быть приоритетной в результатах поиска. Страницы с дублирующимися
заголовками имеют меньше шансов на хорошее ранжирование и рискуют быть
забаненными.
Более того, одинаковые теги <title> сбивают пользователей с толку, не позволяя
определить, на какую страницу им следует перейти.
Итак, если все страницы имеют одинаковые заголовки, то это может усложнить
задачу пользователям и поисковым системам в плане понимания отличий одной
страницы от другой.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Придумайте уникальный и лаконичный заголовок для каждой из страниц,
содержащий наиболее важные ключевые слова.
2.5.3. Заголовок более 60 символов
Фильтр: Over 60 characters
Обратите внимание
Числовое значение можно изменять в настройках
Итак, здесь собраны страницы, заголовки которых содержат более 60 символов.
Символы, превышающие этот предел, могут быть усечены в результатах поиска Google и
иметь меньший вес при подсчете важности ключевых слов.
С августа 2021 года Google выкатил новый алгоритм, который усиленно
переписывает заголовки сниппета, используя вместо <title> их усеченную версию, либо
текст анкора ссылки на страницу, alt- текст изображения, хлебные крошки и т.д.
Согласно последним исследованиям, вероятность изменения заголовка Гуглом
составляет 67% для десктопной выдачи и 59% для мобильной выдачи. В среднем 63%.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 131 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Вероятность перезаписи зависит в том числе и от длины <title>. Если вы будете
прописывать теги заголовков от 40 до 65 символов, скорее всего, будут использоваться в
сниппете как есть.
Постарайтесь переписать заголовки страниц так, чтобы они состояли из 50-70
символов.
2.5.4. Заголовок менее 30 символов
Фильтр: Below 30 characters
Обратите внимание
Числовое значение можно изменять в настройках
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 132 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 133 -
Это любые страницы, заголовки которых содержат менее 30 символов. Это не
обязательно является проблемой, но у вас есть больше возможностей для поиска
дополнительных ключевых слов или передачи ваших УТП.
В целом, использование коротких заголовков на веб-страницах является
рекомендуемой практикой. Однако помните, что заголовки, содержащие 20 символов
или меньше, не дают достаточной информации о том, о чем ваша веб-страница, и
ограничивают потенциал вашей страницы для отображения в результатах поиска по
различным ключевым словам.
Важно: Среди этой группы страниц очень часто попадаются Thin Content – т.е.
страницы, которым нет места в индексе.
Отсортируйте странице по возрастанию длины мета заголовка
Проверьте, чтобы среди этих страниц, открытых для индексации, не было
служебных страниц, неоформленных страниц, полупустых страниц и прочих
некачественных страниц.
Последовательно открывайте страницы, начиная со страницы с самой малой
длиной мета заголовка и анализируйте содержание.
Если найдете некачественные или служебные страницы, открытые для индексации
– пропишите мета noindex в заголовке.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
2.5.5. Мета заголовок одинаков с <h1>
Фильтр: Same as h1
Здесь собраны любые заголовки страниц, которые точно совпадают с h1 на
странице.
Плохая идея - дублировать содержимое тега title в заголовке первого уровня. Если
теги <title> и <h1> вашей страницы совпадают, последний может показаться поисковым
системам чрезмерно оптимизированным.
Кроме того, использование одинакового содержания в заголовках и названиях
означает потерю возможности включить другие релевантные ключевые слова для вашей
страницы.
Попробуйте создать разное содержание для тегов <title> и <h1>.
2.5.6. Несколько мета заголовков
Здесь собраны страницы, которые имеют несколько мета заголовков. На странице
должен быть только один элемент заголовка страницы. Множественные заголовки
страниц часто вызваны конфликтующими плагинами или модулями в CMS.
2.6. Анализ мета-описания
Вкладка Meta description
Вкладка метаописание включает данные, относящиеся к метаописаниям
внутренних URL-адресов. Фильтры показывают общие проблемы, обнаруженные для
метаописаний.
Мета-описание - это HTML-атрибут в заголовке веб-страницы, который
предоставляет пользователям краткое описание страницы. Слова в описании не
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 134 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
используются Google при ранжировании, но они могут быть показаны пользователям в
результатах поиска и, следовательно, влияют на количество переходов.
Мета-описание должно быть размещено в шапке документа и в HTML выглядит
следующим образом:
<META NAME="DESCRIPTION" CONTENT="ЭТО МЕТА-ОПИСАНИЕ."/>.
2.6.1. Отсутствует мета-описание
Фильтр: Missing
Здесь собраны открытые для индекса страницы, на которых отсутствует метаописание, или тег пуст.
Несмотря на то, что метаописание не оказывает непосредственного влияния на
рейтинг страницы, содержимое этого тега отображается поисковыми системами в
качестве описания вашей страницы в результатах поиска. Продуманное описание
помогает пользователям понять, о чем ваша страница, и побуждает их перейти на нее.
Если тег метаописания отсутствует, поисковыми системами обычно отображается
первое найденное на странице предложение, которое может оказаться неуместным и
неинтересным для пользователей
2.6.2. Дубли мета описания
Фильтр: Duplicate
Здесь собраны открытые для индекса страницы с дублирующимися
метаописаниями. Очень важно иметь отдельные и уникальные метаописания, которые
передают преимущества и цель каждой страницы.
Если теги метаописания на разных страницах дублируют друг друга, вы упускаете
возможность использовать более подходящие ключевые слова. Кроме того, если
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 135 -
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
содержимое тегов метаописания совпадает, как для поисковых систем, так и для
пользователей будет сложно определить разницу между страницами.
Кроме того, если они дублируются или не имеют отношения к делу, то будут
проигнорированы поисковыми системами.
Лучше удалить содержимое тега метаописания вообще, чем дублировать его.
2.6.3. Метаописание более 155 символов
Фильтр: Over 155 characters
Обратите внимание
Числовое значение можно изменять в настройках
Это все страницы, метаописания которых превышают 155 символов. Символы,
превышающие этот предел, могут быть усечены в результатах поиска Google.
Необходимо сократить эти метаописания
2.6.4. Метаописание менее 70 символов
Фильтр: Below 70 characters
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 136 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Обратите внимание
Числовое значение можно изменять в настройках
Это любые страницы, метаописания которых содержат менее 70 символов.
Несмотря на то, что метаописание не оказывает непосредственного влияния на рейтинг
страницы, содержимое этого тега отображается поисковыми системами в качестве
описания вашей страницы в результатах поиска. Продуманное описание помогает
пользователям понять, о чем ваша страница, и побуждает их перейти на нее.
Если тег метаописания короткий, то гугл его будет формировать самостоятельно и
оно может оказаться неуместным и неинтересным для пользователей
Необходимо дополнить метаописание страниц подходящими текстами, если эти
страницы нужны в индексе.
Появляется дополнительная возможность рассказать о преимуществах, УТП или
призывах к действию.
2.6.5. Несколько метаописаний
Фильтр: Multiple
Здесь собраны страницы, имеющие несколько метаописаний. Для страницы
должно быть только одно метаописание. Множественные мета-описания часто вызваны
несколькими конфликтующими плагинами или модулями в CMS.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 137 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 138 -
2.7. Мета ключевые слова
Вкладка "Мета-ключевые слова" включает данные, относящиеся к мета-ключевым
словам. Фильтры показывают общие проблемы, обнаруженные для мета-ключевых слов.
Мета-ключевые слова широко игнорируются поисковыми системами и не
используются в качестве сигнала при ранжировании для всех основных западных
поисковых систем. В частности, Google вообще не учитывает их при ранжировании
страниц в результатах поиска. Поэтому мы рекомендуем полностью игнорировать его,
если только вы не нацелены на альтернативные поисковые системы.
Другие поисковые системы могут по-прежнему использовать их при
ранжировании, но рекомендуется провести исследование этого статуса, прежде чем
тратить время на его оптимизацию.
Тег meta keywords должен быть размещен в шапке документа и в HTML выглядит
следующим образом
<META NAME="KEYWORDS" CONTENT="КИРПИЧ, СИЛИКАТНЫЙ КИРПИЧ"/>.
Крайне рекомендую удалить вывод мета ключевых слов в шаблонах сайта и не
тратить время на них.
2.8. Анализ тега <h1>
Вкладка: H1
На вкладке h1 отображаются данные, относящиеся к заголовку <h1> страницы.
Фильтры показывают общие проблемы, обнаруженные для <h1>.
Теги <h1> - <h6> используются для определения заголовков HTML. <h1> считается
наиболее важным первым основным заголовком страницы, а <h6> - наименее важным.
Заголовки должны быть упорядочены по размеру и важности, они помогают
пользователям и поисковым системам понять содержание страницы и разделов. Элемент
<h1> должен описывать основной заголовок и цель страницы и широко считается одним
из самых сильных сигналов ранжирования на странице.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Элемент <h1> должен быть помещен в тело документа и в HTML выглядит
следующим образом:
<H1>ЭТО H1</H1>.
По умолчанию SEO Spider извлекает и сообщает только о первых двух элементах
<h1>, обнаруженных на странице
2.8.1. Отсутствует тег <h1>
Фильтр: Missing
Здесь собраны страницы, на которых отсутствует <h1>, или содержимое тега
пустое.
Хотя заголовки h1 менее важны, чем теги <title>, они все же помогают определить
тему вашей страницы для поисковых систем и пользователей. Если тег <h1> пуст или
отсутствует, поисковые системы могут понизить рейтинг вашей страницы. Кроме того,
отсутствие тега <h1> нарушает иерархию заголовков на вашей странице, что не
способствует оптимизации SEO.
Попробуйте прописать <h1> на этих страницах – это важнейший фактор
оптимизации
2.8.2. Дублирование <h1> в пределах сайта
Фильтр: Duplicate
Здесь собраны любые страницы с дублирующимися заголовками <h1>. Важно
иметь отдельные, уникальные и полезные страницы. Если каждая страница имеет один и
тот же <h1>, то это может усложнить пользователям и поисковым системам понимание
отличия одной страницы от другой.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 139 -
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
- 140 -
Постарайтесь уникализировать <h1> в пределах сайта. Прописывайте в него ключи,
касающиеся конкретной страницы.
2.8.3. Тег <h1> более 70 символов
Фильтр: Over 70 characters
Обратите внимание
Числовое значение можно изменять в настройках
Любые страницы, имеющие <h1> длиной более 70 символов. Это не является
проблемой, так как для заголовков нет ограничения по количеству символов. Однако они
должны быть краткими и описательными для пользователей и поисковых систем.
2.8.4. Несколько h1 в пределах страницы
Фильтр: Multiple
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 141 -
Любые страницы, имеющие несколько <h1> на одной странице.
Несмотря на то, что в структуре HTML5 разрешено использовать несколько тегов
<h1>, я не рекомендую использовать более одного тега <h1> на странице. Добавление
нескольких тегов <h1> может ввести в заблуждение пользователей.
Классический стандарт HTML4 определяет, что на странице должен быть только
один <h1>, и это по-прежнему рекомендуется для пользователей и SEO.
Используйте теги <h2>-<h4> вместо второго <h1>. Или удалите второй <h1> с таких
страниц
2.9. Анализ тега <h2>
Вкладка: H2
На вкладке h2 отображаются данные, относящиеся к заголовку <h2> страницы.
Фильтры показывают общие проблемы, обнаруженные для <h2>.
Теги <h1> - <h6> используются для определения заголовков HTML. Заголовок <h2>
считается вторым важным заголовком страницы и обычно имеет размер и стиль второго
по величине заголовка.
Заголовок <h2> часто используется для описания разделов или тем в документе.
Они служат указателями для пользователя и могут помочь поисковым системам понять
страницу.
Элемент <h2> должен быть помещен в тело документа и в HTML выглядит
следующим образом:
<H2>ЭТО H2</H2>.
По умолчанию SEO Spider извлекает и сообщает только о первых двух h2,
обнаруженных на странице.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 142 -
2.9.1. Отсутствует тег <h2>
Фильтр: Missing
Все страницы, на которых отсутствует хотя бы один <h2> или тег пуст. <h2>
используются как пользователями, так и поисковыми системами для понимания страницы
и разделов.
Отсутствие тега <h2> на страницах свидетельствует об отсутсвии их
форматирования. К таким страницам Google относится с подозрением и, как правило, он
плохо их ранжирует.
Лично мое мнение – если на большинстве страниц нет <h2>, то такой сайт
никогда не займет хороших мест в органической выдаче.
Высказывания Джона Мюллера таковы: «Таким образом, заголовки на странице
помогают нам лучше понять содержание страницы.
Заголовки на странице — не единственный фактор ранжирования, который у нас
есть. Мы также смотрим на контент сам по себе.
Но иногда наличие четкого заголовка на странице дает нам немного больше
информации о том, о чем этот раздел».
Он продолжил: «И когда дело доходит до текста на странице, заголовок является
действительно сильным сигналом, говорящим нам, что эта часть страницы посвящена
этой теме. … поместите ли вы это в тег H1, тег H2, H5 или что-то еще, это не имеет
большого значения».
В идеале большинство страниц должны иметь логичные, описательные <h2>.
2.9.2. Дублирование <h1> в пределах сайта
Фильтр: Duplicate
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 143 -
Любые страницы с дублирующимися <h2>. Важно иметь отдельные, уникальные и
полезные страницы. Если на каждой странице есть одинаковые <h2>, то это может
затруднить пользователям и поисковым системам понимание одной страницы от другой.
Как правило, такая проблема возникает при использовании <h2> в качестве
элементов шаблона страницы. Например, часто темы WordPress используют <h2> для
заголовков виджетов в сайдбаре. Это крайне неверный подход.
Используйте <h2> только для форматирования значимого (основного) контента
страниц.
2.9.3. Несколько h2 в пределах страницы
Фильтр: Multiple
Здесь собраны страницы, содержащие несколько <h2>. Это не является проблемой,
поскольку стандарты HTML допускают использование нескольких <h2> в логической
иерархической структуре заголовков. Однако этот фильтр может помочь вам быстро
просмотреть, правильно ли они используются.
Не допускайте дублирование первого и второго <h2>
2.10. Анализ контента
Вкладка: Content
На вкладке "Контент" отображаются данные, связанные с содержанием
внутренних HTML-адресов, обнаруженных в ходе сканирования.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 144 -
Сюда входят количество слов, читабельность, дубли и частичные дубли, а также
орфографические и грамматические ошибки.
Это один из самых важнейших аудитов, позволяющих сократить Thin Content на
сайте: избавиться от дублей, от неоформленных страниц, от малоценных страниц и пр.
Как считаются некоторые параметры.
Количество слов - Это все "слова" внутри тега body, исключая HTML-разметку.
Количество слов основано на области содержимого, которую можно настроить в разделе
'Config > Content > Area'. По умолчанию навигация и данные нижнего колонтитула
исключены.
Вы можете включать или исключать HTML-элементы, классы и идентификаторы для
расчета уточненного количества слов. Цифры могут отличаться от тех, которые можно
получить при ручном подсчете, так как парсер выполняет определенные исправления
недействительного HTML. Настройки рендеринга также влияют на то, что считать HTML.
Наше определение слова - это текст, разделенный пробелами. Не учитывается видимость
содержимого (например, текст внутри div, установленного в скрытый режим).
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Крайне важно правильно настроить область содержимого. Необходимо чтобы в
неё попадал только значимый (основной) контент.
Вот как это можно сделать. Я буду сканировать сайт в мобильном режиме с
реендерингом элементов. Нажимаем в Хроме CTRL+SHIFT+I
Включаем мобильное представление (1)
Активируем инструмент выбора элементов (1)
Прощелкиваем все ненужные блоки (2) на сайте (повторяющиеся, не содержащие
основной контент)
Смотрим класс ненужного блока – в данном случае это «block_appointment»
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 145 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Добавляем его в исключения в настройках лягушки
Повторяем так для всех ненужных блоков на странице.
Обязательно анализируем несколько разнородных страниц – например страница
каталога, карточка товара и страница блога. Заполняем настройки исключений исходя из
классов или id отдельных блоков этих страниц.
Переходим в настройку поиска дублей
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 146 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Включаем поиск нечетких дублей (1) и устанавливаем процент схожести контента
(2)
Далее нам осталось просканировать весь сайт.
После этого запускаем анализ данных.
Проверьте конфигурацию анализа данных, там должен быть включен такой пункт:
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 147 -
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
Если в результате анализа получится слишком много частично похожих страниц,
которые не совсем сходятся – то вам нужно уточнить настройки исключений, добавить
дополнительные общие блоки в исключения.
Обратите внимание
Повторное сканирование всего сайта не нужно. После того как вы уточните
исключения из контента – просто запустите повторный анализ.
В результате мы получим два важных отчета – полное и частичное дублирование
контента на сайте.
Полные дубли вычисляются как хэш-значение страницы с использованием
алгоритма MD5. Если два хэш-значения совпадают, страницы полностью идентичны по
содержанию. Если разница в один символ, они будут иметь уникальные хэш-значения и
не будут обнаружены как дублированный контент.
Частичные дубли – вычисляются с использованием шинглов и ранее настроенного
порога схожести, который по умолчанию равен 90%.
Как их анализировать – рассмотрим далее.
Кроме того, в версии 18.0 было встроено несколько новых функций, правда только
для английского языка. Поддержку иных языков обещали позже.
Average Words Per Sentence - общее количество слов из области содержимого,
разделенное на общее количество обнаруженных предложений. Этот показатель
рассчитывается в рамках анализа удобочитаемости по Флешу.
Внимание в версии 18.0 работает только для английского языка. В дальнейшем
обещают поддержу и русского (возможно).
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 148 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 149 -
Flesch Reading Ease Score - тест Флеша на легкость чтения измеряет
удобочитаемость текста. Это широко используемая формула удобочитаемости, которая
использует среднюю длину предложений и среднее количество слогов в слове для
получения оценки в диапазоне 0-100. 0 - это очень трудночитаемый текст, который лучше
всего понимают выпускники университетов, а 100 - это очень легкочитаемый текст,
который может понять 11-летний школьник.
Читабельность (Readability) - общая классификация оценки читабельности,
основанная на балле легкости чтения Флеша и документированных группах баллов.
Пока для русского языка эти инструменты не доступны.
Давайте рассмотрим саму закладку и основные полезные фильтры
2.10.1. Точные дубли страниц
Фильтр: Exact Duplicates
Этот фильтр показывает страницы, идентичные друг другу, используя алгоритм
MD5, который вычисляет "хэш" значение для каждой страницы, которое можно увидеть в
колонке "хэш". Эта проверка выполняется по полному HTML страницы. Она покажет все
страницы с одинаковыми значениями хэша, которые полностью совпадают.
Точные дубликаты страниц могут привести к расщеплению сигналов PageRank,
возникновению канибализации поисковых запросов и непредсказуемости ранжирования.
Должна существовать только одна каноническая версия URL, на которую есть
внутренние ссылки. Другие версии не должны иметь ссылок, и они должны быть 301
перенаправлены на каноническую версию.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 150 -
2.10.2. Частичные дубли страниц
Фильтр: Near Duplicates
Этот фильтр показывает похожие страницы, основываясь на настроенном пороге
сходства, используя алгоритм minhash. Порог можно настроить в разделе 'Config > Content
> Duplicates', по умолчанию он установлен на 90%.
В столбце 'Ближайшее сходство' отображается наибольший процент сходства с
другой страницей. В столбце Closest Similarity Match (Кол-во близких дубликатов)
отображается количество страниц, похожих на данную страницу в соответствии с порогом
сходства. Алгоритм работает с текстом на странице, а не с полным HTML, как в случае с
точными дубликатами.
Страницы могут иметь 100% сходство, но быть только "близкими дубликатами", а
не точными дубликатами. Это происходит потому, что точные дубликаты исключаются как
близкие дубликаты, чтобы они не были отмечены дважды. Показатели сходства также
округляются, поэтому 99,5% и выше будут отображаться как 100%.
Для анализа есть нижняя вкладка Duplicate Detalls
Выберите страницы для сравнения и в правой части окна покажется помеченное
сходство на страницах.
Существуют отчеты, позволяющие выгрузить полные и частичные дубли контента
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Для частичных дублей, сразу после выгрузки, настройте автофильтры в Excel.
Я начинаю анализ со страниц со 100% схожестью и постепенно проанализировав и
пометив страницы, для которых требуются действия, перехожу к страницам с 99%
схожестью.
Вам крайне необходимо избавляться от полных и частичных дублей на сайте. Это
резко ухудшает его качество, размывает бюджет сканирования, приводит к
канибализации запроса.
Использование канонических тегов для избавления от дублей - не всегда
оправдано. Для Гугла канонические теги – лишь рекомендация и он произвольно может
выбрать главную страницу из пула дублей. Поэтому зачастую дубли стоит удалить или
закрыть мета noindex.
2.10.2. Страницы с малым количеством значимых слов.
Фильтр: Low Content Pages
По умолчанию здесь отображаются все HTML-страницы с количеством слов менее
200. Количество слов основано на параметрах области содержимого, используемых в
анализе, которые можно настроить через 'Config > Content > Area'.
Пороговый объем слов настраивается в конфигурации сканирования 'Config >
Spider > Preferences > Low Content Word Count'.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 151 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
В действительности минимального количества слов для страниц не существует, но
поисковым системам требуется описательный текст, чтобы понять назначение страницы.
Этот фильтр следует использовать только в качестве приблизительного ориентира, чтобы
помочь определить страницы, которые можно улучшить, добавив более описательный
контент в контексте сайта и назначения страницы.
Очень важно.
Отсортируйте отчет по количеству слов (3)
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 152 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Как мы видим в примере встречаются даже пустые страницы, без значимого
контента.
Вам необходимо пройтись по страницам (открыть их). Возможно, вам встретятся
пустые страницы, страницы с крайне малым объемом контента. Например такие:
Их необходимо либо поправить, либо удалить
Здесь же можно найти открытые для индексации технические страницы сайта,
которые нужно закрыть в мета noindex и многое другое.
Отнеситесь тщательно к работе с этими страницами, ведь они являются Thin
Content и снижают общее качество сайта. Обратите внимание, что есть выгрузка в Excel:
Для этого нажмите кнопку Export (3).
Остальные отчеты в разделе Content тривиальны (проверка грамматики и
орфографии) либо не доступны для русского языка и не требуют пояснений.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 153 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 154 -
2.11. Анализ каноникалов
Вкладка: Canonicals
На вкладке «Канонические элементы» отображаются канонические элементы
ссылок и канонические элементы HTTP, обнаруженные во время просмотра. Фильтры
показывают общие проблемы, обнаруженные для канонических элементов.
Элемент rel="canonical" помогает указать одну предпочтительную версию
страницы, когда она доступна по нескольким URL. Это подсказка поисковым системам для
предотвращения дублирования контента путем объединения свойств индексирования и
ссылок на один URL для использования при ранжировании.
Элемент канонической ссылки должен располагаться в шапке документа и в HTML
выглядит следующим образом:
<LINK REL="CANONICAL" HREF="HTTPS://WWW.EXAMPLE.COM/" >
Можно также использовать HTTP-заголовки rel="canonical".
2.11.1. Каноникалы прописаны
Фильтр: Contains Canonical
Страница имеет канонический URL (либо через элемент ссылки, либо через
заголовок HTTP, либо через оба элемента). Это может быть самореферентный
канонический URL, когда URL страницы совпадает с каноническим URL (сам на себя), или
"канонизированный", когда канонический URL отличается от URL страницы.
2.11.2. Самореферентные каноникалы
Фильтр: Self Referencing
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 155 -
URL имеет канонический URL, который является тем же URL, что и URL страницы
(следовательно, он самореферентный). В идеале только канонические версии URL
должны быть связаны с внутренними ссылками, и каждый URL должен иметь
самореферентную каноническую версию, чтобы помочь избежать любых потенциальных
проблем с дублированным контентом, которые могут возникнуть (даже естественным
образом в Интернете, например, параметры отслеживания URL, другие сайты
неправильно ссылаются на URL, который открыт для индексирования и т.д.).
2.11.3. Канонизированные страницы
Фильтр: Canonicalised
Канонизированная страница имеет канонический URL, который отличается от нее
самой. URL "нормализован" на другое место. Это означает, что поисковым системам
дается указание не индексировать страницу, а свойства индексирования и связывания
должны быть перенесены на целевой канонический URL.
Такие URL-адреса следует тщательно проверять.
Как правило, сайту не нужно канонизировать никакие URL, поскольку ссылки будут
вести только на канонические версии, но часто это необходимо в силу различных
обстоятельств, не зависящих от него, а также для предотвращения дублирования
контента.
2.11.4. Каноникал не прописан
Фильтр: Missing
Канонический URL не присутствует ни в виде элемента ссылки, ни в заголовке HTTP.
Если на странице не указан канонический URL, Google будет определять, что, по его
мнению, является лучшей версией или URL. Это может привести к непредсказуемости
ранжирования, поэтому, как правило, все URL должны указывать каноническую версию.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 156 -
2.11.5. Несколько каноникалов на странице
Фильтр: Multiple
Для URL установлено несколько канонических версий (либо несколько элементов
ссылок, либо HTTP-заголовок, либо оба вместе). Это может привести к
непредсказуемости, так как для страницы должен быть только один канонический URL,
заданный одной реализацией (элементом ссылки или HTTP-заголовком).
2.11.6. Противоречия в каноникалах на странице
Фильтр: Multiple Conflicting
Страницы с несколькими каноническими URL, установленными для одного URL, на
которых указаны разные URL (через несколько элементов ссылок, HTTP-заголовок или оба
вместе). Это может привести к непредсказуемости, так как для страницы должен быть
только один канонический URL, заданный одной реализацией (элементом ссылки или
HTTP-заголовком).
2.11.7. Неиндексируемый канонический URL
Фильтр: Non-Indexable Canonical
Rанонический URL является неиндексируемой страницей. Сюда относятся
канонические URL, которые заблокированы robots.txt, не отвечают, перенаправлены
(3XX), ошибка клиента (4XX), ошибка сервера (5XX) или имеют мета "noindex".
Канонические версии URL-адресов всегда должны быть индексируемыми
страницами с ответом '200'. Поэтому канонические версии, которые ведут на
неиндексируемые страницы, должны быть исправлены на открытые для индексации
страницы.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Чтобы посмотреть, почему каноническая страница не индексируется, щелкните в
отчете страницу (1) и перейдите к нижней части экрана.
Нажмите «Url Details» (2). На вкладке «Информация об URL» внизу отображается
причина, по которой канонический не индексируется. В приведенном ниже примере этот
канонический URL-адрес не индексируется, поскольку он закрыт в robots.txt
Для массового экспорта сведений об исходных страницах, содержащих
неиндексируемые канонические файлы, их соответствующей индексируемости, статусе
индексируемости, статусе и коде состояния, выберите:
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 157 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 158 -
Подобно редиректам, канонические ссылки также могут быть связаны цепочками и
иметь циклы. URL-адрес страницы может быть канонизирован до другого URL-адреса,
который канонизирован до третьего URL-адреса и так далее. Или иногда встречается
сочетание канонических и редиректовв одной цепочке.
Вот как можно выгрузить отчет:
После экспорта этого отчета отфильтруйте в столбце «Тип цепочки» значения,
чтобы просмотреть канонические цепочки.
2.11.8. Относительный канонический URL
Фильтр: Canonical Is Relative
Страницы, имеющие относительный, а не абсолютный URL в теге ссылки
rel="canonical". Хотя в этом теге, как и в многих других HTML тегах, можно использовать и
относительные, так и абсолютные URL, при использовании относительных путей легко
допустить ошибки, которые могут вызвать проблемы, связанные с индексированием.
Используйте абсолютные пути.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
2.11.9. Потерянные страницы, связанные через canonical
Фильтр: Unlinked
Страницы – сироты, URL которых можно обнаружить только через rel="canonical" и
на которые нет индексируемых ссылок на сайте. Это может быть признаком проблемы с
внутренней перелинковкой или с URL, содержащимися в канонических ссылках.
2.12. Анализ hreflang
Вкладка: hreflang
Вкладка hreflang содержит подробную информацию об аннотациях hreflang,
просмотренных SEO Spider, представленных в виде элемента ссылки HTML, заголовка
HTTP или XML Sitemap. Фильтры показывают общие проблемы, обнаруженные для
hreflang.
Hreflang полезен, когда у вас есть несколько версий страницы для разных языков
или регионов. Он сообщает Google об этих различных вариантах и помогает показать
наиболее подходящую версию страницы для разных языков или регионов.
Тег может быть реализован одним из трех способов (вам нужно выбрать только
один).
•
Как ссылка в заголовке HTML страницы
•
В заголовке HTTP (для файлов, отличных от HTML, таких как PDF-файлы)
•
В XML-карте сайта
Элементы ссылки Hreflang должны располагаться в шапке документа и в HTML
выглядят следующим образом:
<LINK REL="ALTERNATE" HREFLANG="EN-GB" HREF="HTTPS://WWW.EXAMPLE.COM" >
<LINK REL="ALTERNATE" HREFLANG="EN-US" HREF="HTTPS://WWW.EXAMPLE.COM/US/" >.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 159 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Опции 'Store Hreflang' и 'Crawl Hreflang' должны быть включены в настройках
сканирования
Для извлечения аннотаций hreflang из XML Sitemaps необходимо выбрать опцию
'Crawl Linked XML Sitemaps'.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 160 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 161 -
Вообще аудит и анализ hreflang вызывают довольно значительные затруднения у
неопытных оптимизаторов.
Итак, атрибут hreflang указывает страну и язык альтернативной страницы.
Используйте коды языка и страны, чтобы указать, какую веб-страницу отображать.
Языковые коды должны соответствовать двухбуквенному кодовому стилю ISO 6391 при написании в теге. Например, en (английский), es (испанский), zh (китайский).
Если вы просто переводите страницу в той же стране, код страны не нужен. Но если
вы используете код страны, он должен соответствовать формату ISO 3166-1 Alpha 2 —
например, au (Австралия), us (США), sg (Сингапур).
При написании тега hreflang всегда сначала указывайте код языка, а затем код
страны.
Например, если веб-мастер сайта example.com хочет показать свою домашнюю
страницу англоговорящим и испаноязычным пользователям в США, он должен
использовать следующие аннотации в <head> HTML-кода своего сайта:
<LINK REL="ALTERNATE" HREF="HTTPS://WWW.EXAMPLE.COM" HREFLANG="EN-US" />
<LINK REL="ALTERNATE" HREF="HTTPS://WWW.EXAMPLE.COM/ES" HREFLANG="ES-US" />
Если бы он хотел показать домашнюю страницу испаноязычным пользователям в
Венесуэле и Мексике, аннотация hreflang выглядела бы так:
<LINK REL="ALTERNATE" HREF="HTTPS://WWW.EXAMPLE.COM/VE" HREFLANG="ES-VE" />
<LINK REL="ALTERNATE" HREF="HTTPS://WWW.EXAMPLE.COM/MX" HREFLANG="ES-MX" />
Обратите внимание
между элементами <head> и <header> есть разница. Область <head> должна
содержать информацию, которая не должна отображаться на странице.
Здесь нужно разместить атрибут hreflang. Тег <header> сообщает боту или
программе чтения с экрана, что содержимое, вокруг которого он заключен,
следует рассматривать как вводную часть страницы или раздела.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
2.12.1. Hreflang найден на странице
Фильтр: Contains Hreflang
Это просто любые URL, которые имеют аннотации rel="alternate" hreflang из любой
реализации, будь то элемент ссылки, HTTP-заголовок или XML Sitemap.
2.12.2. Hreflang не найден на странице
Фильтр: Non-200 Hreflang URLs
Здесь собраны URL, содержащиеся в аннотациях rel="alternate" hreflang, которые
не имеют кода ответа 200. Например URL, заблокированные robots.txt, 3XX
(перенаправления), 4XX (ошибки клиента) или 5XX (ошибки сервера).
Hreflang URL должны быть доступными и индексируемыми, поэтому URL без кода
200 рассматриваются как ошибки и игнорируются поисковыми системами.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 162 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 163 -
URL, не соответствующие стандарту hreflang, можно увидеть в нижней панели окна
"Информация об URL" со статусом подтверждения "не 200".
Их можно экспортировать в большом количестве с помощью команды экспорта вот
так:
2.12.3. Потерянные страницы, связанные через Hreflang
Фильтр: Unlinked Hreflang URLs
Это страницы-сироты, на которые проставлены один или несколько hreflang URLs,
которые можно обнаружить только через аннотации ссылок rel="alternate" hreflang.
Аннотации hreflang не передают PageRank, как традиционные анкорные теги, поэтому это
может быть признаком проблемы с внутренней перелинковкой или URL, содержащимися
в аннотации hreflang. Чтобы узнать, какие именно hreflang URL на этих страницах не
связаны, используйте отчет:
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 164 -
Обратите внимание, что для расчета этого фильтра необходимо запустить «Анализ
сканирования». Не забывайте настроить этот анализ (включить).
2.12.4. Отсутствуют обратные Hreflang ссылки
Фильтр: Missing Return Links
URL-адреса, на которые отсутствуют обратные ссылки с их альтернативных страниц.
Hreflang является взаимным, поэтому все альтернативные версии должны подтверждать
взаимосвязь. Когда страница X ссылается на страницу Y, используя hreflang, чтобы указать
ее в качестве альтернативной страницы, страница Y должна иметь обратную ссылку.
Отсутствие обратных ссылок означает, что аннотации hreflang могут быть
проигнорированы или неправильно интерпретированы.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Их можно экспортировать в отчете:
2.12.5. Неверные языковые или региональные обратные Hreflang ссылки
Фильтр: Inconsistent Language & Region Return Links
Этот фильтр включает URL-адреса с несоответствующими языковыми и
региональными обратными ссылками. В этом случае обратная ссылка имеет другое
языковое или региональное значение, чем URL, на который ссылается сам URL.
Несоответствующие языковые обратные URL-адреса можно экспортировать тут:
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 165 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
2.12.6. Неканонические обратные ссылки
Фильтр: Non Canonical Return Links
URL с неканоническими обратными ссылками hreflang. Hreflang должен включать
только канонические версии URL. Поэтому данный фильтр отбирает обратные ссылки,
которые ведут на URL, не являющиеся каноническими версиями.
Неканонические обратные URL можно увидеть в отчете:
2.12.7. Неиндексируемые обратные ссылки
Фильтр: Noindex Return Links
Возвращает ссылки, имеющие метатег 'noindex'. Все страницы в наборе должны
быть индексируемыми, поэтому любые возвратные URL с 'noindex' могут привести к
игнорированию отношения hreflang. URL-адреса с ссылками noindex можно увидеть в
нижней панели окна "URL Details" со статусом подтверждения 'noindex'.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 166 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 167 -
Их можно экспортировать с помощью отчета
2.12.8. Неверные коды языка и региона
Фильтр: Incorrect Language & Region Codes
Здесь просто проверяются значения кода языка (в формате ISO 639-1) и
необязательного регионального кода (в формате ISO 3166-1 Alpha 2). Неподдерживаемые
значения hreflang можно просмотреть в нижней панели окна ' URL Details ' со статусом
invalid.
Простые опечатки в коде языка или страны являются очень распространенными
ошибками на международных сайтах, пытающихся реализовать hreflang.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 168 -
Простые ошибки, такие как использование недопустимого кода страны,
использование кода страны, но отсутствие кода языка или даже использование символа
подчеркивания (_) вместо дефиса (-), могут сделать ваш атрибут hreflang
недействительным.
2.12.9. Множественные вхождения
Фильтр: Multiple Entries
URL-адреса с несколькими вхождениями на язык или региональный код.
Например, если страница X ссылается на страницы Y и Z, используя одну и ту же
аннотацию значения hreflang 'en'. Этот фильтр также обнаружит несколько реализаций,
например, если аннотации hreflang были обнаружены как элементы ссылки и через HTTPзаголовок.
2.12.10. Множественные вхождения
Фильтр: Missing Self Reference
URL-адреса, в которых отсутствует собственная аннотация hreflang rel="alternate".
Ранее наличие самоссылающегося hreflang было обязательным требованием, но Google
обновил свои рекомендации, указав, что это необязательно. Тем не менее, это хорошая
практика и зачастую проще включить атрибут на саму страницу.
2.12.11. Не канонический URL
Фильтр: Not Using Canonical
URL, не использующие канонический URL на странице, в собственной аннотации
hreflang. Hreflang должен включать только канонические версии URL.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
2.12.12. Отсутствует X-Default
Фильтр: Missing X-Default
URL, у которых отсутствует атрибут X-Default hreflang. Это необязательно и не
обязательно является ошибкой или проблемой.
2.12.13. Отсутствует hreflang
Фильтр: Missing X-Default
URL, в которых полностью отсутствует атрибут hreflang. Они могут быть
корректными, конечно, если это не несколько версий страницы.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 169 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 170 -
2.13. Анализ ссылок
Вкладка: Links
Вкладка "Ссылки" содержит данные и фильтры по общим вопросам, связанным со
ссылками, обнаруженными в ходе просмотра, например, страницы с большой глубиной
просмотра, страницы без внутренних внешних ссылок, страницы, использующие nofollow
для внутренних ссылок и т. д.
Рассмотрим основные фильтры
Pages With High Crawl Depth - страницы, имеющие большую глубину сканирования
с начальной страницы сканирования на основе настроек "Глубина сканирования" в
разделе "Config > Spider > Preferences". В целом, страницы, на которые ведут прямые
ссылки с популярных страниц, таких как домашняя страница, получают больше PageRank,
что может помочь им добиться лучших органических результатов. Страницы,
расположенные гораздо глубже на сайте, часто получают меньший PageRank и,
следовательно, могут работать не так хорошо. Это важно для ключевых страниц,
нацеленных на более широкие и конкурентные запросы, которые могут выиграть от
улучшения перелинковки и уменьшения глубины сканирования. Неважные страницы,
страницы, нацеленные на менее конкурентные запросы, или страницы на крупных сайтах
часто будут естественным образом располагаться глубже без проблем. Самое главное учитывать интересы пользователя, то, на какие страницы ему важно перейти, и его путь к
странице.
Pages Without Internal Outlinks - страницы, не содержащие ссылок на другие
внутренние страницы. Это может означать отсутствие ссылок на другие страницы. Однако
это также часто связано с использованием JavaScript, когда ссылки не присутствуют в
исходном HTML и появляются только в отрендеренном HTML после обработки JavaScript.
Включите режим рендеринга JavaScript ('Config > Spider > Rendering') для просмотра
страниц со ссылками, которые находятся только на стороне клиента в рендеринге HTML.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Если нет ссылок, использующих тег якоря с атрибутом href на другие внутренние
страницы, поисковым системам и SEO Spider будет сложно обнаружить и
проиндексировать их.
Internal Nofollow Outlinks - страницы, использующие rel="nofollow" для
внутренних ссылок. Ссылки с атрибутами nofollow, как правило, не будут отслеживаться
поисковыми системами. Помните, что страницы, на которые ведут ссылки, могут быть
найдены другими способами, например, по другим переходящим ссылкам, XML Sitemaps
и т.д. Ссылки, закрытые от ботов можно увидеть на вкладке 'Outlinks'(3), когда фильтр 'All
Link Types' установлен на 'Hyperlinks' (4), где столбец 'Follow' имеет значение 'False' (5).
Экспортируйте через 'Bulk Export > Links > Internal Nofollow Outlinks'.
Internal Outlinks With No Anchor Text - страницы, на которых есть внутренние
ссылки без анкорного текста или изображения с гиперссылками без alt-текста. Анкорный
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 171 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 172 -
текст - это видимый текст и слова, используемые в гиперссылках, которые предоставляют
пользователям и поисковым системам контекст о содержании целевой страницы.
Внутренние внешние ссылки без анкорного текста можно увидеть на вкладке 'Outlinks' (3),
когда фильтр 'All Link Types' установлен на 'Hyperlinks' (4), где колонка 'Anchor Text' пуста,
или, если это изображение, колонка 'Alt Text' также пуста (5).
Экспортируйте через 'Bulk Export > Links > Internal Outlinks With No Anchor Text'.
Non-Descriptive Anchor Text In Internal Outlinks- Страницы, имеющие внутренние
ссылки с анкорным текстом, который не является описательным, например, "нажмите
здесь" или "узнайте больше" в соответствии с настройками в разделе "Config > Spider >
Preferences". Анкорный текст - это видимый текст и слова, используемые в гиперссылках,
которые предоставляют пользователям и поисковым системам информацию о
содержимом целевой страницы. Внутренние внешние ссылки с неописательным якорным
текстом можно увидеть на вкладке 'Outlinks', когда фильтр 'All Link Types' установлен на
'Hyperlinks', где в колонке 'Anchor Text' есть такие слова, как 'click here' или 'learn more'.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Вообще, когда появилась эта функция – я сильно обрадовался. Так как можно
резко улучшить внутреннюю перелинковку за счет использования анкорных текстов,
содержащих ключевые слова, вместо бесполезных безанкорных ссылок.
Был составлен словарь на тысячу-полторы бесполезных анкоров, размещен в
надлежащем месте:
Проверил, что в настройках анализа сканирования включена обработка ссылок
Но крайне сильно разочаровался – с русским языком лягушка отказывается
работать. Возможно в текущих версиях была включена поддержка русского языка – не
знаю, больше не проверял (ибо утерял словарь).
Но по идее – это отличный и нужный инструмент оптимизации.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 173 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 174 -
Pages With High External Outlinks - Страницы, на которых имеется большое
количество внешних ссылок, основанных на настройках "Большое количество внешних
ссылок" в разделе "Config > Spider > Preferences". Внешние ссылки - это гиперссылки на
другой поддомен или домен (в зависимости от конфигурации). Это могут быть
совершенно правильные ссылки, например, ссылки на другую часть того же корневого
домена или ссылки на другие полезные сайты. Внешние ссылки можно увидеть на
вкладке 'Outlinks', когда фильтр 'All Link Types' установлен на 'Hyperlinks', а столбец 'Follow'
имеет значение 'True'.
Pages With High Internal Outlinks - страницы, имеющие большое количество
внутренних ссылок, на основании настроек 'High Internal Outlinks' в разделе 'Config >
Spider > Preferences'. Внутренние ссылки - это гиперссылки на один и тот же поддомен или
домен (в зависимости от конфигурации). Ссылки используются пользователями для
навигации по сайту, а поисковые системы используют их для обнаружения и
ранжирования страниц. Слишком большое количество ссылок может снизить удобство
использования и уменьшить количество PageRank, распределяемое между страницами.
Внутренние ссылки можно увидеть на вкладке 'Outlinks', когда фильтр 'All Link Types'
установлен на 'Hyperlinks', а столбец 'Follow' имеет значение 'True'.
Follow & Nofollow Internal Inlinks To Page - Страницы, которые имеют как
rel="nofollow", так и follow ссылки на них с других страниц. Ссылки, помеченные
атрибутом nofollow, обычно не отслеживаются поисковыми системами. Ссылки без
атрибута nofollow, как правило, боты переходят по ним. Поэтому непоследовательное
использование ссылок follow и nofollow может быть признаком проблемы или ошибки,
или чем-то, что нужно проигнорировать. Ссылки nofollow и follow можно увидеть на
вкладке 'Inlinks' с фильтром 'All Link Types', установленным на 'Hyperlinks', где столбец
'Follow' имеет значения 'True' и 'False'. Экспортируйте в массовом порядке через 'Bulk
Export > Links > Follow & Nofollow Internal Inlinks To Page'.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 175 -
Internal Nofollow Inlinks Only - Страницы, на которые с других страниц ведут только
ссылки rel="nofollow". Ссылки, помеченные атрибутами nofollow, обычно не
отслеживаются поисковыми системами, поэтому это может повлиять на обнаружение и
индексацию страницы. Входящие ссылки nofollow можно увидеть на вкладке 'Inlinks' с
фильтром 'All Link Types', установленным на 'Hyperlinks', где столбец 'Follow' имеет
значения 'True' и 'False'. Экспортируйте в массовом порядке через 'Bulk Export > Links >
Internal Nofollow Inlinks Only'.
Outlinks To Localhost - Страницы, содержащие ссылки, которые ссылаются на
localhost или loopback-адрес 127.0.0.1. Localhost - это адрес локального компьютера,
который используется в разработке для просмотра сайта в браузере без подключения к
Интернету. Эти ссылки не будут работать для пользователей на живом сайте. Эти ссылки
можно увидеть на вкладке 'Outlinks', где адрес 'To' содержит 'localhost' или адрес
127.0.0.1 loopback. Экспорт в массовом порядке осуществляется через 'Bulk Export > Links >
Outlinks To Localhost'.
Non-Indexable Page Inlinks Only - индексируемые страницы, на которые ведут
ссылки только со страниц, не подлежащих индексированию, к которым относятся
страницы с noindex, каноникализованные или запрещенные robots.txt. Страницы с noindex
и ссылки с них первоначально будут просмотрены, но страницы с noindex будут удалены
из индекса и со временем будут просматриваться реже. Ссылки с этих страниц также
будут просматриваться реже, и среди гуглеров ведутся споры о том, будут ли ссылки
вообще учитываться. Ссылки с канонизированных страниц могут быть первоначально
просмотрены, но PageRank может идти не так, как ожидалось, если сигналы
индексирования и ссылки передаются на другую страницу, указанную в каноникале. Это
может повлиять на обнаружение и ранжирование.
2.14. Анализ структурированных данных
Вкладка: Structured data
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 176 -
Вкладка "Структурированные данные" содержит подробную информацию о
структурированных данных и проблемах с проверкой, обнаруженных в результате
сканирования.
Структурированные данные предоставляют поисковым системам явные подсказки
о значении страниц и их компонентов и могут включать специальные функции резульатов
поиска и улучшения в Google.
Опции конфигурации 'JSON-LD', 'Microdata', 'RDFa', 'Schema.org Validation' и 'Google
Rich Result Feature Validation' должны быть включены (в разделе 'Config > Spider >
Extraction'), чтобы эта вкладка и соответствующие фильтры были полностью заполнены.
В то время как словарь Schema.org чувствителен к регистру (и вы можете включить
эту опцию), Google не так строг, поэтому это не требуется для расширенных функций
результатов Google и их понимания структурированных данных.
Для различных функций поиска «расширенных результатов» Google требуются
различные типы структурированных данных, и их реализация может помочь получить
расширенные фрагменты (более выделяющиеся, подробные «фрагменты» в результатах
поиска), что может привести к увеличению трафика.
Инструмент тестирования структурированных данных Google может помочь
проверить и проверить реализацию структурированных данных в соответствии с их
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 177 -
требованиями к расширенным функциям результатов. К сожалению, здесь нет API, он не
позволяет проводить массовый аудит URL-адресов и иногда пропускает или не
классифицирует проблемы проверки между обязательными и рекомендуемыми
свойствами.
На вкладке «Структурированные данные» отображаются все URL-адреса,
найденные при сканировании, и различные типы структурированных данных в отдельных
соответствующих столбцах, а также итоги, ошибки и предупреждения на панели главного
окна.
Вкладка имеет следующие фильтры:
Contains Structured Data - Это любые URL-адреса, содержащие структурированные
данные. Вы можете увидеть различные типы в колонках в верхнем окне.
Missing Structured Data - это URL-адреса, которые не содержат структурированных
данных.
Validation Errors - это URL-адреса, содержащие ошибки валидации. Ошибки могут
быть либо Schema.org, либо Google rich results features, либо и то, и другое - в зависимости
от настроек сканирования. Ошибки Schema.org всегда классифицируются как ошибки, а не
как предупреждения. Валидация функций Google покажет ошибки при отсутствии
необходимых свойств или проблемах с реализацией необходимых свойств. Обязательные
свойства" Google должны быть включены и быть действительными.
Validation Warnings- это URL-адреса, содержащие предупреждения о проверке для
функций расширенных результатов Google. Они всегда относятся к "рекомендуемым
свойствам", а не к обязательным. Рекомендуемые свойства могут быть включены для
добавления дополнительной информации о контенте, что может обеспечить лучший
пользовательский опыт - но они не являются обязательными для получения права на
расширенные сниппеты, и поэтому они являются только предупреждением. Для проблем
с проверкой Schema.org "предупреждений" нет, однако есть предупреждение за
использование старой схемы data-vocabulary.org.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 178 -
Parse Errors- это URL-адреса, структурированные данные которых не удалось
правильно спарсить. Часто это происходит из-за неправильной разметки.
Нижняя панель окна со структурированными данными содержит дополнительную
информацию об обнаруженных элементах и проблемах. В левой части нижней панели
окна отображаются значения свойств и значки рядом с ними при наличии ошибок или
предупреждений, а в правом окне представлены подробные сведения о конкретных
проблемах проверки.
Структурированные данные могут быть сложными даже с помощью инструментов.
Поэтому всегда обращайтесь к соответствующей документации, чтобы получить больше
информации и следуйте рекомендациям.
Простое правило аудита структурированных данных заключается в том, чтобы
исправить ошибки проверки, чтобы убедиться, что контент рассматривается для функции
расширенных результатов Google и расширенных фрагментов, а также рассмотреть, будет
ли информация в предупреждениях полезной для пользователей, и либо реализовать,
либо игнорировать.
Проблемы проверки основаны на требуемых и рекомендуемых свойствах функции
расширенных результатов Google и спецификациях Schema.org . Проверка также
выполняется по значениям свойств, чтобы убедиться, что они имеют правильную форму.
Например, если свойство должно быть URL-адресом или числом и т. д.
Просмотр рекомендаций Google по расширенным функциям результатов поможет
лучше понять проблемы проверки, поэтому всегда возвращайтесь к ним.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 179 -
2.15. Анализ xml-карт
Вкладка: Sitemaps
На вкладке Sitemaps отображаются все URL-адреса, обнаруженные в процессе
сканирования, которые затем можно отфильтровать, чтобы показать дополнительную
информацию, связанную с XML Sitemaps. Карты должны быть актуальными, не содержать
ошибок и включать индексируемые, канонические версии URL-адресов, чтобы помочь
поисковым системам просканировать и проиндексировать URL-адреса, важные для сайта.
Для просмотра XML Sitemaps и заполнения фильтров необходимо включить
конфигурацию 'Crawl Linked XML Sitemaps' (в разделе 'Configuration > Spider'). Можно
выбрать обнаружение XML Sitemap через robots.txt (для этого требуется директива в
robots.txt 'Sitemap: https://www.example.com/sitemap.xml') или указать место назначения
XML Sitemap.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 180 -
После сканирования сайта необходимо выполнить 'Анализ сканирования, чтобы
заполнить некоторые фильтры.
На этой вкладке представлены следующие фильтры.
URLs In Sitemap - Все URL-адреса, которые содержатся в XML Sitemap. Они должны
содержать индексируемые и канонические версии важных URL-адресов.
URLs Not In Sitemap - URLs, которые не включены в XML Sitemap, но были
обнаружены в процессе сканирования. Это может быть сделано специально (поскольку
они не важны), или они могут отсутствовать, и XML Sitemap необходимо обновить, чтобы
включить их. Этот фильтр не рассматривает неиндексируемые URL-адреса, он
предполагает, что они правильно неиндексируются и поэтому не должны быть отмечены
для включения.
Orphan URLs - URL-адреса, которые содержатся только в XML Sitemap, но не были
обнаружены во время сканирования (страницы-сироты). Или URL-адреса, которые
обнаруживаются только по URL-адресам в XML-файле Sitemap, но не были обнаружены в
процессе сканирования. Они могут быть случайно включены в XML Sitemap, или это могут
быть страницы, которые вы хотите проиндексировать, и на самом деле на них должны
быть внутренние ссылки.
Non-Indexable URLs in Sitemap - URL, которые находятся в XML Sitemap, но являются
неиндексируемыми, поэтому их следует удалить или исправить их индексируемость.
URLs In Multiple Sitemaps - URLs, которые находятся более чем в одном XML
Sitemap. Это не обязательно является проблемой, но обычно URL должен быть только в
одном XML Sitemap.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 181 -
XML Sitemap With Over 50k URLs- отображается любой XML Sitemap, содержащий
более 50 тыс. URL. Если у вас больше URL-адресов, вам придется разбить список на
несколько карт сайта и создать индексный файл карты сайта, в котором будут
перечислены все URL-адреса.
XML Sitemap With Over 50mb- отображается любой XML Sitemap, размер файла
которого превышает допустимые 50 мб. Если карта сайта превышает лимит в 50 МБ (без
сжатия), вам придется разбить свой список на несколько карт сайта.
Приведенные выше фильтры помогут вам проверить, что в XML Sitemap включены
только индексируемые, канонические URL-адреса.
Bing не терпит "грязи" в XML Sitemap, например, ошибок, перенаправлений или
неиндексируемых URL, что может означать снижение доверия к XML Sitemap при поиске и
индексировании.
Google также рекомендует использовать XML Sitemap для канонизации URL
(определения предпочтительной версии URL), поэтому важно поддерживать их в
хорошем состоянии и предоставлять четкие и последовательные сигналы.
Если у вас есть несколько файлов Sitemap в формате XML, вам нужно знать, какие
из файлов Sitemap в формате XML содержат неиндексируемый URL-адрес или потерянный
URL-адрес и т. д.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Для этого просто щелкните URL-адрес в верхней панели окна (3), а затем щелкните
вкладку «Inlinks» внизу (4), чтобы заполнить нижнюю панель окна. Выберите тип «XML
Sitemap»(5) — это ссылки на URL-адрес из XML-карты сайта (6).
Если у вас есть несколько файлов Sitemap в формате XML, это важный шаг, чтобы
вы знали, какие URL относятся к каким файлам Sitemap в формате XML.
Чтобы выполнить массовый экспорт данных встроенных ссылок XML Sitemap,
используйте меню верхнего уровня «Массовый экспорт > Карты сайта»
На скриншоте выше это экспортирует все XML Sitemaps, в которых есть
неиндексируемые URL.
Можно провести аудит XML Sitemap отдельно ( помимо сканирования сайта),
загрузив его в режиме списка. Этот процесс описан ниже.
Нажмите "Режим > Список" в меню верхнего уровня. Это позволяет загрузить
список URL-адресов или загрузить XML Sitemap напрямую.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 182 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Выберите "Загрузить файл" или "Загрузить XML Sitemap".
Если у вас есть сохраненный файл XML Sitemap, вы можете загрузить этот файл,
однако если он уже существует, вы можете просто выбрать "Загрузить XML Sitemap" и
ввести URL-адрес.
Если у вас есть индексный файл Sitemap, содержащий несколько XML-сайтов,
выберите "Загрузить XML Sitemap", чтобы просмотреть их все за один раз.
Нажмите "ОК" и еще раз "ОК", чтобы запустить процесс.
Стоит помнить, что загрузка XML Sitemap в режиме списка не даст такой полной
информации, поскольку SEO Spider не будет иметь данных о том, какие из них могут быть
найдены в процессе сканирования. Это означает, что фильтры 'URLs Not In Sitemap' и
'Orphan URLs' не будут заполнены, поскольку эти данные неизвестны.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 183 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 184 -
Обязательно подпишитесь на наш телеграм-канал
«SEO фишки от DrMax» t.me/drmaxseo
Дорогие друзья. Я не только автор этой книги,
но и занимаюсь целым комплексом SEO работ,
таких как:
аудит и восстановление трафика на сайте
технический аудит
аудит внешнего ссылочного
разработка стратегии линкбилдинга
и многими иными услугами.
Обращайтесь ко мне в Телеграм: t.me/DrMax2SEO
Или на сайте DrMax.su | email: i@drmax.su
Рекомендую курс по продвижению англоязычных сайтов
от Миши Шакина. Поразительные результаты за несколько
высококлассных уроков. Методика обучения постоянно
развивается, с каждым набором актуализируется.
Укажите промокод: DrMax и получите бонус 5000 руб.
Подробная информация тут: https://seoshaolin.com/#how
Кстати, именно Михаил был организатором всех наших телеконференций, которые есть в книге.
Николай Шмичков – наш хороший товарищ и отменный SEO
специалист. Агентство SEOQUICK, где он трудится занимается
полным циклом продвижения интернет-проектов. А еще там
публикуются отличные тематические статьи, обзоры и многочисленные образовательные
материалы. Обязательно к изучению.
seoquick.company
И не могу не порекомендовать. Есть прекрасная,
полноценная альтернатива для Screaming Frog SEO
Spider. Это бесплатный SEO комплекс, написанный
Андреем Симагиным. Он состоит из двух программ SiteAnalyzer и SimpleWebAnalytics,
позволяющие как анализировать техническое состояние сайта, так и собирать данные из
GSC, GA, Яндекс вебмастера и Яндекс Метрики.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Часть 3. Пошаговый технический анализ сайта
73.1. Осмотр сайта
Начните аудит с ручного просмотра сайта и просто записывайте то, что привлекает
ваше внимание.
Прокликайте пункты меню, пройдитесь по страницам, попробуйте как работают
фильтры/выборки/фасеты, заглядывайте в исходный код.
Просматривайте сайт не только в десктопной, но и в мобильной версии.
На этапе осмотра данных я обнаруживаю огромное количество ошибок.
Так на одном сайте я не смог закрыть видео на главной, которое перекрывало
часть экрана.
На другом сайте обнаружил неисправное мобильное меню
На третьем сайте – нерабочие страницы, ссылки на которых были в главном меню.
Еще где то обнаружил проблемы со слайдером, который грузил несколько сотен
одинаковых изображений и вес страницы становился крайне огромным
В целом набор ошибок может быть огромным и они постоянно уникальные.
Иногда на главной странице практически нет текстового контента. Всю страницу
занимают медиа-материалы, слайдеры, баннеры и пр.
Для поисковых систем такая страница – типичный Thin Content, которую вовсе не
обязательно хорошо ранжировать в органической выдаче.
Ссылки с этой страницы (главной!) практически не будут иметь веса,
следовательно и внутренние страницы также будут страдать.
Обязательно на главной странице должен быть текстовый контент, который
поможет ПС понять тематику сайта.
Сюда же. Почему то, очень часто, на главной странице нет тега <H1>, при этом на
всех иных он прописан.
Это тоже не очень хорошо. Необходимо соблюдать иерархию заголовков на
странице для максимальной проработки эффективности SEO.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 185 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 186 -
Обязательно выясните на какой CMS работает сайт. У каждой CMS есть свой набор
постоянных болячек, которые смогут значительно упростить анализ сайта.
Кроме того, при осмотре сайта вы знакомитесь со структурой сайта, его основными
разделами, способами группировки контента, организацией навигации и прочими
полезными вещами, которые пригодятся при техническом анализе сайта.
Важно убедиться, что Google индексирует только одну версию вашего сайта.
Ваш сайт может размещаться на разных версиях URL-адреса (в зависимости от того,
есть ли WWW в домене и использует ли ваш сайт HTTPS).
Для поисковой системы это разные версии сайта:
•
http://www.yoursite.com
•
http://yoursite.com
•
https://www.yoursite.com
•
https://yoursite.com
Если ваш веб-сайт работает более чем с одной из этих версий URL, это может
вызвать множество проблем со сканированием, индексированием и ранжированием. Тем
более, что Google примет их за дубликаты.
Кроме того, наличие нескольких версий вашего сайта может ослабить PageRank ,
что также может негативно сказаться на вашем рейтинге.
Проверить это можно очень просто: введите все версии вашего сайта в веббраузере.
Вы должны быть автоматически перенаправлены на предпочтительную версию.
Например, если ваша предпочтительная версия URL-адреса https://yoursite.com , вы
должны быть перенаправлены на нее, если вы введете любую другую версию в своем
браузере.
Вы не сможете получить полное представление о сайте, не зная хотя бы немного о
его истории. Обязательно проверьте возраст домена, историю его регистраторов и то, кто
является его текущим владельцем.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 187 -
Помимо истории домена, полезно знать, как выглядел сайт в прошлом и какой тип
контента на нем был. Эти знания позволят вам определить, был ли на сайте редизайн или
какие-то другие важные изменения.
С помощью Wayback Machine можно посмотреть, как выглядел сайт в прошлом.
Как правило, я посвящаю осмотру сайта не менее 4-10 часов (зависит от объема).
3.2. Начните анализ сайта техническими средствами
После уяснения структуры сайта, но до окончания ручного осмотра, я включаю
сканирование сайта техническими средствами (например лягушкой). Это означает, что вы
должны иметь возможность имитировать способ, которым Google сканирует ваши
страницы. И просматривать все проблемы, связанные с этими страницами, так, как их
может видеть Google.
Первый проход всегда делаю для мобильной версии с реендерингом Java
скриптов.
Как правило, использую следующие настройки:
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
3.3. Анализ Search Console
После осмотра сайта я перехожу к просмотру данных Search Console и иногда GA.
Здесь обратите внимание на такие вещи, как трафик, индексацию, обратные ссылки,
органические ключевые слова и тенденции трафика.
Наиболее важным является изучение индексации сайта, проверке того что попало
и что не попало в индекс и каковы причины этого.
Страницы, которые не проиндексированы, отсутствуют в базе данных Google.
Google не может ранжировать их.
Перейдите к отчету «Страницы » в разделе «Индексирование» в левом меню.
Здесь вы можете увидеть график всех страниц в зависимости от их статуса индексации.
Ниже вы увидите список причин, по которым страницы не были
проиндексированы. Пройдитесь по всем перечисленным причинам одну за другой.
Осмотрите страницы, которые подпадают под эти причины.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 188 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 189 -
Помните, что не все страницы должны быть проиндексированы — только те,
которые вы хотите ранжировать в результатах поиска. Поэтому совершенно нормально
иметь некоторые URL-адреса, которые не проиндексированы.
Если вы нашли страницу, которая должна быть проиндексирована, но не
индексируется, устраните проблему. Если вы существенно изменили страницу, вы можете
снова запросить индексацию. Даже если страница уже проиндексирована.
3.4. Изучение ссылочного профиля
Необходимо провести общий анализ профиля обратных ссылок. Если сайт имеет
массу ядовитых ссылок, либо не имеет ссылок вовсе, то практически невозможно
добиться хорошего ранжирования и ваши усилия пропадут даром.
Используйте для анализа данные GSC
Далее, используя VPN зарегистрируйте бесплатный аккаунт в SemRush. Он имеет
очень хороший инструмент аудита обратных ссылок, который позволяет быстро
просмотреть профиль обратных ссылок проверяемого сайта.
Вы можете провести общий аудит ссылок с помощью Semrush, который
сгруппирует ссылки и укажет на потенциально низкокачественные ссылки.
Этот инструмент достаточно функционален даже в бесплатной версии и позволяет
подготовить лист отклонений.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
3.5. Проверьте наличие ручных действий
Если ваш сайт нарушает политику Google в отношении спама , Google может
принять меры в отношении него вручную.
На практике ручное действие означает, что рейтинг вашего сайта будет падать до
тех пор, пока Google не отменит это действие. Это действие может быть на уровне
страницы или на уровне всего сайта.
Некоторые причины, по которым вы могли получить ручное действие, включают
следующее:
•
Набивка ключевыми словами
•
Неестественные ссылки (как на ваш сайт , так и с него )
•
Различные виды спама
•
Бесполезный контент с небольшой добавленной стоимостью или без нее
Вы можете проверить, получили ли вы ручной штраф в Google Search Console. В
левом боковом меню вы увидите раздел «Проблемы безопасность и меры принятые
вручную», а внутри него ссылку « Меры, принятые вручную ».
Нажмите на нее, и вы попадете на страницу, где вы увидите статус.
Если в отношении вашего веб-сайта предпринимаются ручные меры, вам
необходимо устранить проблемы и отправить запрос на повторное рассмотрение.
В большинстве случаев штраф налагался из за плохого профиля обратных ссылок.
А для того, чтобы Google посчитал ссылочный профиль «плохим», веб-сайт должен
демонстрировать образец неестественного поведения и использовать множество
манипулятивных подходов.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 190 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 191 -
Суть такого неестественного поведения обычно заключается в текстовых ссылках с
ВЧ анкорами. Эти анкоры в основном представляют собой ссылки с анкорным текстом,
который идеально соответствует ценному ключевому слову, по которому ваш сайт
пытается ранжироваться.
Также важно помнить, что ссылка может выглядеть неестественно для Google из-за
ее анкора, даже если она исходит с надежного сайта. Google знает, какие ключевые слова
приносят прибыль. У них самая большая в мире база данных ключевых слов, каждому из
которых присвоено значение.Неважно, находятся ли эти ссылки в PBN, спаме виджетов,
текстовых ссылках из контента и т.д. Если ссылка выглядит неестественно, Google сочтет
ее неестественной независимо от того, где она находится. Если ваш процент
неестественных ссылок выше, чем обычно для вашей ниши/языка/страны, Google с
радостью накажет ваш сайт.
Даже ссылки с авторитетных медиа-сайтов могут считаться плохими, поэтому
регулярно проверяйте свой профиль обратных ссылок . Следите за тем, как выглядят ваши
ссылки и где именно на сайте они расположены.
Существует еще один тип злонамеренного поведения, который опять становится
широко распространенным, но также влечет за собой наказание: автоматическое
создание контента. Проще говоря, этот метод является спамом, и его следует избегать,
если вы хотите иметь хорошие позиции в Google. Так что, если вы рассматривали эту
тактику, вам определенно следует отказаться от нее.
Обычно Google придерживается подхода «наказание соответствует преступлению»
при наложении штрафа на веб-сайт , но как суровость, так и время восстановления могут
варьироваться в зависимости от отрасли.
Чем больше в вашем профиле обратных ссылок - токсичных ссылок, тем сложнее
будет избежать наказания. Поэтому не используйте спам-стратегии, т.е. создание тысяч
неестественных ссылок, ведущих на ваш сайт. Если вас поймают, вы потратите гораздо
больше времени и усилий на снятие штрафа Google и восстановление после него.
Прямые, подробные и краткие запросы на пересмотр в Google могут упростить
процесс снятия штрафа. Помните, что не существует универсального рецепта, который
поможет быстро исправить штраф Google в каждом случае ручного действия.
В среднем для снятия штрафа требуется 2-3 запроса на пересмотр.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 192 -
Трафик на ваш сайт может значительно снизиться, если на него будет наложен
штраф. Действия, выполняемые вручную для неестественных входящих ссылок, делятся
на две категории: «влияет на некоторые страницы» и «влияет на все страницы». При
первом типе вы можете не увидеть значительных изменений в трафике, если только
главная страница не будет оштрафована. Штраф для всех страниц всегда огромный. Как
правило, вы можете потерять около 80% своего трафика.
Подразумевается, что нет шаблона того, как Google отвечает на запросы о
пересмотре. Иногда на то, чтобы все уладить, могут уйти дни или даже недели, а другие
запросы могут оставаться без ответа месяцами — это влияет на весь процесс снятия
штрафа. Итак, время, затраченное на снятие штрафа, может существенно различаться —
от 48 часов до года и даже больше.
Как подойти к снятию штрафа Google. Для этого анализируйте каждую ссылку
отдельно. Рекомендуется проверять каждую ссылку вручную, используя различные
критерии, такие как положение ссылки, анкорный текст, релевантность веб-сайта и так
далее.
Однако помните, что удаление и дезавуирование «больше, чем необходимо» — не
очень хорошая практика. Возможно, вы не сможете восстановить первоначальную
производительность сайта, поскольку есть вероятность, что вы удалите качественные
обратные ссылки, которые также приносили трафик.
Если вы обнаружите ссылки с доменов очень низкого качества, всегда добавляйте
весь домен в файл отклонения.
Сделать ваше общение с Google медленным и постоянным, а не отправлять им все
сразу.
Во-первых, не отправляйте Google все, что у вас есть в свою защиту (ссылки
удалены, с веб-мастерами связались и т. д.) в первом запросе на пересмотр. Разбейте
данные на 3-4 попытки и подавайте постепенно, так как гугл редко снимает штрафы после
первого запроса.
Используйте «полностью скромный» подход при обращении в Google — сейчас не
время говорить, что вы правы, спорить или обвинять третью сторону. Более того, лучше
извиниться и сказать, что больше так делать не будешь. Проще говоря, возьмите на себя
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 193 -
ответственность за свою ошибку, даже если у вас не было намерения связываться с
поисковой системой Google. Покажите, что вы «действительно сожалеете».
Вообще весь процесс снятия штрфа можно рассматривать как множество шагов,
которые необходимо предпринять, включая улучшение контента и технических сигналов
как на странице, так и за ее пределами. При этом любое наказание может быть снято, и
почти каждый веб-сайт может стать более релевантным после того, как штраф будет снят,
а веб-сайт будет улучшен с помощью тех анализа и усилий в SEO.
3.6. Проверьте отчет об эффективности
Откройте отчет "Результаты поиска", чтобы получить представление о результатах
работы сайта в поиске. Проверьте такие показатели, как общее количество кликов, общее
количество показов, средняя позиция и средний CTR.
Установите диапазон дат на последние 12 месяцев. Обратите внимание на любые
тенденции трафика. Увяжите их с изменениями как на сайте, так и с обновлениями
алгоритмов Google.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 194 -
3.7. Проверьте xml-карту сайта
Перейдите в Индексирование > Файлы Sitemaps, чтобы проверить, была ли
отправлена в Google XML – карта сайта
Если в разделе Статус вы видите «успешно», значит, карта сайта была успешно
обработана. Вы также можете щелкнуть на конкретной карте сайта, чтобы просмотреть ее
детали.
Если вы не уверены, что у проверяемого сайта есть XML-карта сайта, узнайте, как
найти карту сайта у владельцев сайта.
Проверьте, содержит ли карта сайта XML все URL-адреса, которые она должна
содержать. По определению, карта сайта XML должна содержать все индексируемые и
канонические веб-страницы сайта. Однако на практике это не всегда так.
Проверьте, не содержит ли карта сайта некорректные записи, такие как
перенаправленные URL, веб-страницы 4xx, URL, защищенные паролем, и т.д. Опять же, вы
можете быстро проверить это, просмотрев XML-карту сайта.
Проверьте, использует ли карта сайта устаревшие параметры <priority> и
<changefreq>. Просто откройте карту сайта XML и проверьте, есть ли в ней параметры
<priority> и <changefreq>. В настоящее время эти параметры игнорируются Google,
поэтому в карте сайта нет никакой необходимости в их наличии. Обычно я рекомендую
полностью удалить их.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 195 -
Проверьте, используется ли на сайте параметр <lastmod>. Если параметр
используется, проверьте, правильно ли он используется. Google способен определить
фактическую дату последней модификации сайта. Если параметр <lastmod> используется
неправильно, Google просто проигнорирует его. Если, например, параметр <lastmod>
указывает одну и ту же дату во всех записях карты сайта, то можно быть уверенным, что
он используется неправильно.
Проверьте, есть ли на сайте карта сайта изображений. Если на сайте много ценных
изображений и он полагается на Image Search, то у него обязательно должна быть карта
сайта изображений. Его отсутствие может привести к тому, что роботы поисковых систем
не смогут обнаружить и проиндексировать все изображения. Изображения могут быть
добавлены в виде отдельной карты сайта или вместе с обычной XML-картой сайта.
Проверьте, есть ли на сайте карта сайта для видео. Это касается только тех случаев,
когда сайт размещает видео на своем собственном сервере. Видео sitemap не
предназначен для указания видео на YouTube.
3.8. Проверка удалений
Проверьте, что никто намеренно или ненамеренно не запрашивал удаление
содержимого сайта. Просто перейдите в раздел Индексирование > Удаление и
посмотрите, что там есть.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 196 -
Инструмент "Удаления" в Google Search Console позволяет быстро удалить любую
веб-страницу из индекса Google.
3.9. Проверка удобства страниц
Следующий шаг - проверить, есть ли какие-либо улучшения для сайта. Просто
перейдите в раздел удобства страницы и посмотрите на каждый элемент, перечисленный
там.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 197 -
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
Далее перейдите в отчет «Основные интернет-показатели» и проверьте скорость и
эффективность страниц.
3.10. Проверьте отчет о сканировании
Отчет о сканировании позволяет более детально изучить, как Google
просматривает сайт.
Перейдите в Настройки, а затем в разделе Статистика сканирования нажмите на
«Открыть отчет».
Отчет Crawl stats позволит вам быстро просмотреть общее количество запросов на
сканирование, общий размер загрузки и средний отклик. Кроме того, в разделе Хосты вы
увидите
информацию
о
работе
ваших
Скачано с сайта - SuperSliv.biz - Присоединяйся!
хостов.
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Отчет о сканировании - это потрясающий инструмент для понимания того, как
Googlebot ходит по вашему сайту. Обязательно проверьте этот раздел, чтобы быстро
обнаружить любые проблемы со сканированием сайта.
3.11. Изучите текущий файл отклонений
При аудите сайта необходимо также проверить, был ли отправлен файл
дезавуирования и (возможно) действительно ли в нем есть ссылки, которые должны
быть. Проверка того, был ли отправлен файл дезавуирования, очень важна, особенно
если вы проверяете сайт, который потерял или теряет свою органическую видимость.
https://search.google.com/search-console/disavow-links
Вы не можете получить доступ к инструменту дезавуирования из Google Search
Console, поскольку это продвинутый инструмент, который может нанести большой вред
при неправильном использовании.
Ваша задача - проверить, был ли отправлен файл дезавуирования, и, если
возможно, взглянуть на его содержимое, чтобы убедиться, что он был использован
правильно и в соответствии с его назначением.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 198 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
3.12. Проверьте основной сканирующий робот
Чтобы проверить основной краулер сайта, войдите в Google Search Console и
перейдите в раздел "Индексирование - страницы". В верхней части страницы вы увидите
информацию о главном роботе.
Большинство сайтов уже давно перешли на первую мобильную индексацию. Что
делать, если сайт, который проверяется, еще не переведен и его основной робот все еще
ПК, как в приведенном выше случае?
•
Возможно, сайт устарел и имеет серьезные проблемы с загрузкой и
отображением на мобильных устройствах.
•
Возможно, он не дружественен к мобильным устройствам. Если это так, то
необходимо сделать его дружественным к мобильным устройствам.
•
У него все еще есть версия m. для мобильных устройств.
•
Это может быть новый сайт, домен которого был зарегистрирован ранее.
Это единственный нормальный сценарий для сайта, который все еще
использует десктопный краулер.
Вот список наиболее распространенных ошибок, которые могут помешать
индексации сайтов для мобильных устройств или привести к падению рейтинга после
включения индексации для мобильных устройств.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 199 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 200 -
Отсутствуют структурированные данные - на странице для мобильных устройств
отсутствует вся разметка структурированных данных, которая есть на странице для
настольных компьютеров.
Убедитесь, что структурированные данные присутствуют в обеих версиях вашего
сайта (настольной и мобильной).
Убедитесь, что ваши мобильные и десктопные сайты содержат одинаковые
структурированные данные.
Используйте правильные URL-адреса в структурированных данных. Убедитесь, что
URL-адреса в структурированных данных в мобильных версиях обновлены до правильных
URL-адресов.
Используйте инструмент проверки URL-адресов , чтобы убедиться, что контент
виден на отображаемой странице (отображаемая страница — это то, как Google видит
вашу страницу).
noindex на страницах. Мобильная страница заблокирована от индексации тегом
noindex.
Используйте одни и те же метатеги robots на сайте для мобильных устройств и на
сайте для ПК. Не используйте noindex на странице для мобильных устройств (в противном
случае Google не будет индексировать вашу страницу, если на вашем сайте включена
индексация для мобильных устройств).
Отсутствует изображение - на странице для мобильных устройств нет всех важных
изображений, которые есть на странице для настольных компьютеров.
Убедитесь, что ваш сайт для мобильных устройств содержит тот же контент, что и
сайт для ПК. Если ваш сайт для мобильных устройств содержит меньше контента, чем сайт
для настольных компьютеров, рассмотрите возможность обновления вашего мобильного
сайта, чтобы его основной контент был эквивалентен вашему сайту для настольных
компьютеров. Для индексации используется только контент, отображаемый на
мобильном сайте.
Используйте одни и те же метатеги robots на сайте для мобильных устройств и на
сайте для компьютеров. Не используйте nofollowтег на странице для мобильных устройств
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 201 -
(иначе Google не будет сканировать и индексировать изображения на вашей странице,
если на вашем сайте включена индексация для мобильных устройств).
Используйте поддерживаемый формат и тег для изображений.
Заблокированное изображение - важное изображение на мобильной странице
заблокировано файлом robots.txt.
Разрешите Google сканировать ваши ресурсы. URL-адреса некоторых изображений
на сайте для мобильных устройств отличаются от URL-адресов на сайте для ПК. Если вы
хотите, чтобы Google сканировал ваши URL-адреса, не блокируйте URL-адрес директивой
disallow.
Изображение низкого качества - важное изображение на странице для мобильных
устройств слишком маленькое или имеет низкое разрешение.
Предоставьте изображения высокого качества . Не используйте слишком
маленькие изображения или изображения с низким разрешением на мобильном сайте.
Отсутствует альтернативный текст - у важного изображения на странице для
мобильных устройств отсутствует замещающий текст.
Используйте тот же замещающий текст для изображений на сайте для мобильных
устройств, что и на сайте для ПК.
Отсутствует заголовок страницы - на мобильной странице отсутствует заголовок.
Убедитесь, что заголовки и метаописания одинаковы в обеих версиях вашего сайта.
Отсутствует мета-описание - на мобильной странице отсутствует метаописание.
Убедитесь, что заголовки и метаописания одинаковы в обеих версиях вашего сайта.
Мобильный URL является страницей с ошибкой
Убедитесь, что статус страницы с ошибкой одинаков на настольном и мобильном
сайтах. Если страница вашего десктопного сайта содержит обычное содержимое, а версия
этой страницы вашего мобильного сайта содержит страницу с ошибкой, эта страница
будет отсутствовать в индексе.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 202 -
Мобильная страница заблокирована правилом robots.txt.
Убедитесь, что директивы robots.txt и метатеги robots работают должным образом
для обеих версий вашего сайта. Используйте одни и те же директивы robots.txt как для
мобильной, так и для настольной версии вашего сайта.
Дублирование целевой страницы для мобильных устройств - несколько страниц
десктопной версии перенаправляются на одну и ту же мобильную страницу.
Убедитесь, что версии для настольных компьютеров, которые обслуживают разное
содержимое, имеют эквивалентные версии для мобильных устройств. Если разные URLадреса перенаправляют на один и тот же URL-адрес на мобильных устройствах после того,
как для вашего домена будет включено индексирование для мобильных устройств, все
эти страницы будут отсутствовать в индексе.
Десктопный сайт перенаправляет на мобильную домашнюю страницу большинство или все страницы сайта для настольных компьютеров перенаправляются на
главную страницу сайта для мобильных устройств.
Убедитесь, что десктопная версия имеет эквивалентную мобильную версию. Если
разные URL-адреса перенаправляют на домашнюю страницу на мобильных устройствах,
все эти страницы будут отсутствовать в индексе после того, как ваш домен будет
перенесен на индексирование для мобильных устройств.
Проблемы с качеством страницы - на мобильной странице есть проблемы с
рекламой, отсутствием контента, заголовков или описательных элементов для
изображений на странице.
Устраните проблему: Не позволяйте рекламе навредить ранжированию вашей
мобильной страницы. Следуйте стандарту Better Ads Standard при показе рекламы на
мобильных устройствах. Убедитесь, что ваш сайт для мобильных устройств содержит тот
же контент, что и сайт для ПК. Если ваш сайт для мобильных устройств содержит меньше
контента, чем сайт для настольных компьютеров, рассмотрите возможность обновления
вашего мобильного сайта, чтобы его основной контент был эквивалентен вашему сайту
для настольных компьютеров. Для индексации используется только контент,
отображаемый на мобильном сайте.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Убедитесь, что вы используете те же четкие и содержательные заголовки на
мобильном сайте, что и на настольном.
Используйте те же заголовки, подписи, имена файлов и текст, которые относятся к
изображениям на мобильном сайте, которые вы используете для настольного сайта.
Проблемы с видео - на мобильной странице есть видео в неподдерживаемом
формате, размещено в труднодоступном месте, отсутствует метаописание или
загружается очень медленно.
Используйте поддерживаемый формат для своих видео и помещайте их в
поддерживаемые теги. Видео идентифицируются на странице по наличию HTML-тега,
например: <video>, <embed>, или <object>.
Не загружайте основной контент при взаимодействии с пользователем. Google не
будет загружать контент, для загрузки которого требуется взаимодействие с
пользователем (например, смахивание, нажатие или ввод текста). Убедитесь, что Google
может видеть отложенный контент .
Разместите видео в легкодоступном месте на своем мобильном сайте. Например,
это может повредить рейтингу видео, если пользователям нужно слишком много
прокручивать вниз, чтобы найти видео на мобильной странице.
Проблемы с нагрузкой на хост
Убедитесь, что ваш мобильный сайт имеет достаточную емкость скорости работы
хоста для обработки потенциального увеличения скорости сканирования мобильной
версии вашего сайта.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 203 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 204 -
3.13. Проверьте страницы на мобильную оптимизацию
Запустите тест на дружественность к мобильным устройствам, чтобы убедиться, что
сайт действительно дружественен к мобильным устройствам
https://search.google.com/test/mobile-friendly
Это быстрый способ проверить, как Google видит и отображает веб-страницу, есть
ли проблемы с загрузкой или она дружественна к мобильным устройствам.
После запуска теста вы сможете увидеть отображаемую страницу и HTML-код.
Проверьте в GSC отчет «Удобство для мобильных»
Даже при одинаковом содержании различия в DOM или макете страницы для
настольных компьютеров и мобильных устройств могут привести к тому, что Google будет
по-разному понимать содержимое. Однако наличие одинакового контента в настольной и
мобильной версии гарантирует, что две версии могут ранжироваться по одним и тем же
ключевым словам.
Убедитесь, что ваш сайт для мобильных устройств содержит тот же контент, что и
сайт для ПК. Если ваш сайт для мобильных устройств содержит меньше контента, чем сайт
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 205 -
для настольных компьютеров, рассмотрите возможность обновления мобильного сайта,
чтобы его основной контент был эквивалентен вашему сайту для настольных
компьютеров. У вас может быть другой дизайн на мобильных устройствах, чтобы
максимизировать удобство для пользователей (например, перемещение контента в
аккордеоны или вкладки); просто убедитесь, что контент эквивалентен сайту для
настольных компьютеров, поскольку почти все индексирование вашего сайта происходит
с мобильного сайта.
Убедитесь, что title и метаописание эквивалентны в обеих версиях вашего сайта.
Не позволяйте рекламе навредить ранжированию вашей мобильной страницы.
Например, реклама в верхней части страницы может занимать слишком много места на
мобильном устройстве, что плохо для пользователя.
Убедитесь, что изображения на вашем мобильном сайте соответствуют
рекомендациям:
•
Обеспечьте высокое качество изображений . Не используйте слишком
маленькие изображения или изображения с низким разрешением на
мобильном сайте.
•
Используйте поддерживаемый формат для изображений . Не используйте
неподдерживаемые форматы или теги.
•
Не используйте для изображений URL-адреса, которые меняются каждый
раз при загрузке страницы
Убедитесь, что качество контента мобильной страницы такое же хорошее, как и на
десктопной странице. Используйте те же заголовки, подписи, имена файлов и текст,
относящиеся к изображениям на сайте для мобильных устройств, что и для сайта для ПК.
Измените размер браузера, чтобы проверить, является ли сайт отзывчивым или
адаптивным. Отзывчивые сайты изменяют размер вместе с браузером. Адаптивные сайты
изменяют размер только при обновлении страницы.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Просмотрите сайт вручную на мобильном устройстве. Отметьте все возможные
улучшения UX. Обычно к таким улучшениям относятся усовершенствованный внутренний
поиск, навигация, дизайн страниц товаров и категорий.
Сравните настольную и мобильную версии сайта. Обратите внимание на любые
различия в контенте, навигации или юзабилити, которые могут повлиять на UX или
посещаемость сайта. В этом вам поможет инструмент Merkle's Mobile-First Index Tool.
https://technicalseo.com/tools/mobile-first-index
Определите все мобильные URL-адреса. Если на сайте есть мобильные URL
(m.example.com), убедитесь, что они имеют тег rel=alternate, который указывает на
соответствующий URL для настольных компьютеров.
Проверьте, что расширенные опции мобильного меню остаются
видимыми/последовательными (например, не "прыгают").
Проверьте, легко ли доступны функции поиска
Проверьте легкодоступность функций входа / регистрации
Проверьте, легко ли доступны опции контактов
Проверьте, легко ли доступна кнопка "Вернуться к началу".
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 206 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
3.14. Проверьте отреендеренную версию страниц
Сравните то, что вы видите на отрисованном скриншоте, с тем, что вы видите в
браузере. Проверьте HTML-код отрисованного скриншота и убедитесь, что наиболее
важные ссылки (например, навигационные) и содержимое действительно присутствуют.
Существует также хороший инструмент JavaScript rendering check, который
проверит любой URL на наличие различий между исходным кодом и HTML.
https://www.searchviu.com/en/javascript-rendering-comparison-check/
3.15. Проверьте, есть ли на сайте файл robots.txt
Просто добавьте /robots.txt к адресу сайта, чтобы проверить, есть ли на нем файл
robots.txt, и посмотреть его содержимое.
Если файл robots.txt отсутствует/присутствует, убедитесь, что возвращается
правильный код состояния.
3.16. Проверьте, не блокирует ли файл robots.txt нужные ресурсы
Любые ошибки в содержимом файла robots.txt могут привести к тому, что ресурсы
сайта не будут обнаружены роботами поисковых систем. Блокировка ресурса в файле
robots.txt иногда не мешает его индексированию. Если в Интернете есть ссылка на
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 207 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
заблокированный ресурс, то этот ресурс может быть проиндексирован и отображаться в
результатах поиска.
3.17. Проверьте, действительно ли robots.txt блокирует необходимые ресурсы
Крупные сайты (с миллионами страниц) должны умело использовать файл
robots.txt, чтобы он блокировал ресурсы, которые не следует просматривать, такие как
URL с параметрами, страницы с тегами и т. д. Именно должны решить, какие вебстраницы должны быть заблокированы от индексации.
3.18. Проверьте валидность robots.txt
Вы действительно хотите быть уверены, что в файле robots.txt нет опечаток или
описок. Вы можете использовать эти инструменты для проверки правильности файла
robots.txt:
Тестер robots.txt в Google Search Console:
https://www.google.com/webmasters/tools/robots-testing-tool
Robots.txt может быть полностью валидным и не содержать синтаксических
ошибок, но в нем могут быть и другие ошибки, например, неправильное название
блокируемого каталога. Дважды проверьте, что robots.txt действительно делает то, что
должен делать, и дает Googlebot правильные директивы.
Проверьте, указан ли в файле robots.txt адрес XML sitemap. Стандартное
местоположение карты сайта (/sitemap.xml) не обязательно указывать в файле robots.txt.
Если карта сайта расположена не в стандартном месте или существует несколько XMLкарт сайта (или индекс карты сайта), то URL карты сайта должен быть указан в файле
robots.txt.
3.19. Проверьте, блокирует ли мета-noindex ресурсы, которые должны быть
проиндексированы
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 208 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Пройдитесь по сайту, чтобы проверить статус индексируемости его веб-страниц в
массовом порядке.
Используйте для проверки данные Screaming Frog SEO Spider
3.20. Проверьте, есть ли на сайте индексируемые ресурсы, которые нужно
заблокировать в мета-noindex
Ваша задача здесь - проанализировать все индексируемые веб-страницы и
оценить, достаточно ли они ценны, чтобы быть проиндексированными.
Используйте для проверки данные Screaming Frog SEO Spider
3.21. Проверьте, не противоречат ли друг другу директивы, приведенные в файле
robots.txt, метатеге robots и X-Robots-Tag
Вы можете давать указания роботам несколькими способами, например, с
помощью тега X-Robots-Tag, файла robots.txt и мета-тега robots. Ваша задача - проверить,
не противоречат ли эти директивы друг другу, иначе боты запутаются и будут вести себя
не так, как вы хотите.
3.22. Проверьте, как реализованы языковые версии
Пропустите этот раздел, если сайт не является многоязычным.
Многоязычные сайты должны иметь четкое разделение по языкам. Отсутствие
такого разделения может привести к неправильной индексации определенных языковых
версий. Например, некоторые веб-страницы могут индексироваться только на одном
языке, а другие - только на другом.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 209 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 210 -
Чтобы избежать этой проблемы, веб-сайт должен: (в идеале) размещать разные
языковые версии в разных каталогах, иметь переключатель языка, видимый на каждой
веб-странице и использовать теги hreflang (см. пункт ниже).
Многоязычные сайты должны использовать теги hreflang, потому что:
•
Теги hreflang позволяют роботам поисковых систем обнаруживать
альтернативные языковые версии веб-страниц.
•
Теги hreflang помогают устранить дублирование контента, вызванное
наличием веб-страниц на одном языке, но предназначенных для разных
регионов.
Чтобы проанализировать теги hreflang на вашем сайте с помощью Лягушки,
обязательно включите эту проверку в настройках сканирования.
Проверьте правильность использования тегов hreflang. Теги hreflang не будут
работать, если они не указывают на правильные (соответствующие) веб-страницы. Ваша
задача - проверить, действительно ли теги hreflang указывают на альтернативные
языковые версии веб-страниц.
Проверьте обратные ссылки. При отсутствии обратных ссылок Google будет
игнорировать теги hreflang на веб-странице. Screaming Frog позволит вам проверить,
отсутствуют ли обратные ссылки.
Проверьте, используется ли атрибут x-default. Каждая веб-страница, использующая
теги hreflang, должна (желательно) указывать на версию языка по умолчанию.
3.23. Проверьте внутреннюю перелинковку
Это технический аспект SEO, которому вы должны уделять большое внимание.
Проверьте, нет ли чрезмерного количества исходящих ссылок на домашней
странице. Если там имеются тысячи ссылок, значит, что-то не так. Не существует
конкретного числа, к которому следует стремиться, но все, что превышает несколько
сотен, возможно тысячу исходящих - должно настораживать и требовать изучения.
Вот как проверить количество ссылок на главной (да и любой) странице в Screaming
Frog:
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Перейдите во вкладку Internal > HTML (1)(2)
Щелкните по URL (3)
Внизу перейдите на вкладку Outlinks (исходящие ссылки) (4).
Нажмите Экспорт, чтобы экспортировать все ссылки (5).
Анализируйте.
Проверьте, есть ли на каждой странице сайта ссылка на главную страницу. Этот
вопрос возникает редко, но он иногда бывает важным. Каждая страница должна иметь
ссылку на главную страницу. Чаще всего для этой ссылки используется ссылка с логотипа
или/и ссылка "Главная" в навигации.
Проверьте, нет ли дубликатов исходящих внутренних ссылок на страницах сайта.
Ваша задача как SEO-специалиста - взглянуть на многочисленные ссылки на сайте и
оценить, являются ли эти ссылки проблемными или нет.
Screaming Frog SEO Spider позволяет легко проверить, есть ли на странице
несколько ссылок. Вам просто нужно отсортировать ссылки по их названию, и вы увидите
дубликаты.
Опять же, вам нужно использовать свой опыт и здравый смысл. Если на вебстранице десятки или сотни дубликатов ссылок, то, возможно, вам захочется
проанализировать ее более глубоко. Для проверки можно использовать Screaming Frog
или любой другой веб-краулер.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 211 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 212 -
Проверьте, ссылаются ли веб-страницы нижнего уровня на другие тематически
связанные страницы. Страницы продуктов и статьи в блогах очень полезны, когда речь
идет об использовании потенциала внутренней перелинковки. Ссылки между
тематически связанными веб-страницами укрепляют как связанную, так и
перелинкованную страницу. Например, на странице продукта должны быть ссылки на
другие продукты.
Кроме того, это отличная возможность использовать богатые ключевыми словами
анкорные тексты, которые помогают алгоритмам поисковых систем понять тематику этих
страниц.
Проверьте, использует ли сайт контекстную перелинковку. Контекстная
перелинковка немного похожа и также очень ценна. Контекстные ссылки также помогают
поисковым системам ассоциировать связанные веб-страницы с определенными
ключевыми словами, используемыми в тексте анкора. Использование богатых
ключевыми словами анкорных текстов во внутренних ссылках - это нормально
Лучшее место для контекстных ссылок - это статьи в блогах, которые должны
ссылаться на страницы продуктов или предложений. Если на сайте есть статьи или
учебники, то контекстная перелинковка должна быть задействована.
Одним из способов проверить, использует ли сайт ценные контекстные ссылки,
является проверка анкорного текста внутренних ссылок. В Screaming Frog есть
соответствующий отчет.
Проверьте, нет ли ссылок, указывающих на несуществующие или заблокированные
ресурсы. Ссылки на заблокированные или несуществующие ресурсы могут привести к
плохому пользовательскому опыту, что может негативно повлиять на SEO. Ваша задача удалить ссылки, указывающие на несуществующие или защищенные паролем ресурсы.
Вы также можете заменить такие ссылки на рабочие, возвращающие статус 200 (OK).
Очень часто редизайн сайта делают на каком-нибудь закрытом от индексации
субдомене типа new.site.ru и, когда переносят новый дизайн / сайт на постоянное место
дислокации забывают менять часть ссылок (при использовании абсолютной адресации).
При этом ранжирование ухудшается, страницы могут выпасть из индекса, сайт
теряет трафик.
Особо паскудно, когда эти ссылки находятся в CSS, либо в каких то скриптах.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Ошибка легко обнаруживается при просмотре списка спарсенных страниц в
Screaming Frog SEO Spider, при включенных в настройках конфигурации парсинге
поддоменов.
Кроме того, обязательно проверяйте 2 версии главного меню – десктопную и
мобильную (причем со включенным реендерингом).
Проверьте, что у вас отсутствуют малоценные текстовые ссылки с неподходящим
анкорным текстом. Малоценные текстовые ссылки затрудняют или даже делают
невозможным для алгоритмов поисковых систем ассоциировать связанную страницу с
соответствующими ключевыми словами, относящимися к ее содержанию. Ссылки с
малозначимым анкорным текстом (например, "здесь" или "тут") - это упущенная
возможность предоставить поисковым системам информацию о теме страницы, на
которую ведет ссылка.
Далее проверьте, нет ли малозначимых графических ссылок с неуместным или
отсутствующим атрибутом ALT. Атрибут ALT в ссылках на изображения - это как якорный
текст в текстовых ссылках. Используйте его.
Достаточно просто анализировать перелинковку в Excel. Для этого выгрузите все
используемые анкоры:
Сделайте на новом листе сводную таблицу.
Используя поле Destination, мы получаем все входящие ссылки.
Используя поле Anchor мы получаем все входящие ссылки со всеми анкорами.
Далее в столбцах подсчитываем Количество по статус коду (сколько 200 ссылок, сколько
404). По идее, все ссылки будут 200. Дале проводим анализ и корректировку
перелинковки.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 213 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Аналогично можем посчитать сколько на страницах исходящих ссылок и какие
анкоры применяются. Для этого используем столбец Source вместо Destination.
Обратите внимание – объем ссылок на сайте, как правило, очень велик. Есть
смысл делать такие анализы для сайта не более 10-20 тыс страниц, иначе ваш Excel
будет обрабатывать данные часами.
Screaming Frog SEO Spider предоставляет множество полезных данных, которые вы
можете использовать для анализа структуры сайта. Но не стоит слепо верить тому, что
говорит инструмент. Используйте здесь свой SEO-опыт и здравый смысл. Лучшая
структура сайта - это та, которая избегает любых крайностей.
Проверьте, не слишком ли плоская структура сайта. Одна из крайностей - когда
главная страница содержит все ссылки на все веб-страницы. Проверьте, не слишком ли
глубокая структура сайта. Другая крайность - слишком глубокая структура с более чем 4-5
уровнями и большим количеством "бесхозных" веб-страниц.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 214 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 215 -
3.24. Проверьте хлебные крошки
Хлебные крошки помогают пользователям и роботам поисковых систем
ориентироваться на сайте и лучше понимать его структуру.
Проверьте, есть ли на сайте хлебные крошки. Как правило, использование хлебных
крошек является хорошей практикой как на маленьких, так и на больших сайтах. На
больших сайтах это даже обязательно!
Проверьте, правильно ли реализованы хлебные крошки. Здесь следует отметить
два момента:
•
Навигация по хлебным крошкам должна быть реализована с
использованием структурированных данных.
•
Хлебные крошки не должны пропускать ни одной веб-страницы в пути, а
последний элемент (сама страница) не должен быть ссылкой.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 216 -
Проверьте, последовательно ли используются хлебные крошки на всем сайте. Сайт
должен использовать хлебные крошки на каждой странице.
3.25. Проверка основной навигации
Основная навигация информирует как пользователей, так и роботов поисковых
систем о наиболее важных веб-страницах сайта.
Screaming Frog SEO Spider обладает интересной функцией, позволяющей
анализировать внутренние ссылки с точки зрения их размещения. Например, можно
проанализировать ссылки, добавленные в навигацию, контент или футер.
Проверьте, содержит ли главная навигация сайта ссылки на наиболее важные вебстраницы. Навигация должна содержать ссылки на главные страницы категорий, важные
страницы или важные информационные страницы (страницы контактов или о сайте).
Проверьте, используются ли теги списка (<ul> и <li>) для построения элементов
навигации. И убедитесь, что навигация построена именно с использованием тегов списка.
Проверьте, видны ли навигационные ссылки роботам поисковых систем.
Поскольку навигационные ссылки являются самыми важными, необходимо убедиться,
что роботы действительно видят эти ссылки. Это особенно важно для сайтов с большим
количеством JavaScript. Вы можете проверить это, просто сравнив исходный и
отображаемый HTML-код сайта.
Проверьте, правильно ли работает навигация на мобильном устройстве. Помимо
того, что навигационные ссылки должны быть доступны для роботов поисковых систем,
они также должны работать так, как ожидается со стороны пользователя. Просто откройте
веб-сайт на мобильном телефоне и проверьте, как работает навигация.
Убедитесь, что все ключевые страницы категорий включены в навигацию. Это
позволит Google и пользователям легко получить к ним доступ.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 217 -
Просмотрите соглашения об именовании, используемые в навигации. Убедитесь,
что они оптимизированы для ваших целевых ключевых слов.
Проверьте, сколько всего вариантов навигации есть на сайте. В идеале навигация
должна предоставлять пользователям ссылки на наиболее полезные категории, не
слишком "сплющивая" архитектуру.
Проверьте распределение навигации по категориям. Убедитесь, что подкатегории
правильно сгруппированы в логичные родительские категории.
3.26. Проверьте как работают исходящие внешние ссылки
Screaming Frog SEO Spider позволяет проверить все внешние ссылки. Проверьте,
имеют ли внешние ссылки, не являющиеся настоящими рекомендациями, атрибут
rel="nofollow" или rel="sponsored".
Любая исходящая ссылка, которая не является настоящей рекомендацией
проверяемого сайта, должна иметь атрибут "nofollow" или "sponsored". И, наоборот,
должны быть качественные неспонсируемые ссылки dofollow на другие тематически
связанные веб-страницы.
Проверьте, есть ли у ссылок, добавленных пользователями, атрибут rel="ugc". Если
на сайте есть пользовательский контент, то сайт должен использовать атрибут rel="ugc".
Это особенно важно для ссылок в комментариях и в разделе форума. Обязательно
проверьте это.
Проверьте, есть ли на сайте исходящие внешние dofollow-ссылки. В большинстве
случаев ссылки dofollow на сайте также должны иметь атрибут rel="nofollow".
Проверьте, есть ли внешние dofollow-ссылки на ценные ресурсы. На сайте должны
быть внешние dofollow-ссылки на высококачественные ресурсы. В Интернете принято
ссылаться на веб-страницы, которые автор сайта считает ценными.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 218 -
3.27. Проверьте URL
Используйте Screaming Frog для проверки.
Проверьте, содержат ли URL-адреса параметры (например, идентификаторы
сессии или пользователя), которые не влияют на отображаемый контент. Открытые для
индекса URL, как правило, не должны содержать параметры, которые не влияют на
отображаемое содержимое (например, идентификаторы сессии или пользователя). Если
такие адреса есть, то они должны иметь каноническую ссылку, указывающую на версию
URL без параметров.
Проверьте, содержат ли URL-адреса ключевые слова. Как то Джон Мюллер
высказал, что ключевые слова в URL играют минимальную роль. Однако, когда речь идет
о пользователях, все обстоит несколько иначе. Пользователи любят понятные URL, а
Google любит то, что нравится пользователям.
URL-адреса должны содержать ключевые слова, описывающие тему веб-страницы,
вместо недружелюбных символов типа "/?p=123".
Проверьте, не содержат ли URL-адреса слов на языке, отличном от языка сайта. И,
конечно же, URL-адреса должны содержать слова на языке веб-страницы. URL на другом
языке может запутать как пользователей, так и роботов поисковых систем.
Проверьте, используются ли символы тире для разделения слов в URL-адресах. Для
разделения слов в URL-адресах следует использовать тире. Это удобно как для
пользователей, так и для ботов.
Проверьте, не содержат ли URL-адреса ненужных слов. В идеале URL-адреса не
должны содержать лишних слов, которые делают их очень длинными.
3.28. Проверьте редиректы
Любой инструмент сканирования позволит вам проверить перенаправления,
установленные на сайте. Используйте Screaming Frog.
Проверьте наличие нескольких перенаправлений (цепочки редиректов). В идеале
один URL должен быть перенаправлен только один раз. Обратите внимание, что
Googlebot может прекратить сканирование после более чем 5-10 перенаправлений.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 219 -
Проверьте, нет ли перенаправлений с неправильными статусами. В большинстве
случаев следует использовать 301 (постоянные) редиректы. 302 (временные) редиректы
предназначены для обозначения временных изменений. Люди часто путают эти два
понятия и используют 302 редиректы для постоянных изменений на сайте (например,
перенаправление с версии без HTTPS на HTTPS). Убедитесь, что сайт использует
редиректы в соответствии с их назначением.
Проверьте, есть ли перенаправления meta refresh. В отличие от 301 или 302
редиректов, которые являются перенаправлениями на стороне сервера, мета- refresh
перенаправления являются клиентскими. Перенаправление meta refresh указывает
браузеру перейти на другую страницу через определенный промежуток времени.
Как правило, Meta refresh редиректы должны быть заменены на обычные HTTP
редиректы.
Избавьтесь от всех ненужных перенаправлений.
3.29. Проверьте коды состояния
Код состояния HTTP - это ответ сервера на запрос браузера. Коды состояния
указывают, были ли HTTP-запросы успешными (например, 2xx), были ли ошибки
(например, 4xx), перенаправления (3xx) или другие проблемы с сервером (5xx).
Проверьте, есть ли веб-страницы, возвращающие ошибки 5xx. Огромное
количество веб-страниц, возвращающих код состояния 5xx, может указывать на проблемы
с сервером. Сервер может быть перегружен или может нуждаться в дополнительной
настройке.
Проверьте, есть ли веб-страницы, возвращающие ошибки 4xx. Большое
количество веб-страниц, возвращающих статус 404 (не найдено) или 410 (содержимое
удалено) на сайте, может привести к плохому пользовательскому опыту. Это относится
как к внутренним, так и к внешним ссылкам на сайте.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Если есть обратные ссылки, указывающие на эти 4xx веб-страницы, то Google не
будет учитывать эти ссылки. Внутренние ссылки на эти веб-страницы 404 должны быть
либо удалены, либо заменены рабочими ссылками. Если есть внешние ссылки,
указывающие на эти 404 URL, то я рекомендую сделать 301-переадресацию этих вебстраниц на рабочие URL.
Проверьте, возвращает ли страница ошибок код состояния 404. Веб-сайт должен
уметь правильно обрабатывать страницы ошибок. Несуществующая страница должна
возвращать код состояния 404 (не найдено), а не 200 (ОК). Страница ошибки,
возвращающая код состояния 200, может попасть в индекс и стать soft 404.
Проверьте, есть ли на сайте страница ошибки. На сайте должна быть страница
ошибки, которая ясно говорит, что это страница ошибки, и пользователь перешел на нее,
потому что введенный URL не существует или не может быть найден. Она должна также
содержать ссылки на наиболее важные веб-страницы сайта. Ее макет и дизайн также
должны быть похожи на остальную часть сайта. Эта страница ошибок существует в
основном для пользователей, чтобы сделать их работу с сайтом более комфортной.
3.30. Проверьте наличие дублей
Проверьте, нет ли дублированного контента, вызванного неправильной
технической реализацией сортировки контента. Неправильная реализация сортировки
контента может привести к отсутствию контроля над тем, какие URL-адреса попадают в
индекс. Быстрое решение этой проблемы обычно заключается в добавлении элемента
канонической ссылки, который указывает на URL без параметров сортировки.
Обратите внимание, что это может варьироваться от сайта к сайту. Могут
возникнуть ситуации, когда необходимо индексировать URL с определенными
параметрами сортировки или фильтрации.
Проверьте, доступен ли сайт как в HTTPS, так и в не HTTPS версии URL-адреса. Если
у сайта есть SSL-сертификат, то все не HTTPS-версии должны постоянно перенаправлять
(301) на HTTPS-версии. И редирект должен быть только один.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 220 -
DrMax.su «SEO Монстр Next. Том 2.»
КУПЛЕНО НА SKLADCHIK.COM
- 221 -
Проверьте, доступен ли сайт как в WWW-, так и в не WWW-версии URL-адреса. Вебсайт не должен быть как в WWW, так и в не-WWW версиях URL. Одна версия должна быть
выбрана как каноническая, а другая должна быть перенаправлена (301) на каноническую
версию.
Проверьте, есть ли полные или частичные дубликаты контента.
Некий сайт при анализе имел не только главную страницу https://site.ru , но и
https://site.ru/index.html , при этом большинство ссылок на главную ссылалось именно на
версию с index.html
При этом со страницы site.ru/index.html на site.ru стоял 302 редирект.
Все это приводило к тому, что Google мог запутаться, какую страницу нужно
считать главной, ведь 302 редирект – это временное перенаправление, а внутренняя
перелинковка явно указывает на важность именно страницы вида site.ru/index.html
Здесь необходимо полностью удалить все ссылки на site.ru/index.html и
перенаправить их на site.ru, при этом в .htaccess использовать 301 редирект вместо 302
(или иного).
Ошибка находится при анализе внутренней перелинковки.
Проверьте, доступен ли сайт по другому URL-адресу. Убедитесь, что нигде в
интернете нет индексируемой копии или тестовой версии сайта. Используйте Copyscape
для обнаружения дублированного контента.
Обратите внимание
Иногда сайт доступен и индексируется по IP. Необходимо в настройках
сервера закрыть эту возможность.
Кроме того, иногда разработчики забывают закрывать от индексирования или
удалять тестовую версию сайта. Проверьте что она отсутствует.
Проверьте, является ли содержимое сайта уникальным в Интернете. Вы можете
проверить уникальность сайта, просто скопировав уникальный блок текста с сайта и
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 222 -
вставив его в кавычках в Google. Единственным результатом, который будет выдан,
должна быть веб-страница, с которой вы скопировали текст.
3.31. Проверка канонических версий
Screaming Frog или любой другой сайт-краулер позволит вам проверить, есть ли на
сайте проблемы с каноникализацией.
Проверьте, используются ли на сайте канонические элементы ссылок.
Рекомендуемое правило заключается в том, что все веб-страницы сайта должны иметь
самореферентный элемент канонической ссылки. Проверьте, так ли это для сайта,
который вы проверяете.
Проверьте, правильно ли используются элементы канонических ссылок.
Ваша задача - проверить канонические URL и убедиться, что, например, группа
уникальных веб-страниц не канонизирована в один общий URL.
Проверьте, выбрал ли Google для наиболее важных веб-страниц тот же
канонический адрес, который указал веб-мастер. Вы не можете заставить Google выбрать
канонический URL, который вы установили для данной веб-страницы. Каноническая
ссылка - это не директива, а лишь подсказка для Google.
Ситуация, когда каноническая ссылка указывает на неверные URL достаточно часто
встречается на коммерческих проектах. Канонические ссылки на товарных карточках
указывают не сами на себя (самореферентные ссылки), а на неведомые,
неиндексируемые или битые страницы.
При этом ни карточки товаров, ни страницы, куда указывают битые ссылки не
индексируются толком. Поэтому трафик на них отсутствует.
Иногда Google автоматически устраняет эту проблему и тогда её можно
обнаружить в разделе GSC – Покрытие – Исключено - Канонические версии страницы,
выбранные Google и пользователем, не совпадают.
Ошибка обнаруживается также при анализе исходного кода, либо в отчете
Redirects софта Screaming Frog SEO Spider
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 223 -
3.32. Проверка мета-заголовков
Элемент <title> - это то, что пользователи видят непосредственно в результатах
поиска и в названии вкладки в современных веб-браузерах. Заголовки страниц
предоставляют как роботам поисковых систем, так и пользователям много ценной
информации о веб-странице. Используйте Screaming Frog для массового анализа
метатегов сайта.
Проверьте, есть ли на страницах веб-сайта тег <title>. Все ценные веб-страницы
сайта должны иметь теги <title> с качественным и релевантным содержанием.
Проверьте, имеют ли теги <title> рекомендуемую длину (40-60 символов).
Заголовки страниц должны содержать от 40 до 60 символов, чтобы выглядеть
привлекательно в результатах поиска.
Проверьте, не являются ли используемые теги <title> дублирующимися. Каждая
веб-страница сайта должна иметь уникальный тег заголовка.
Проверьте, имеют ли используемые теги <title> соответствующее содержание.
Заголовки страниц должны быть уникальными и формировать своего рода резюме
содержания веб-страницы.
Проверьте, содержат ли используемые теги <title> важные ключевые слова.
Заголовки страниц также должны содержать наиболее важные ключевые слова.
Проверьте, размещены ли ключевые слова в начале/конце тега <title>. Ключевые
слова должны быть размещены в начале заголовка (начиная с самого важного ключевого
слова).
Проверьте, появляется ли название бренда в начале тега <title>. Если вы хотите
поместить название бренда в заголовок, то оно должно появляться в конце заголовка
страницы. Единственным исключением является домашняя страница, где оно может быть
в начале.
Проверьте оптимизацию под намерения поисковика с использованием
информационного, коммерческого, навигационного и транзакционного принципов
Проверьте наличие лишних шаблонных элементов заголовков на сайте с большим
количеством страниц (набивка ключевых слов в масштабах сайта).
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 224 -
Если уместно, проверьте использование вопросительных наречий, прилагательных
и местоимения в названиях страниц, чтобы сформировать вопросы (Кто, Где, Почему, Что,
Как и т.д.).
3.33. Проверка мета-описаний
Проверьте метаописания с помощью Screaming Frog.
Проверьте, есть ли на веб-страницах сайта контент в тегах метаописания.
Отсутствие мета-описания не является большой проблемой, потому что даже если вебстраница имеет свое уникальное описание, Google, вероятно, чаще всего будет
переписывать его. Тем не менее, иметь уникальные описания страниц, по крайней мере,
для самых важных веб-страниц сайта - это хорошая SEO-практика.
Проверьте, соответствует ли содержание тегов метаописания рекомендуемой
длине (140-155 символов). Если предположить, что Google сам выбирает наше метаописание, мы должны держать его в пределах 140-160 символов, чтобы оно не
обрезалось в результатах поиска и не было слишком коротким. 70 символов - это
абсолютный минимум.
Проверьте, не дублируются ли теги метаописания. Как и в случае с заголовками
страниц, мы хотим, чтобы метаописания были уникальными. Обратите внимание, что
лучше вообще не иметь описания страницы, чем дублировать этот элемент на многих вебстраницах.
Проверьте, подходит ли содержание описаний страниц. Непривлекательное или
случайное содержание тегов метаописания заставит пользователей с гораздо меньшей
вероятностью щелкнуть по сниппету в результатах поиска.
Проверьте, содержат ли описания страниц ключевые слова. Описания страниц
должны содержать наиболее важное ключевое слово страницы, его вариацию и, если
возможно, синоним. На этот раз это в основном для пользователей, а не для поисковых
систем.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
3.34. Проверка заголовков <h1>-<h6> страницы
Заголовки <h1>-<h6> очень важны с точки зрения SEO. Они помогают как
пользователям (особенно пользователям программ для чтения с экрана), так и роботам
поисковых систем понять тему и подтемы веб-страницы
Проверьте, есть ли на веб-страницах сайта тег H1. Каждая веб-страница сайта
должна иметь один заголовок H1.
Веб-страница без тега H1 упускает огромную возможность предоставить
алгоритмам поисковых систем ценную информацию о себе. Каждая страница сайта
(включая главную страницу) должна иметь ровно один уникальный заголовок H1.
Проверьте, есть ли несколько заголовков H1. Конечно, лучше иметь несколько
тегов H1, чем вообще не иметь тегов H1. Но, если возможно, придерживайтесь одного
тега H1!
Проверьте, является ли содержание заголовков H1 SEO-оптимизированными.
Заголовки H1 должны содержать наиболее важное ключевое слово для веб-страницы,
чтобы четко передать ее тему как пользователям, так и поисковым системам.
Проверьте, используются ли иные заголовки на веб-страницах сайта. Тега H1
недостаточно, чтобы предоставить пользователям и роботам поисковых систем
информацию о структуре содержимого веб-страницы. Веб-страница, на которой вообще
нет заголовков или есть только один заголовок, сложна для понимания как для
пользователей, так и для роботов.
Проверьте, не используются ли заголовки слишком часто. Заголовки следует
использовать для выделения наиболее важного контента и отдельных разделов сайта.
Чрезмерное использование заголовков запутает людей, пользующихся программами
чтения с экрана, так же как и алгоритмы поисковых систем.
Проверьте, не нарушена ли структура заголовков. Еще одно замечательное
правило SEO - логический порядок заголовков. Вы должны относиться к заголовкам и
подзаголовкам как к главам и подглавам в книге.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 225 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
3.35. Проверьте изображения сайта
Графические элементы, если они правильно оптимизированы, могут дать как
роботам поисковых систем, так и пользователям программ для чтения с экрана много
дополнительной информации о веб-странице.
Проверьте, правильно ли встроены изображения. Google не будет рассматривать
изображения, внедренные с помощью CSS, как часть содержимого веб-страницы. Чтобы
проверить, как встраивается данное изображение, просто щелкните его правой кнопкой
мыши и выберите «Посмотреть код» .
Далее, используйте селектор элементов на странице, щелкните на проверяемое
изображение и оцените встраивание. За исключением изображений, формирующих
макет сайта, графику следует встраивать с помощью тега <img>.
Проверка наличия изображений с малозначимыми именами файлов. Имена
файлов изображений не так важны, как атрибуты ALT. Если на сайте есть ALT-атрибуты с,
то имена файлов менее важны. Тем не менее, использование SEO-дружественных имен
файлов изображений является хорошей практикой, по крайней мере, в настоящее время.
Проверьте, имеют ли используемые изображения подходящий размер.
Изображения должны отображаться в уже сжатом размере. Очень распространенная
ошибка - это когда веб-страница имеет огромные (часто PNG) изображения и регулирует
их размер отображения с помощью CSS/HTML.
Проверьте, оптимизированы ли используемые изображения. Протестируйте вебстраницу с помощью Google PageSpeed Insights, чтобы проверить, есть ли возможности
для улучшения. Изображения на сайте (особенно если их много) должны быть сжаты и
оптимизированы. По возможности следует использовать форматы нового поколения.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 226 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
3.36. Проверка HTML кода
Просто просмотрите исходный код проверяемого сайта и воспользуйтесь здравым
смыслом.
Проверьте, нет ли в HTML-коде ненужных комментариев.
Проверьте, не чередуется ли HTML-код с JavaScript. Общим правилом является
использование тегов JavaScript <script> перед тегом </body> и в разделе <head>. Ваша
задача - проверить, не добавлены ли они повсюду.
Проверьте, используются ли встроенные стили. Inline - стили в редких случаях - это
нормально. Но они должны быть скорее исключением, чем правилом. HTML-код не
должен содержать чрезмерное количество встроенных стилей.
3.37. Проверка контента на страницах сайта
Проверьте наличие полных или частичных дублей контента для отдельных
страниц. Как это делается – расписано выше.
Иногда встречаются товарищи, которые делают идентичные категории и теги. При
этом список продуктов/ статей на этих страницах у них тоже идентичный.
Таким образом мы получаем полные дубли страниц, происходит канибализация
запросов, ухудшается ранжирование, трафик стремиться к нулю.
В прошлом году всезнающий Джон Мюллер ответил на вопрос как Google
относиться к основным страницам, страницам категорий и теговым страницам. Мюллер
ответил, что алгоритм специально настроен так, чтобы все типы страниц были
равноправны. То есть Google не выделяет специально ни теговые странницы, ни
страницы с основным контентом.
Проверяйте как у вас организована структура сайта, правильно ли организованы
срезы, фильтры, фасеты.
Ошибка довольно примитивная, но искать её приходиться вручную и она крайне
негативно влияет на ранжирование сайта.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 227 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 228 -
Проверьте, есть ли на главной странице хотя бы немного значимого текста. Главная
страница - это, безусловно, самая значимая веб-страница сайта. Поэтому на ней должно
быть хоть немного текста (хотя бы несколько сотен слов) и четкая структура заголовков.
Проверьте наличие веб-страниц с малым количеством значимых слов.
Проверьте, не внедрен ли текст в виде изображений. Google все лучше понимает
изображения, но все еще хорошей практикой является добавление текста в виде... текста.
Чтобы проверить, есть ли эта проблема на сайте, просто просмотрите некоторые из его
наиболее важных веб-страниц и проанализируйте используемые там изображения.
Проверьте, есть ли на сайте релевантный и тематически связанный контент.
3.38. Проверьте использование ключей
Проверьте, используются ли правильные теги для выделения ключевых слов.
Выделение ключевых слов на странице может быть весьма полезным как для
пользователей, так и для роботов поисковых систем. Чтобы подсветка ключевых слов
работала, необходимо использовать теги <strong> вместо <b>. Ваша задача здесь —
просмотреть наиболее важные веб-страницы, статьи или руководства и проверить,
правильно ли выделены ключевые слова.
Проверьте, проводилось ли когда-либо исследование ключевых слов для вебсайта. Ваша задача как аудитора состоит в том, чтобы проверить, проводил ли кто-либо
когда-либо исследование ключевых слов для веб-сайта, и, если возможно, взглянуть на
ключевые слова, выбранные для веб-сайта. Это дает некоторые дополнительные
сведения об изученном веб-сайте.
Исследование ключевых слов не является частью технического SEO-аудита.
Проверьте, сопоставлены ли конкретные ключевые слова с конкретными вебстраницами. Если у вас нет информации об исследовании ключевых слов для сайта, вы
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 229 -
можете просто вручную просмотреть ряд его веб-страниц, чтобы проверить,
сопоставлены ли они с ключевыми словами. Веб-страница, нацеленная на определенное
ключевое слово, обычно содержит это ключевое слово в заголовке, URL, заголовках и
первых абзацах текста.
Проверьте, оптимизированы ли веб-страницы под конкретные ключевые слова.
Это продолжение предыдущего шага. На этот раз вы хотите убедиться, что веб-страница,
нацеленная на определенное ключевое слово, действительно оптимизирована под него.
Помимо наличия ключевого слова в заголовке, URL, заголовках и первых абзацах текста,
веб-страница должна содержать ценные графические изображения (с ALT-текстом),
тематически релевантные ссылки на внешние ресурсы и многое другое.
3.39. Проверка структурированных данных
Google использует структурированные данные для того, чтобы лучше понять
содержание веб-страницы и включить специальные функции и улучшения результатов
поиска. Каждый технический SEO-аудит должен также анализировать сайт с точки зрения
структурированных данных. П
Проверьте, используются ли структурированные данные на сайте. Лучший способ
проверить, используются ли структурированные данные на сайте, - это выполнить
сканирование. Вы можете использовать Screaming Frog.
Проверьте, действительны ли используемые структурированные данные. Чтобы
проверить, действительны ли структурированные данные, используемые на сайте, можно
воспользоваться инструментом Google Structured Data Testing.
https://developers.google.com/search/docs/appearance/structured-data
Проверьте, можно ли добавить на сайт другие типы структурированных данных.
Здесь ваша задача - проанализировать наиболее важные веб-страницы сайта, проверить,
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
какие типы структурированных данных они содержат, и решить, какие еще типы данных
можно добавить.
3.40. Проверка скорости сайта
Помимо данных, предлагаемых GSC, огромное количество информации можно
спарсить Screaming Frog, используя API Pagespeed Insight.
Перед сканированием (можно и после), настройте доступ к API
Для начала вам нужно получить ключ доступа вот здесь:
https://developers.google.com/speed/docs/insights/v5/get-started#key
Далее его нужно ввести в соответствующее окно и законектится.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 230 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 231 -
После этого выбираем тип устройства и выбираем нужные нам показатели
Обратите внимание на лимитированную скорость доступа – 4 запроса в секунду.
Чем больше показателей для каждой страницы вы выберите, тем дольше будет парсинг
данных.
После окончания сканирования перейдите во вкладку PageSpeed и выберите
необходимый фильтр для анализа данных.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Выгрузки этих данных можно и нужно использовать в перекрестных анализах при
оценке падения / роста трафика, оценке качества страниц, поиску причин
низкого/высокого трафика на отдельные страницы и многих иных аналитических срезах.
Проверьте скорость сайта с помощью GTmetrix. GTmetrix - еще один отличный
инструмент для анализа скорости работы сайта. Он также дает много полезных советов и
выделяет конкретные проблемы.
Для работы придется опять-таки использовать VPN.
https://gtmetrix.com/
Вот результаты скорости и производительности GTmetrix для DrMax.su
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 232 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 233 -
Проверьте скорость веб-сайта с помощью WebPageTest. Обязательно проверьте ее
как мобильное устройство.
https://www.webpagetest.org/
Проверьте скорость сайта с помощью Google PageSpeed Insights, если вы до сих пор
этого не сделали. Или повторно проведите тест и сравните его результаты с
результатами, полученными с помощью других инструментов измерения скорости.
https://pagespeed.web.dev/
3.41. Проверка безопасности сайта
Большинство веб-сайтов в Интернете не применяют даже базовые методы
обеспечения безопасности. Ваша задача - убедиться, что сайт, который вы проверяете, не
является одним из таких сайтов.
Есть ли у сайта SSL-сертификат? HTTPS является фактором ранжирования с 2014
года. Сегодня каждый сайт должен использовать HTTPS. Сайт, не защищенный HTTPS,
помечается как Not secure в Chrome и других браузерах. Убедитесь, что сайт использует
HTTPS. Если он этого не делает, сделайте приоритетным переход на HTTPS как можно
скорее.
Есть ли на сайте смешанное содержимое? Смешанное содержимое возникает,
когда ресурсы сайта загружаются как по HTTP, так и по HTTPS.
Внедрены ли хотя бы некоторые базовые методы обеспечения безопасности?
Трудно точно определить объем базовых практик безопасности. Как правило, чем
больше, тем лучше. Несколько простых и эффективных методов обеспечения
безопасности включают:
•
HTTPS,
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
•
двухфакторная авторизация для входа,
•
защита паролем входа,
•
надежные пароли,
•
регулярное сканирование веб-сайта с помощью какого-либо программного
обеспечения безопасности,
•
регулярное резервное копирование,
•
убедиться, что сайт не фильтруется Google Safe Browsing,
•
и т.д.
Сайты WordPress особенно уязвимы для атак и взломов. Существует несколько
хороших плагинов безопасности WordPress (например, iThemes Security), которые
позволят вам реализовать хотя бы базовый уровень безопасности на сайте.
Плагины могут замедлять работу вашего сайта. Обязательно проверьте это.
Добавление Cloudflare CDN на ваш сайт также повышает его безопасность.
3.42. Быстрая проверка E-A-T факторов
Проверьте, идут ли на сайт обратные ссылки с авторитетных сайтов в той же
области
Проверьте, упоминается ли сайт на других авторитетных сайтах. Упоминания - это
не всегда ссылки, но они также очень важны. Проверьте, упоминается ли сайт (или
название бренда) на авторитетных сайтах. Самый простой способ - выполнить точный
поиск по названию бренда.
Проверьте актуальность содержимого сайта. В зависимости от тематики сайта,
может не быть четкого способа проверить актуальность его содержания. Один из
возможных способов проверить актуальность содержания сайта - посмотреть на дату
публикации или обновления статей. Я всегда показываю дату последнего обновления и
дату публикации на каждой из моих статей в блоге. Вы также можете проверить дату
последнего изменения в XML sitemap для определенного URL или всех URL.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 234 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 235 -
Проверьте, является ли содержание фактологически точным. Конечно, вы можете
не иметь возможности проверить фактическую точность содержания сайта (особенно
если его тема очень специфична), но вы должны проверить, не делает ли сайт
утверждений, противоречащих научному консенсусу. Сюда относятся сайты,
пропагандирующие теории заговора или методы альтернативной медицины.
Проверьте, являются ли авторы сайтов признанными авторитетами в данной
области. Одним из элементов E-A-T является авторитетность, что означает, что сайт и его
авторы должны быть признанными авторитетами в данной области. Быстрый способ
проверить это - выполнить поиск точного совпадения по автору или авторам сайта.
Встречаются ли их имена в других заслуживающих доверия публикациях или веб-сайтах?
Ссылаются ли на них как на авторитетов?
Проверьте, представляет ли сайт свои достижения (награды, сертификаты, значки и
т.д.). Если у сайта или бренда есть какие-либо достижения (например, награды,
сертификаты, значки доверия и т.д.), все они должны быть представлены на сайте.
Лучшее место для демонстрации этих достижений - главная страница или страница о
сайте.
Проверьте, есть ли на сайте настоящие отзывы (и являются ли они
положительными или отрицательными). Нет ничего хуже, чем когда сайт или бренд
пишет свои собственные (фальшивые) отзывы. Опять же, это может быть не очень легко
проверить, но, покопавшись, вы сможете определить качество и подлинность отзывов.
Один или два отрицательных отзыва - это не проблема и часть Интернета. Однако если
после ввода названия бренда в поисковую строку вы не видите ничего, кроме откровенно
негативных отзывов и недовольных клиентов, то с этим нужно разобраться в первую
очередь.
Проверьте, есть ли на сайте информация об авторах (например, биографии
авторов). Если у сайта один автор, то достаточно информации на странице "О сайте".
Однако если авторов несколько, то каждый автор должен иметь биографию в каждой
своей статье.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 236 -
Проверьте, есть ли на сайте контактные данные. Любой заслуживающий доверия
сайт должен предоставлять вам возможность связаться с его владельцем. Например,
должна быть страница контактов, где перечислены все возможные способы связаться с
владельцем.
Дополнительный анализ коммерческих сайтов
SEO на сайтах электронной коммерции может быть чрезвычайно сложной задачей.
Сайты электронной коммерции могут содержать огромное количество страниц из-за таких
факторов, как большие запасы, фасетная навигация и широкие функциональные
возможности сайта. Из-за размера таких сайтов SEO становится гораздо более сложной
задачей, поскольку решения часто приходится масштабировать на тысячи или миллионы
URL-адресов. Поэтому к техническому анализу коммерческих сайтов выдвигаются
дополнительные требования.
3.43. Проверьте данные о продукции
Предоставьте информацию о продукте высокого качества: Отправляйте
структурированные данные в Google в виде фида товаров или добавляйте разметку
структурированных данных на свой сайт.
Используйте действительные и уникальные GTIN: Не используйте существующие
GTIN для нового продукта. Розничные продавцы не должны изобретать GTIN и
регистрировать свои собственные GTIN в GS1, если только они не являются
производителем продукта.
Используйте точные названия продуктов. Это облегчает пользователям и
поисковым системам понимание того, какой именно продукт упоминается.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 237 -
Убедитесь, что на странице каталога продуктов представлены логичные общие
категории, которые будут искать пользователи. Рассмотрите возможность объединения
слишком похожих категорий или разделения слишком разных категорий.
Проанализируйте информацию об отдельных продуктах, представленную на
страницах каталога продуктов (цены, отзывы, описание и т. д.). Следует ли включить на
страницу каталога товара дополнительный контент, чтобы дать пользователям еще
больше информации?
Проведите аудит страниц каталога товаров, чтобы убедиться, что отдельные
продукты соответствуют категории, в которой они находятся.
Исследуйте, подходит ли использование промежуточной страницы категории для
определенных страниц каталога товаров. Эти страницы выступают в качестве центров
контента для более широких категорий и не содержат ссылок на страницы описания.
Убедитесь, что все страницы товаров имеют уникальные описания. Это поможет
избежать индексации дублированного контента в Google.
Просмотрите страницы товаров, чтобы убедиться, что на них содержится ключевая
информация. Это могут быть цены, технические характеристики, информация о доставке и
возврате. Рассмотрите возможность программного добавления любой важной
информации, отсутствующей на страницах товаров.
Создайте политику обращения с недоступными продуктами. Убедитесь, что
несуществующие продукты возвращают код состояния 404, а продукты, изменившие URLадреса, перенаправляются 301 редиректом.
Добавьте структурированные данные "Product" на все страницы товаров. Эта схема
должна разметить ключевую информацию, такую как название, цена и рейтинги.
Добавьте структурированные данные " Article" ко всем материалам блога веб-сайта.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 238 -
3.44. Проверьте фасетную навигацию и фильтры
Проверьте наличие фасетной навигации. Вручную проверьте, не генерирует ли эта
навигация большое количество URL-адресов.
Используйте операторы поиска "site:" и "inurl:" в Google, чтобы определить,
индексируются ли URL с параметрами. Проверьте их наличие в GSC в отчете об
индексации
Просмотрите директивы сканирования, связанные с URL-адресами,
генерируемыми фасетной навигацией (каноникалы, теги "nofollow", robots.txt, отчет о
параметрах URL). Если анализ файла журнала логов показывает, что нежелательные URL
по-прежнему попадают в индекс, возможно, необходимо внести коррективы в эти
директивы сканирования.
После внесения корректировок проследите за сканированием и индексацией сайта
в Search Console.
3.45. Анализ журнала доступа сайта
Просмотрите файлы журналов доступа с сайта. Это можно сделать с помощью
таких инструментов, как Screaming Frog Log Analyser.
https://www.screamingfrog.co.uk/log-file-analyser/
Обратите внимание на наиболее часто просматриваемые URL-адреса сайта. Есть ли
высокоприоритетные целевые страницы, которые отсутствуют в списке наиболее часто
просматриваемых страниц? Если да, определите способы улучшения их внутренней
перелинковки и доступности.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 239 -
Определите, какие URL-адреса, которые просматриваются, должны быть
просмотрены (т. е. параметризованные URL-адреса). Отрегулируйте настройки
сканирования сайта, чтобы заблокировать сканирование/индексацию этих URL.
Исправьте часто встречающиеся коды состояния 3xx/4xx.
Определите бесполезное содержимое, которое было просмотрено, но не получает
трафик.
Просмотрите файлы журнала на предмет любых других данных, которые там
имеются.
3.46 Анализ перелинковки на коммерческом сайте
Определите страницы каталога товаров, на которых используется бесконечная
прокрутка. Убедитесь, что бесконечная прокрутка соответствует требованиям SEO.
Проверьте постраничную внутреннюю перелинковку. Рассмотрите возможность
добавления ссылки на последнюю страницу в серии, если таковая отсутствует. Это
облегчит Google поиск продуктов, расположенных глубже в архитектуре сайта.
Просмотрите сканирование сайта, чтобы найти страницы, которые находятся
глубоко в архитектуре сайта. Если определенные группы страниц постоянно имеют
глубину сканирования 4+, подумайте о добавлении внутренних ссылок на них.
Удалите параметры отслеживания из всех внутренних ссылок
Убедитесь, что на страницах описания товара используются внутренние ссылки
"Related Items". Это естественным образом улучшит переходы Google на другие страницы
описания товара и поможет повысить конверсию и вовлеченность пользователей.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Создайте HTML карту сайта, в которой перечислены все ключевые категории
товаров. Это обеспечит дополнительную гарантию того, что ключевые страницы листинга
и описания товаров не находятся слишком глубоко в архитектуре сайта.
3.47. Анализ использования Javascript
Отключите JavaScript в браузере и вручную просмотрите основные типы страниц.
Обратите внимание, какие элементы содержимого зависят от JavaScript при загрузке. Вы
также можете использовать расширение View Rendered Source для сравнения исходного
кода с DOM.
Используйте инспектор URL Google для рендеринга этих страниц. Убедитесь, что
Googlebot может находить и индексировать эти элементы.
Если вы не уверены, что содержимое загружается правильно, используйте
операторы поиска "site:", чтобы проверить индексацию Google для этого контента.
Для важного контента, который не может быть проиндексирован, рассмотрите
возможность исключения зависимости от JavaScript.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 240 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Выводы по результатам аудита
После завершения аудита очень важно, что вы будете делать дальше, чтобы
получить отдачу от всей вашей работы.
Сам по себе аудит не принесет вам большой пользы, если после него вы не
предпримете надлежащих шагов для решения проблем и внесения необходимых
изменений. Следуйте этим шагам, делая выводы по результатам технического аудита:
Во-первых, вы должны определить ошибки или улучшения, выявленные в ходе
аудита, и определить действия, необходимые для их устранения. Например, одна из
ошибок, которую вы можете выявить, заключается в том, что ваш сайт содержит много
ошибок 404. Вы можете обнаружить, что многие из них вызваны неработающими
внутренними ссылками. Перечислите выполнимые следующие шаги: в данном случае
перечислите действия по перенаправлению этих ошибок 404 на рабочую веб-страницу.
Это, в свою очередь, улучшит ваш Page Rank и рейтинг веб-страниц на вашем сайте.
Следуйте этому процессу для каждой ошибки в вашем аудите.
Теперь, когда вы определили следующие шаги для ваших выполнимых пунктов,
важно расставить приоритеты в работе и ресурсах, прежде чем приступать к действиям.
Например, исправление неработающей ссылки на главной странице вашего сайта окажет
огромное влияние при относительно небольших ресурсах. С другой стороны,
реструктуризация навигации вашего сайта также может повлиять на рейтинг, однако для
этого потребуется больше ресурсов.
Помните об этом анализе затрат и выгод, когда будете выбирать, с чего начать
улучшения после завершения технического SEO-аудита.
Наконец, помните, что вся работа по решению технических проблем SEO должна
быть связана с достижением ваших общих бизнес-целей. Помните о том, чего вы
пытаетесь достичь, и каким должен быть конечный результат.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 241 -
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 242 -
Например, реорганизовав свой блог с помощью стратегии тематических кластеров,
вы можете захотеть увеличить посещаемость своего блога. Однако реорганизация блога это только один из способов сделать это. Удаление дублирующегося контента или
улучшение стратегии исследования ключевых слов - другие способы привлечь больше
посетителей на свой блог.
Помня о своих бизнес-целях, вы выявите множество усилий, которые помогут вам
достичь поставленных целей. Отдайте предпочтение этим усилиям, поскольку они окажут
наибольшее влияние на конечный результат.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
- 243 -
Обязательно подпишитесь на наш телеграм-канал
«SEO фишки от DrMax» t.me/drmaxseo
Дорогие друзья. Я не только автор этой книги,
но и занимаюсь целым комплексом SEO работ,
таких как:
аудит и восстановление трафика на сайте
технический аудит
аудит внешнего ссылочного
разработка стратегии линкбилдинга
и многими иными услугами.
Обращайтесь ко мне в Телеграм: t.me/DrMax2SEO
Или на сайте DrMax.su | email: i@drmax.su
Рекомендую курс по продвижению англоязычных сайтов
от Миши Шакина. Поразительные результаты за несколько
высококлассных уроков. Методика обучения постоянно
развивается, с каждым набором актуализируется.
Укажите промокод: DrMax и получите бонус 5000 руб.
Подробная информация тут: https://seoshaolin.com/#how
Кстати, именно Михаил был организатором всех наших телеконференций, которые есть в книге.
Николай Шмичков – наш хороший товарищ и отменный SEO
специалист. Агентство SEOQUICK, где он трудится занимается
полным циклом продвижения интернет-проектов. А еще там
публикуются отличные тематические статьи, обзоры и многочисленные образовательные
материалы. Обязательно к изучению.
seoquick.company
И не могу не порекомендовать. Есть прекрасная,
полноценная альтернатива для Screaming Frog SEO
Spider. Это бесплатный SEO комплекс, написанный
Андреем Симагиным. Он состоит из двух программ SiteAnalyzer и SimpleWebAnalytics,
позволяющие как анализировать техническое состояние сайта, так и собирать данные из
GSC, GA, Яндекс вебмастера и Яндекс Метрики.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
КУПЛЕНО НА SKLADCHIK.COM
DrMax.su «SEO Монстр Next. Том 2.»
Заключение
Теперь, когда вы знаете, как провести технический SEO-аудит, что делать дальше?
Используйте это руководство, выполняя все шаги, перечисленные в этой
электронной книге, чтобы сориентироваться в процессе проведения аудита. После
проведения первого аудита обязательно используйте полученные данные для внесения
необходимых улучшений в ваш сайт, чтобы привлечь больше трафика к вашему контенту.
Не забывайте, что проведение технического SEO-аудита - это не только
одноразовая акция. Обязательно постоянно отслеживайте показатели вашей вебстраницы, экспериментируйте с новыми идеями и проводите дополнительные аудиты в
будущем. Лучшая практика - проводить аудит сайта не реже одного раза в год или при
внесении значительных изменений в структуру или дизайн сайта, в зависимости от того,
что наступит раньше.
Скачано с сайта - SuperSliv.biz - Присоединяйся!
- 244 -
Download