Содержание
- 1 1. Пересмотрите вашу карту сайта.
- 2 2. Убедитесь, что все важные ресурсы сканируются поисковиками
- 3 3. Увеличьте краул-бюджет
- 4 4. Займитесь аудитом внутренних ссылок
- 5 5. Проверьте ваш HTTPS-контент
- 6 6. Проверьте и увеличьте скорость страницы
- 7 7. Сделайте сайт более удобным для просмотра на мобильных устройствах
- 8 8. Дайте поисковикам перепроверить сайт
Мы очень часто говорим о поисковой оптимизации за пределами страницы. Создание, управление и аудит обратных ссылок – критический аспект SEO, и с каждым днем он становится все сложнее и сложнее. Оптимизация самих страниц тоже становится горячей темой, особенно сейчас, когда Google все сильнее переходит к семантическому поиску, и старые тактики работают не так успешно, как раньше.
Никто не сомневается в этих факторах оптимизации, но многие забывают еще об одной вещи: технических аспектах поисковой оптимизации. На самом деле без должной техоптимизации все ваши усилия могут не принести никаких результатов и создание сайта будет пустой тратой времени.
В этой статье мы приведем основные аспекты технической оптимизации. Они помогут улучшить юзабилити сайта, его индексацию и сканирование поисковиками – и, как результат, его позицию в поисковой выдаче.
1. Пересмотрите вашу карту сайта.
Карта сайта дает поисковикам возможность просканировать структуру вашего ресурса и проиндексировать находящийся на нем контент. Если у вас до сих пор ее нет, создайте ее немедленно! Тем, у кого карта сайта уже есть, стоит убедиться в следующем:
- Карта сайта не должна содержать ошибок, перенаправлений или неиндексируемых ссылок. В противном случае поисковики могут ее полностью проигнорировать;
- Карта сайта должна обновляться каждый раз, когда на сайт добавляется (или удаляется) новый контент. Таким образом поисковики смогут быстрее обнаруживать новый контент;
- Карта сайта не должна содержать слишком большое количество ссылок. Не перегружайте ее ссылками на каждую страницу, если у вас крупный сайт – вместо этого используйте категории;
- Карта сайта должна быть зарегистрирована в поисковой консоли Google. Это можно сделать как вручную через сайт Google, так и автоматически, добавив в ваш файл robots.txt строку Sitemap: http://yourdomain.com/sitemaplocation.xml.
2. Убедитесь, что все важные ресурсы сканируются поисковиками
Обычно при упоминании этого шага специалисты просто лезут в robots.txt и убеждаются, что в нем проставлены ссылки на нужные страницы. Но на самом деле этого недостаточно. Проверьте мета-теги noindex, X-Robots-Tag. Также убедитесь, что на сайте нет «осиротевших» страниц, на которые не проставлены ссылки. Проверьте все файлы JavaScript и таблицы стилей CSS. Последний шаг – найдите страницы и ресурсы, которые вы запретили индексировать с помощью соответствующего тега.
3. Увеличьте краул-бюджет
Количество страниц на сайте, которые сканируются поисковыми ботами в заданный промежуток времени, называется краул-бюджетом. Сам по себе он не является фактором ранжировки, но он влияет на то, как часто проверяются и обновляются важные страницы вашего сайта. Проверить этот показатель можно в Google Search Console (перейдите в Crawl > Crawl Stats). Чтобы вписаться в ваш краул-бюджет, вам понадобится выполнить следующее:
- Удалите повторяющийся контент. Повторяющиеся страницы – одна из самых распространенных причин того, почему поисковые боты неэффективно работают с сайтом. Удаляйте все, что можете. Если по какой-то причине страницу необходимо оставить – заблокируйте ее, чтобы бот ее не сканировал. Канонические ссылки не помогут – боты все равно попадут на повторяющуюся страницу, из-за чего уменьшится ваш краул-бюджет;
- Ограничьте индексацию страниц, не имеющих ценности в плане SEO. Подумайте, от каких страниц в поисковой выдаче будет мало толка – например, старые акции, политика конфиденциальности или условия использования сайта;
- Вручную добавьте параметры URL в Google Search Console. Обычно Google краулит одну и ту же страницу без параметров URL и с параметрами URL как разные страницы. При этом тратится краул-бюджет. Научив Google распознавать страницы с разными параметрами как одну страницу, вы сможете эффективнее работать с поисковыми ботами;
- Исправьте все битые ссылки. Если бот попадает на страницу с ошибками из диапазона 4хх/5хх, он тратит ваш краул-бюджет. Устраните все найденные ошибки;
- Исправьте цепи переадресации. Каждый редирект уменьшает ваш эффективный краул-бюджет. К тому же, если превышено максимальное количество переадресаций в цепи, целевая страница может быть не просканирована.
4. Займитесь аудитом внутренних ссылок
Несложная логическая структура сайта очень важна как для удобства пользователей, так и для поисковых ботов. К тому же, грамотный внутренний линкинг поможет эффективнее передавать ссылочный вес. Вот на что следует обратить внимание:
- Глубина кликов. На все важные страницы сайта нужо попадать меньше чем за 3 клика с домашней страницы;
- Битые ссылки. Они путают ваших посетителей и впустую принимают ссылочный вес. Важно – битые ссылки могут также быть в тегах <link>, а также в заголовках и карте сайта;
- «Страницы-сироты». Это страницы, на которые не ссылается ни одна страница на вашем сайте. Их сложно найти как клиентам, так и поисковикам.
5. Проверьте ваш HTTPS-контент
В 2014 году Google стала использовать HTTPS в качестве сигнала ранжировки. С тех пор все больше сайтов переходит на этот безопасный протокол. На сегодняшний день более половины сайтов на первой странице результатов поисковика используют HTTPS.
Если ваш сайт уже перешел на HTTPS (неважно, частично или полностью), важно проверить его на типичные проблемы, связанные с использованием этого протокола. Основная из них – это смешанный контент. В этом сценарии безопасная страница подгружает дополнительный контент (картинки, видео, скрипты, CSS) через небезопасный протокол HTTP. Это ослабляет безопасность сайта. К тому же, некоторые браузеры из соображений безопасности не будут открывать такие страницы. Убедитесь, что все элементы страницы загружаются по HTTPS.
6. Проверьте и увеличьте скорость страницы
Google хочет, чтобы все страницы загружались за две секунды или даже меньше. Даже больше – это один из подтвержденных сигналов ранжировки. Скорость загрузки также серьезно влияет на удовлетворение пользователей – на медленных страницах больше показатель «отказов» и ниже частота конверсии.
7. Сделайте сайт более удобным для просмотра на мобильных устройствах
Уже скоро мобильные версии сайтов будут влиять на позицию сайта в выдаче больше, чем десктопные версии. В следующем году Google планирует внести соответствующие изменения в свои алгоритмы. А это значит, пора позаботиться о мобильной версии сайта прямо сейчас, тем более что более половины всех поисковых запросов в Google делаются с мобильных устройств. Вот на что следует обратить внимание:
- Проверка страниц на совместимость с мобильными устройствами. В Google для этого есть специальный сайт. Он проверяет конфигурацию поля обзора, использование плагина и размер текста и кликабельных элементов. Учтите, что каждая страница проверяется отдельна;
- Аудит мобильного сайта. Проведя полный аудит мобильной версии сайта позволит вам убедиться, что на нем нет никаких ошибок, а поисковые боты могут получить доступ ко всем ресурсам.
8. Дайте поисковикам перепроверить сайт
Выполнив вышеуказанные шаги, попросите Google повторно просканировать ваш сайт. Для этого зайдите в Google Search Console, перейдите в раздел Crawl и выберите Fetch as Google. Введите ссылку на страницу, которую нужно перепроверить (или оставьте поле пустым, чтобы поисковик проверил домашнюю страницу), затем нажмите на Fetch.