Рубрики
Блог

Главные тренды SEO продвижения в 2021 году

Содержание статьи:

Уходящий год был, мягко говоря, богат на события, изменилось многое в том числе в работе SEO специалистов. Внедрение новых алгоритмов ранжирования от Google и Яндекс, заставили, как минимум поволноваться. Сегодня я хочу рассказать, что на мой взгляд будет наиболее актуально, какие тренды в SEO-2021 года прослеживаются уже сейчас.

Особое внимание к контенту

Качество и количество размещенной информации на посадочной странице сайта играет основополагающую роль в SEO продвижении, с этим сложно спорить. Однако с введением новых алгоритмов обработки текста в Яндекс и Google, поисковые роботы, основываясь на машинном обучении, научились понимать фактический смысл контента, что естественно отразилось на ранжировании. Особенно это касается поисковых запросов с так называемым «длинным хвостом».

Стоит понимать, что переспамленная «портянка текста» с прямым или разбавленным вхождением ключевых фраз, давно не работает. При этом, объемная текстовая составляющая (не менее 3000 символов) на посадочной странице необходима, поскольку в коротком, ограниченном контенте нет возможности полностью раскрыть тематику. Применение технологии LSI при наполнении страницы сайта, также актуально. В 2021 году поисковики не только оценивают релевантность контента, но и удобство взаимодействия пользователя с ним, а это значит, что теперь подходить к оформлению и наполнению страницы необходимо с особой тщательностью.

CTR в органическом поиске

Показатели CTR (соотношение между показами и кликами) имело значение и раньше, но в 2021 году прослеживается явный тренд на усиление борьбы между оптимизаторами за заметность в поисковой выдаче.

Тщательная проработка title и описания страниц, использование эмоджи в description, внедрение микроразметки с быстрыми ответами (для Google), турбо-страницы в Яндексе, карусель которых выводятся в поиске (актуально для главной страницы), разметка рейтинга, отзывы и многое другое.

Работу над улучшением показателей CTR необходимо проводить регулярно, при этом не забывать анализировать полученные результаты с помощью Яндекс Веб-мастер и Google Search Console.

пример турбо страниц в яндексе

Техническая оптимизация

Также, как и CTR, техническое состояние сайта оценивалось поисковиками и раньше, однако сейчас речь идет о более глубоком понятии. Например, Google «выкатил» новый фактор ранжирования Page Experience — это абсолютно новая метрика позволяющая оценивать взаимодействие пользователей со страницей сайта, а также получать информацию технического характера.

Например, Page Experience контролирует время отрисовки контента, присутствие мобильной адаптации, безопасность сайта в том числе наличие SSL сертификата. Классические технические параметры (корректный robots.txt, наличие sitemap, настроенная 404 страница и другие), также должны быть настроены безукоризненно.

Поведенческие факторы

Поведение и удовлетворённость пользователей в 2021 году по-прежнему останется одной из главных метрик при ранжировании сайта поисковиками. При этом Яндекс-ом и Google-ом будут учитываться не только переход из поиска по определенному запросу или группе, а качественно возрастет контроль непосредственно за сессией.

В 2021 году очень влияющим фактором станет конверсия Интернет-ресурса, именно данная метрика сможет показать, что сайт является релевантным, то есть соответствует требованиям посетителя, более того подобный показатель очень сложно «накрутить».

Возврат в поисковую выдачу, время пребывания на странице, доля длинных сессий (более 1-ой минуты), доля глубоких сессий (более 2-х минут), переход по внутренним ссылкам, клики и прокрутка, также имеют значение.

Голосовой поиск

Согласно мировой статистике более 43% пользователей Интернета активно пользуются голосовым поиском с 2019 по 2020 год показатель вырос на 9%. Да, несомненно, в Беларуси цифра значительно ниже, но технология явно развивается и причин для обратной тенденции не просматривается. К слову, я обратил внимание, что мой 8-ми летний сын и его друзья практически не вводят запросы привычным способом, а пользуются голосовым поиском. Это еще раз доказывает, что новое поколение явно выбирает более удобный способ взаимодействия с поиском, соответственно оптимизировать сайт под голосовые запросы нужно уже сейчас.

Для этого необходимо использовать вопросительные наречия и местоимения в заголовках. Очень круто работает сочетание голосового поиска с локальными запросами, которые, кстати, тоже можно сказать тренд в SEO 2021 года.

Визуальный поиск

Новый тренд в поиске Google, основанный на технологии с применением искусственного интеллекта, которая называется — Google Lens. Несмотря на то, что в Беларуси и странах СНГ, визуальный поиск ещё не так популярен, в Соединённых штатах Америки данной технологией активно пользуются, а в 2020 году Google Lens воспользовались более 1 млрд. пользователей во всем мире. Функция будет полезна для:

  • Поиска информации об объектах;
  • Определение вида растений и животных;
  • Поиска рецептов и блюд;
  • Поиска информации о местном заведении;
  • Поиск понравившихся предметов.

Суть технологии заключается в следующем. При помощи камеры смартфона, наведённого на определенный предмет или текст, используя алгоритмы компьютерного зрения Google Lens идентифицирует объекты, который оказался под прицелом камеры, после чего выводит на экран соответствующую информацию.

google lens визуальный поиск

Для продвижения под визуальный поиск необходимо выполнить несколько условий. В первую очередь сайт должен иметь адаптацию под мобильные устройства. Во-вторых, картинки, используемые на странице, должны быть оптимизированы для SEO (заполнен alt, title и т.д.). В подавляющем большинстве документы, которые показываются в Google Lens имеют объем не менее 1500-1700 символов.

Размещение видео

Видеомаркетинг однозначный тренд не только 2021 года. Уже сегодня 50% сайтов, находящихся в ТОП-10 выдачи, имеют на странице какой-либо видео контент.

Промо-ролики, инструкции и обзоры на товары, другие интересующие пользователя видео сделают страницу сайта более понятной и простой для восприятия. При этом не забываем о том, что видео точно помогут улучшить поведенческие факторы, о которых шла речь выше. Обязательно необходимо внедрить микроразметку на странице с видеороликом, это даст возможность получить в выдаче Google небольшое превью, что в свою очередь повлияет на CTR о котором также говорили ранее в этой статье.

Заключение и выводы

Уверенно можно сказать, что наступающий 2021 год продолжит уже заложенные в текущем году тренды на удобный и полезный сайт. Уверенно можно сказать, что в выигрыше останутся ресурсы быстрые, максимально отвечающие на запрос пользователя в широком смысле этого понятия.

Очевидно, что оптимизаторам и владельцам сайтов необходимо инвестировать в разноплановый контент (видео, графики, таблицы), усиленно работать над локальным SEO продвижением и расширять источники трафика на сайт.

Рубрики
Блог

Оптимизация изображений с помощью Squoosh

Оптимизация изображений на сайте достаточно важный момент в современном SEO продвижении, ведь размер графики путь и косвенно, но влияет на ранжирование страниц в поисковой выдаче. Дело в том, что большие картинки, размещенные на странице, значительно снижают скорость её загрузки и отрисовки первого контента. Несмотря на то, что скорость загрузки не является наиболее важным фактором для ранжирования, игнорировать требования поисковых систем и посетителей (ведь никто не любит медленные сайта, правда?) не стоит. В данном материале я расскажу, как можно оптимизировать изображение при помощи сервиса от Google, который называется — Squoosh.

Способы оптимизации изображений

Прежде, чем переходить непосредственно к Squoosh, думаю кратко следует рассказать, как выглядит полноценная стратегия оптимизации графики, из каких этапов она состоит:

  • Настройка ленивой загрузки или LazyLoad;
  • Обрезка изображения в соответствии с размером экрана;
  • Сжатие картинки.

Именно последний пункт описанной стратегии позволяет решить сервис Squoosh.

Сервис Google Squoosh

Инструмент позволяющий использовать наиболее расширенные параметры, которые предлагают другие онлайн-компрессоры изображений, был разработан в Google Chrome Labs. Используемая технология является достаточно сложной, но обычному пользователю предоставлен вполне интуитивно понятный интерфейс. С помощью Squoosh можно сжать изображения букавльно в два клика компьтерной мышкой. Для этого необходимо:

  • Открыть сайт squoosh.app;
  • Загрузить нужное изображение;
  • Скачать файл в нужном формате, который система оптимизирует автоматически.

В сервисе предусмотрены настройки позволяющие изменять качество сжатия, кодеки при этом отслеживать изменения можно сдвигая ползунок. В правом углу экрана можно увидеть на сколько в процентном отношении удалось уменьшить картинку. Пожалуй, отнюдь не маловажным моментом является то, что инструмент абсолютно бесплатный и не имеет ограничений. Все аналогичные онлайн сервисы или программы распространяются исключительно на платной основе.

пример Squoosh

Буквально неделю назад Squoosh обновили, добавив возможность сжатия изображений из терминала, также разработчики улучшили дизайн инструмента и добавили новые кодеки: OxiPNG, WebP, AVIF. Появилась возможность массовой оптимизации изображений.

Заключение и выводы

Squoosh от Google является отличным инструментом, который поможет сжать практически любые виды изображений, что в последующем (поле загрузки на сайт), позволит сократить скорость загрузки страницы. Что касается иногда возникающего вопроса: какие изображения оптимизировать? Конечно, все, но начинать следует с самых больших на странице, это как правило графика используемая в слайдерах и фоновых изображениях.

Рубрики
Блог

Что такое и зачем нужен технический файл robots.txt

Роботы-краулеры Яндекса и Google посещают страницы сайта регулярно, оценивая содержимое они добавляют информацию о странице в базу данных для последующего ранжирования по тем или иным поисковым запросам. Поскольку сайтов в интернете много, алгоритм сканирования имеет некоторые ограничения по времени и количеству страниц обхода роботом за одно посещение. Именно для того, чтобы направить робота на обработку важных страниц сайта, а также для закрытия от индексирования документов или разделов сайта (например, административной части) веб-мастера используют технический файл robots.txt. О том, как правильно заполнить файл robots.txt я расскажу в этом материале.

Из чего состоит robots.txt

Итак, мы разобрались, что robots.txt технический файл, который используется для указания поисковым роботам, как индексировать сайт. Важно понимать, что если robots.txt будет отсутствовать или будет составлен неправильно, что бывает очень часто, особенно у молодых ресурсов, то бот будет изучать сайт по своему собственному усмотрению и далеко не факт, что он это сделает корректно, скажу больше, в моей практике подобных случаев не было.

Как таковой файл robots.txt представляет собой текстовый документ, в котором прописываются директивы для ботов:

  • Us-agent: — основная директива robots.txt, для конкретных указаний используются User-agent: Googlebot или User-agent: Yandex.

После основной директивы следуют команды, которые разрешают или запрещают индексацию:

  • Команда Disallow: — запрет индексации в robots.txt;
  • Команда Allow: — разрешение индексации в robots.txt.

Скажу, что на практике команда Allow: используется крайне редко, ведь здесь работает принцип, всё что не запрещено, то разрешено. Но бывают случаи, когда без неё не обойтись. В robots.txt есть ещё одна важная директива:

  • «Sitemap:» — указание на xml карту сайта.

Указание sitemap в файле robots.txt, важный момент для SEO, поскольку такая манипуляция позволяет значительно быстрее проиндексировать карту сайта. Если с директивами всё более или менее понятно, можно переходить к символам, которые используются в robots.txt:

  • * — означает любую последовательность символов в файле;
  • $ — ограничивает действия *, представляет конец строки;
  • / — показывает, что закрывают для сканирования;
  • # — используют для комментариев, боты игнорируют текст с этим символом.

Следует отметить, что Яндекс очень жестко следует всем директивам в robots.txt, Google же вполне может «наплевать» на ваши желания, так как если будут обнаружены ссылки с других ресурсов или важные (по мнению Google) внутренние, то страница может попасть в индекс не смотря на запрет в robots.txt. Это бывает редко, но такое возможно.

Требования к robots.txt

Для того, чтобы файл использовался поисковыми ботами, он не только должен быть корректно составлен, но и отвечать предъявляемым требованиям:

  • Называется «robots.txt», название прописывается только строчными буквами;
  • Располагаться только в корневом каталоге сайта;
  • Файл должен быть на сайте в единственном экземпляре;
  • Поддерживаемый формат, только .txt;
  • Объем файла до 32 КБ;
  • В ответ на запрос код ответа со статусом 200 ОК;
  • Каждый префикс URL в отдельной строке;
  • Содержать только латинские символы.

Проверить корректность созданного документа, равно, как и создать можно с помощью всевозможных онлайн сервисов. Если всё в порядке, можно приступать к размещению.

Пример составленного robots.txt

В заключении приведу пример составленного файла и поясню, некоторые моменты:

User-agent: *

Disallow: /boy/

Disallow: /search/

Disallow: /wp-admin/

Sitemap: http://site.com/sitemap

В данном случае, мы в самом начале обращаемся ко всем поисковым роботам, далее следуют директивы, с помощью которых мы запрещаем индексировать результаты поиска по сайту, административную часть Интернет-ресурса, определённый раздел каталога. После чего указываем роботу адрес нашей карты сайта, для более быстрого обхода и попадания в поиск.

И последнее, проверить наличие и содержимое файла robots.txt, как на своем, так и на любом другом можно введя в адресной строке браузера site.by/robots.txt, где вместо site.by — адрес проверяемого ресурса.

Рубрики
Блог

Яндекс «выкатил» технологию анализа текста Yati

В сегодняшней небольшой статье речь пойдет о важном изменении технологии обработки текста от Яндекс, а именно — Yati, которую представили на конференции YaC 2020. Название нового алгоритма расшифровывается как Yet Another Transformer with Improvements. Эксперты Яндекса без преувеличения называют Yati самым значимым изменением в поиске Яндекса за последние 10 лет.

Как работает Yati

Основная задача поисковика — дать пользователю максимально релевантный ответ. Поисковые машины анализируя текст документа делают вывод будет ли он полезен пользователю, именно для этого внедряются специальные алгоритмы обработки текста. До сегодняшнего дня в Яндекс это были — Палех и Королев.

Сейчас на смену последнему пришел Yati, который также, как и его предшественники устанавливает смысловые связи между пользовательским запросом и документом при помощи нейросети, но обработка происходит по-другому, более того в Yati внедрено двухэтапное обучение. Теперь Яндекс поиск основан на огромных нейронных сетях и архитектуре трансформеров.

Как Yati повлияет на SEO

Уверенно можно сказать, что сайтам (не смотря на небольшой шторм выдачи в последние месяцы), которые были созданы, что называется для людей беспокоится не о чем. В большей степени пострадают Интернет-ресурсы с не качественным контентом. При этом велика вероятность, что трафик их органической выдачи будет постепенно перетекать к более крупным сайтам. Стоимость SEO продвижения скорее всего увеличится, ведь наполнение контентом сайта станет ещё дороже.

Думаю, сейчас у многих возникает резонный вопрос, что делать? На мой взгляд лучшим решением будет взять не большую паузу и понаблюдать за позициями в поиске. В будущем, как в прочем и сейчас актуально работать с активной семантикой и в целом расширять семантику конкретного документа с помощью LSI и других методов.