SEO для интернет-магазина "Часть 1"

Современный SEO не обманывает поисковые системы.

SEO для интернет-магазина

Как владельцы магазинов мы хотим сделать наши сайты привлекательными как для поисковых систем, так и для пользователей.

Поисковая система «смотрит» на сайт совершенно по-другому для нас, людей. Ваш дизайн веб-сайта, причудливая графика и хорошо написанные сообщения в блогах ни с чем не сравнится, если вы пропустили критический SEO-сайт на этом сайте.

SEO не мертв

Современный SEO не обманывает поисковые системы - речь идет о работе с поисковыми системами, чтобы представить ваши продукты и контент наилучшим образом.

Окончательное руководство по сайту для владельцев магазинов и блоггеров

Понятно, что владельцы интернет-магазинов жалуются на позицию, чтобы принимать все более крупные куски пирога электронной коммерции. С этой целью SEO всегда был главным приоритетом для большинства маркетинговых стратегий электронной коммерции. Поисковые системы используют наиболее квалифицированный и мотивированный трафик, который легче конвертировать в платных клиентов, чем посетителей из других каналов. Именно поэтому веб-сайты ведут постоянную «войну» за кулисами, чтобы опередить друг друга по ключевым словам, связанным с их продуктами и услугами.

И хотя у вас много конкурентов, вы можете успокоиться в том, что многие сайты электронной коммерции не делают свое право на SEO. С полным пониманием лучших практик SEO и большой напряженной работы вы можете получить высокую видимость поиска, не разбирая банк.

Что такое Ecommerce SEO?

Проще говоря, электронная торговля SEO - это процесс оптимизации интернет-магазина для большей видимости в поисковых системах. Он имеет четыре основных аспекта, в том числе:

  • Исследование ключевых слов
  • На сайте SEO
  • Строительство ссылок
  • Оптимизация использования трафика

В этом посте я займусь самым фундаментальным и, возможно, самым важным из четырех направлений: на месте SEO. По нашему опыту, работая с тысячами агентств, мы можем приписать наибольшее влияние на общий рост органического трафика на оптимизацию, которую мы сделали на сайтах электронной торговли, которые мы обрабатываем.

В то время как создание ссылок и другие внестраничные SEO-действия важны, SEO-сайт настраивает тон для успеха каждый раз.

Возрождение локального SEO

SEO-сайт - это общий термин, используемый для описания всех действий SEO, выполняемых на веб-сайте. Его можно разделить на два сегмента: технический SEO и онлайновый SEO. Технический SEO в основном имеет дело с тем, что сайт остается, работает и доступен для поисковых роботов. С другой стороны, онлайновый SEO ориентирован на то, чтобы помочь поисковым системам понять контекстуальную релевантность вашего сайта по ключевым словам, на которые вы нацеливаетесь.

Сегодня я сосредотачиваюсь на SEO на сайте из-за неоспоримого возрождения, которое оно имело в течение последних 3 лет или около того. Понимаете, сообщество SEO прошло фазу в конце 2000-х годов примерно до 2011 года, когда все были одержимы приобретением входящих ссылок. В то время ссылки были далекими и самыми сильными детерминантами рейтинга Google. Сайты электронной коммерции, которые были заперты в жестоких ранговых битвах, лежали в основе этого движения, и конкуренция в конечном итоге вращалась вокруг вопроса о том, кто может получить большинство ссылок - этически или иначе.

В конце концов, Google представил обновления Panda и Penguin, которые наказывали множество сайтов, которые распространяли спам и контент-спам. Качественные ссылки, которые повышали рейтинги, становились все труднее, благодаря чему влияние SEO-трафика на месте оказывалось более заметным по сравнению с ранжированием. Сообщество SEO вскоре начало видеть успешные рекламные кампании в области электронной коммерции, которые больше ориентировались на техническую и оптимизацию на странице, чем на приобретение тяжелых ссылок.

Этот пост покажет вам, что вы можете сделать на своем сайте, чтобы воспользоваться преимуществами ренессанса SEO на месте:

Технический SEO

Как упоминалось ранее, технический SEO в основном заключается в том, чтобы убедиться, что ваш сайт имеет хорошую работоспособность, быстро загружается, обеспечивает безопасный просмотр пользователей и облегчает хороший бот и навигацию пользователей через свои страницы. Вот список вещей, которые необходимо постоянно контролировать, чтобы обеспечить высокий уровень технического здоровья:

Файл Robots.txt

Файл robots.txt является очень маленьким документом, который обеспечивает поиск ботов при посещении вашего сайта. В этом документе указывается, к каким страницам можно получить доступ, какие боты могут сделать это, а какие страницы - вне пределов. Когда robots.txt запрещает доступ к определенному пути к странице или каталогу на веб-сайте, боты с ответственных сайтов будут придерживаться инструкции, а не посещать эту страницу вообще. Это означает, что недопустимые страницы не будут указаны в результатах поиска. Независимо от того, какой поток ссылок на них течет, он сбрасывается, и эти страницы также не смогут передать какой-либо капитал.

При проверке файла robots.txt убедитесь, что все страницы, предназначенные для публичного просмотра, не подпадают под любые параметры запрета. Аналогичным образом, вы захотите убедиться, что страницы, которые не служат намерению, если ваша целевая аудитория запрещена индексацией.

Наличие большего количества страниц, индексированных поисковыми системами, может показаться хорошим, но на самом деле это не так. Google и другие веб-порталы постоянно пытаются улучшить качество списков, отображаемых в их результатах. (страницы результатов поиска)

Поэтому они ожидают, что веб-мастера будут разумными на страницах, которые они представляют для индексирования, и они вознаграждают тех, кто соблюдает.

В общем, поисковые запросы подпадают под одну из трех классификаций:

  • навигационный
  • транзакционный
  • информационный

Если ваши страницы не удовлетворяют требованиям, стоящим за ними, рассмотрите возможность использования robots.txt для предотвращения доступа к ним. Это позволит лучше использовать ваш бюджет на обход и сделать собственный поток ссылок на ваш сайт более важными страницами. На сайте электронной торговли типами URL-адресов, которые вы обычно хотите запретить, являются:

Страницы оформления - это серия страниц, которые покупатели используют для выбора и подтверждения своих покупок. Эти страницы уникальны для их сеансов и, следовательно, не интересны никому другому в Интернете.

Динамические страницы. Эти страницы создаются с помощью уникальных пользовательских запросов, таких как внутренние поиски и комбинации фильтрации страниц. Подобно страницам проверки, эти страницы создаются для одного конкретного пользователя, который сделал запрос. Поэтому они не представляют интереса для большинства людей в Интернете, что делает стимул для поисковых систем индексировать их очень слабыми. Кроме того, эти страницы в конечном итоге истекают и отправляют ответы 404 Not Found при повторном просмотре поисковыми системами. Это может быть воспринято как сигнал плохого состояния сайта, который может негативно повлиять на видимость интернет-магазина.

Динамические страницы легко идентифицируются присутствием символов «?» И «=» в их URL-адресах. Вы можете запретить их индексировать, добавив строку в файл robots.txt, который говорит что-то вроде этого: disallow: *?

Staging Pages - это страницы, которые в настоящее время разрабатываются и непригодны для публичного просмотра. Обязательно настройте путь в каталоге своего сайта специально для размещения веб-страниц и убедитесь, что файл robots.txt блокирует этот каталог.

Backend pages - Эти страницы предназначены только для администраторов сайтов. Естественно, вы захотите, чтобы публика не посещала страницы, а тем более находила их в результатах поиска. Все, что находится на странице входа администратора, на внутренние страницы управления сайтом, должно быть помещено под ограничение robots.txt для предотвращения несанкционированного доступа.

Обратите внимание: файл robots.txt не единственный способ ограничить индексирование страниц. Для этой цели также можно использовать метаиндикатор noindex meta. В зависимости от характера деиндексирующей ситуации, может быть более уместным, чем другой.

XML-файл Sitemap

Карта сайта XML - это еще один документ, в котором поисковые роботы читаются для получения полезной информации. В этом файле перечислены все страницы, на которые Google и другие пауки сканируются. Хорошая карта сайта содержит информацию, которая дает ботам представление о вашей информационной архитектуре, частоту изменения каждой страницы и местонахождение активов, например изображений, в пути к файлу вашего домена.

Хотя XML-файлы Sitemap не являются необходимостью на каком-либо веб-сайте, они очень важны для интернет-магазинов из-за количества страниц, которые есть на обычном сайте электронной торговли. Имея карту сайта и предоставляя такие инструменты, как Google Search Console , поисковые системы имеют тенденцию находить и индексировать страницы, находящиеся в глубине иерархии URL-адресов вашего сайта.

Ваш веб-разработчик должен иметь возможность настроить XML-карту сайта для вашего сайта электронной торговли. Чаще всего сайты электронной коммерции уже имеют его к моменту завершения их циклов разработки. Вы можете проверить это, выбрав [www.yoursite.com/sitemap.xml]. Если вы увидите что-то вроде этого, у вас уже есть ваша карта сайта XML:

'.$row[

Наличие XML-Sitemap не является гарантией того, что все URL-адреса, перечисленные на нем, будут рассматриваться для индексации.

Отправка карты сайта в Google Search Console гарантирует, что робот поискового гиганта найдет и прочитает карту сайта. Для этого просто войдите в свою учетную запись Search Console и найдите свойство, которым хотите управлять. Перейдите в раздел Crawl> Sitemaps и нажмите кнопку «Добавить / Проверить новый файл Sitemap» в правом верхнем углу. Просто введите URL-адрес вашего XML-сайта и нажмите «Отправить».

Вы должны иметь возможность видеть данные на вашем сайте в течение 2-4 дней. Вот как это будет выглядеть:

'.$row[

Обратите внимание, что в отчете указывается, сколько страниц отправлено (указано) в файле Sitemap и сколько индексировано Google. Во многих случаях сайты электронной торговли не получат каждую страницу, которую они отправляют в файле Sitemap, индексированном Google. Страница не может быть проиндексирована по одной из нескольких причин, включая:

URL-адрес «Мертвый». Если страница была умышленно удалена или связана с техническими проблемами, она, вероятно, даст ошибки 4xx или 5xx. Если URL-адрес указан в карте сайта, Google не будет индексировать страницу из URL-адреса, который не работает должным образом. Точно так же, если некогда живая страница, указанная в файле Sitemap, будет работать в течение длительного периода времени, ее можно снять с индекса Google.

URL-адрес перенаправляется. Когда URL-адрес перенаправляется и дает код ответа 301 или 302, нет смысла иметь его в файле Sitemap. Целевая страница перенаправления должна быть указана, если ее еще нет. Если URL-адрес перенаправления указан в файле Sitemap, есть вероятность, что Google просто проигнорирует его и сообщит об этом как не проиндексированный.

URL-адрес блокируется. Как описано в разделе robots.txt, не все страницы на сайте электронной торговли необходимо индексировать. Если веб-страница блокируется с помощью файла robots.txt или метатега noindex, нет смысла перечислять его в файле Sitemap XML. Search Console будет считать его не индексированным точно, потому что вы просили его не быть.

Страницы проверки, страницы тегов блога и другие страницы с дублирующимся содержимым - это примеры страниц, которые не должны быть указаны в XML-карте сайта.

URL имеет каноническую ссылку . Кассовый тег rel = canonical часто используется в интернет-магазинах, чтобы сообщить поисковым системам, какая страница они хотят индексировать из нескольких очень похожих страниц. Это часто происходит, когда продукт имеет несколько SKU с очень маленькими отличительными атрибутами. Вместо того, чтобы Google выбирал, какой из них отображать на SERP, веб-мастера получили возможность сообщать поисковым системам, какая страница является «реальной», которую они хотят видеть.

Если на вашем сайте электронной торговли есть страницы продуктов, у которых есть rel = канонический элемент, нет необходимости перечислять их на вашей карте сайта. Google, вероятно, будет игнорировать их в любом случае и почитать то, на что они указывают.

Страница имеет тонкий Content - Google определяет тонкое содержание , как страницы с практически без добавленной стоимости. Примеры включают страницы с практически отсутствующим текстовым контентом или страницами, которые имеют текст, но дублируют другие страницы с сайта или из других мест в Интернете. Когда Google считает, что страница тонкая, она либо не нравится в результатах поиска, либо игнорирует ее прямо.

Если у вас есть страницы продуктов, которые содержат содержимое шаблонов, снятых с сайтов-производителей или других страниц вашего сайта, обычно разумно блокировать их индексирование, пока у вас не найдется время и рабочая сила, чтобы писать более богатые и более уникальные описания. Из этого следует также, что вам следует избегать перечисления этих страниц на карте сайта XML только потому, что они менее подвержены индексированию.

Существует штраф за уровень страницы. В редких случаях поисковые системы могут предпринимать ручные или алгоритмические действия против сайтов, которые нарушают их рекомендации по качеству. Если страница является спамом или была взломана и заражена вредоносным ПО, ее можно снять с индекса. Естественно, вам нужны страницы, подобные этим, с вашего сайта.

URL-адрес избыточен. Дублирующие URL-адреса в XML-карте сайта, как вы и ожидаете, не будут перечислены дважды. Второй, вероятно, будет проигнорирован и оставлен с индексом. Вы можете решить эту проблему, открыв свою карту сайта в своем браузере и сохраняя ее как документ XML, который можно открыть в Excel. Оттуда перейдите на вкладку «Данные». Выделите столбец, в котором URL-адреса находятся в вашей карте сайта, и нажмите «Удалить дубликаты».

Ограниченные страницы. Страницы, защищенные паролем, или только предоставление доступа к определенным IP-адресам, не будут сканироваться поисковыми системами и поэтому не индексироваться.

Чем меньше неприемлемых страниц, которые вы перечисляете в своей карте сайта, тем лучше будет ваше отношение к индексированию. Это помогает поисковым системам понять, какие страницы в вашем домене имеют наивысшую степень важности, что позволяет им лучше выполнять ключевые слова, которые они представляют.

Ошибки сканирования

В онлайн-магазинах продукты обычно добавляются и удаляются в зависимости от множества факторов. Когда индексированные страницы продукта или категории удаляются, это не обязательно означает, что поисковые системы автоматически забывают о них. Боты будут продолжать попытки обхода этих URL-адресов в течение нескольких месяцев, пока они не будут исправлены или сняты с индекса из-за хронической недоступности.

С технической точки зрения, ошибки обхода - это страницы, которые боты не могут успешно получить, поскольку они возвращают коды ошибок HTTP. Среди этих кодов 404 является наиболее распространенным, но другие в диапазоне 4xx применяются. В то время как поисковые системы признают, что ошибки обхода являются обычным явлением на любом веб-сайте, слишком много из них могут отслеживать видимость поиска. Ошибки сканирования, как правило, выглядят как свободные концы на сайте, которые могут нарушить правильный поток внутренней ссылки между страницами.

Ошибки сканирования обычно вызваны следующими событиями:

  • Умышленно удаленные страницы
  • Случайно удаленные страницы
  • Истекшие динамические страницы
  • Проблемы с сервером

Чтобы узнать, сколько ошибок сканирования на вашем сайте электронной торговли и какие URL-адреса затронуты, вы можете получить доступ к Консоли Google Search Console и перейти к соответствующей собственности. В меню левой боковой панели выберите « Сканировать»> «Ошибки сканирования» . Вы должны увидеть отчет, подобный этому:

'.$row[

В зависимости от типов страниц, которые вы найдете в отчете об ошибках обхода, существует несколько различных способов их устранения, в том числе:

Исправлять случайно удаленные страницы. Если URL-адрес принадлежит странице, которая была удалена непреднамеренно, просто повторная публикация страницы под одним и тем же веб-адресом устранит проблему.

Блокировать динамическое индексирование страниц. Как было рекомендовано ранее, динамические страницы, которые истекают и становятся ошибками обхода, могут быть предотвращены путем блокирования доступа к боту с помощью файла robots.txt. Если ни одна динамическая страница не индексируется в первую очередь, в поисковых системах не будет обнаружена ошибка обхода.

301 Перенаправить старую страницу на новую страницу. Если страница была удалена намеренно, и для ее публикации была опубликована новая, используйте 301 перенаправление, чтобы привести поисковых роботов и пользователей на страницу, которая заняла его место. Это не только предотвращает возникновение ошибки обхода контента, но также передает любой эквивалент ссылки, который однажды удалил страница. Однако не следует считать, что исправление для каждой ошибки обхода - перенаправление 301. Слишком много перенаправлений может негативно повлиять на скорость сайта.

Проблемы с сервером адресов. Если проблемы с сервером являются основной причиной простоев, работа с вашим веб-разработчиком и вашим провайдером хостинга - ваш лучший ресурс.

Игнорировать их - когда страницы удаляются намеренно, но они не имеют большого значения, и никакая страница замены не планируется, вы можете просто позволить поисковым системам вымыть их из индекса за несколько месяцев.

Наличие как можно большего количества ошибок сканирования является отличительной чертой ответственного администратора интернет-магазина. Ежемесячная проверка вашего отчета об ошибках обхода должна позволять вам оставаться на высоте.

Руководство по поиску уязвимых ссылок

Сломанные ссылки предотвращают перемещение поисковых пауков со страницы на страницу. Они также плохо подходят для пользователей, потому что они приводят посетителей к тупикам на сайте. Из-за большого количества страниц и сложной информационной архитектуры большинства сайтов электронной коммерции, здесь часто встречаются неработающие ссылки.

Сломанные ссылки обычно вызваны ошибками в целевых URL-адресах ссылок или путем ссылки на страницы, отображающие 404 Не найденные коды ответов сервера. Чтобы проверить свой сайт на наличие ошибок обхода, вы можете использовать инструмент Screaming Frog SEO Spider . У этого есть бесплатная, ограниченная версия и полная версия, которая стоит 99GBP в год. Для небольших интернет-магазинов бесплатной версии должно быть достаточно. Для сайтов с тысячами страниц вам потребуется платная версия для тщательного сканирования.

Чтобы проверить неработающие ссылки с помощью Screaming Frog, просто установите приложение для работы в режиме Spider по умолчанию. Введите URL-адрес вашей домашней страницы и нажмите кнопку «Пуск».

'.$row[

Подождите, пока сканирование закончится. В зависимости от количества страниц и скорости соединения сканирование может занять от нескольких минут до часа.

'.$row[

Когда обход завершается, перейдите в Bulk Export и нажмите «All Anchor Text». Затем вам нужно будет сохранить данные в виде файла CSV и открыть его в Excel. Он должен выглядеть так:

'.$row[

Перейдите в столбец F (код состояния) и отсортируйте значения от самых больших до самых маленьких. Вы должны иметь возможность найти неработающие ссылки сверху. В этом случае на этом сайте есть только 4 неработающих ссылки.

Столбец B (Источник) относится к странице, где ссылка может быть найдена и отредактирована. Столбец C (Назначение) относится к URL-адресу, на который указывает ссылка. Столбец E (Якорь) относится к тексту, где привязана ссылка на исходной странице.

Вы можете исправить неработающие ссылки одним из следующих способов:

Исправить целевой URL - если целевой URL был орфографический, исправьте опечатку и установите ссылку в реальном времени.

Удалите ссылку. Если не было клерикальной ошибки на целевом URL, но страница, с которой она ссылалась, больше не существует, просто удалите гиперссылку.

Замените ссылку. Если ссылка указывает на страницу, которая была удалена, но есть страница замены или другая страница, которая может содержать ее, замените целевой URL в своей CMS.

Фиксирование неработающих ссылок улучшает циркуляцию эквити ссылок и дает поисковым системам лучшее впечатление о техническом состоянии вашего сайта.

Дублированный контент и SEO для вашего интернет-магазина

Как упоминалось ранее, в интернет-магазинах более высокая тенденция страдать от проблем с дублированием контента из-за количества продуктов, которые они несут, и сходства в названиях их SKU. Когда Google обнаруживает достаточное сходство между страницами, он принимает решения о том, какие страницы показывать в результатах поиска. К сожалению, выбор страниц Google, как правило, не соответствует вашим требованиям.

Чтобы найти страницы на вашем сайте электронной торговли, которые могут быть затронуты проблемами дублирования, перейдите в Google Search Console и нажмите «Поиск внешнего вида» на левой боковой панели. Нажмите на отчет об улучшении HTML, и вы увидите что-то вроде этого:

'.$row[

Синий связанный текст указывает на то, что ваш сайт имеет проблемы с определенным типом проблемы с HTML. В этом случае это повторяющиеся теги заголовков. Нажав на это, вы сможете увидеть страницы. Затем вы можете экспортировать отчет в файл CSV и открыть его в Excel.

Изучите отчет и вовлеченные URL. Проанализируйте, почему теги заголовков и мета-описания могут дублироваться. В интернет-магазинах это может быть связано с:

Lazy Title Tag Writing - на некоторых плохо оптимизированных сайтах веб-разработчики могут оставить все страницы с одинаковыми тегами заголовков. Обычно это название бренда. Это можно устранить, отредактировав теги заголовков и соответствующим образом называя каждую страницу в соответствии с сущностью ее содержимого.

Очень похожие продукты. В некоторых интернет-магазинах есть продукты, которые имеют очень похожие свойства. Например, магазин электронной коммерции, который продает одежду, может продать рубашку, которая поставляется в 10 разных цветах. Если каждый цвет рассматривается как уникальный SKU и поставляется со своей страницей, теги заголовков и мета-описания могут быть очень похожими.

Как упоминалось в предыдущем разделе, использование rel = canonical HTML-элемента может указывать боты на версию этих страниц, которые вы хотите проиндексировать. Это также поможет поисковым системам понять, что дублирование на вашем сайте по дизайну.

Случайное дублирование. В некоторых случаях платформы CMS для электронной коммерции могут быть неправильно сконфигурированы и запущены с дублированием страниц. В этом случае необходима помощь веб-разработчика в устранении основной причины. Вам, вероятно, потребуется удалить дубликаты страниц и 301 перенаправить их на оригинал.

Бонус : страницы, обозначенные как короткие или длинные теги заголовков и мета-описания, могут быть решены просто путем редактирования этих полей и обеспечения соблюдения параметров длины. Подробнее об этом в разделе «Тэги заголовков и метаданных» этого руководства.

Скорость сайта

На протяжении многих лет скорость сайта стала одним из самых важных факторов рейтинга в Google. Чтобы ваш интернет-магазин достиг своего полного потенциала, он должен быстро загружаться как для мобильных, так и для настольных устройств. В конкурентных битвах ключевых слов между конкурирующими интернет-магазинами сайт, который имеет преимущество на скорости сайта, обычно превосходит своих более медленных конкурентов.

Чтобы проверить, насколько хорошо ваш сайт работает в отделе скорости, перейдите в Google PageSpeed . Скопируйте и вставьте URL-адрес страницы, которую вы хотите проверить, и нажмите Enter.

'.$row[

Google будет оценивать страницу по шкале от 1 до 100. 85 и выше - предпочтительные баллы. В этом примере тестируемый сайт был ниже идеальной скорости на рабочем столе и мобильном устройстве. К счастью, Google предоставляет технические рекомендации по устранению проблем времени загрузки. Сжатие страницы, лучшее кэширование, минимизация CSS-файлов и другие методы могут значительно повысить производительность. Ваш веб-разработчик и дизайнер сможет помочь вам в этих улучшениях.

Безопасные URL-адреса

Пару лет назад Google объявила, что делает безопасные URL-адреса рейтинговым фактором. Это вынудило множество сайтов электронной коммерции принять протокол в целях получения прибыли от обычного трафика. Хотя мы наблюдали, что преимущества SEO были незначительными, настоящими победителями являются конечные пользователи, которые пользуются более безопасными покупками, когда безопасность данных сложнее компрометировать.

'.$row[

Вы можете проверить, использует ли ваш интернет-магазин безопасные URL-адреса, проверив значок значка в адресной строке вашего веб-браузера. Если его нет, вы можете подумать о том, чтобы он реализовал ваш разработчик. На сегодняшний день большинство сайтов электронной коммерции имеют только защищенные URL-адреса на своих страницах проверки. Однако все больше владельцев интернет-магазинов делают переход на протокол SSL.

Реализация защищенных URL-адресов на сайте электронной торговли может быть сложной задачей. Поисковые системы рассматривают страницы HTTP и HTTPS как два разных веб-адреса. Поэтому вам нужно будет повторно создать каждую страницу вашего сайта в HTTPS и 301 перенаправить все старые HTTP-эквиваленты, чтобы заставить все работать. Излишне говорить, что это важное решение, в котором SEO является лишь одним из нескольких факторов, которые следует учитывать.