Первичная seo оптимизация. Абсолютные и относительные ссылки. Прописываем title, description, keywords

Faq 05.04.2019
Faq

Наши преимущества

  • Мы более 10 лет занимаемся любимым делом
  • Мы ценим Вас и Ваше время
  • Мы рядом с Вами
  • Мы понимаем, что Ваша цель - продажи

Первичной оптимизацией сайта называют ряд действий, которые осуществляют оптимизаторы на начальном этапе, когда сайт уже создан, но еще не наполнен содержимым. Важно осознавать, что при продвижении нужно смотреть на сайт как на единую концепцию, а не как на совокупность отдельно продвигаемых страничек. На сайт важно смотреть не только глазами роботов, но и глазами потенциальных пользователей. Первичная оптимизация - это что-то вроде расчески с редкими зубцами: вы просто берете и слегка причесываете страницы, чтобы ничего не торчало и не раздражало поисковых роботов.

Перед тем, как начинать этот процесс, важно понимать к чему его применять. Поэтому мы и решили написать этот материал.

  • Прежде всего, обратите внимание на Title, Description и Keywords. Все эти три категории должны быть уникальными у каждой из страниц сайта. Более того, они должны быть релевантными, то есть соответствовать содержимому. Уникальными их можно сделать либо вручную, либо же автоматически, наладив автоматическую генерацию (сейчас это не проблема, было бы желание). При этом не забывайте, что основные ключевые слова нужно помешать в Title. Заголовок должен быть не длиннее 10-12 слов, иначе поисковик воспримет его как спам.
  • Нельзя не учесть разметку страницы, и в особенности заголовки (H1-H6). Как вы понимаете, порядок заголовков должен быть последовательным, при этом заголовок типа H1 должен встречаться только один раз, и чем меньше лишних слов в нем будет, тем больший вес будет иметь ключевая фраза.
  • Не забывайте про карту сайта. Она может быть сгенерирована как XML, так и в HTML формате. Все зависит от того, с каким движком вы работаете и что вам ближе. Обычно на карту сайта ставится несколько внешних ссылок, что позволяет ей иметь вес, который она будет отдавать внутренним страницам.
  • Посредством какого-либо софта (например, программы XENU) необходимо предотвратить баги. Никаких битых ссылок и отсутствующих документов быть не должно.
  • Также проверьте сайт на валидный TML, CSS и RSS и сократите использование JavaScript и Flash анимации.

Что вы получите в итоге?

Мы проведём бесплатный первичный аудит вашего сайта, выявив основные проблемы, которые негативно сказываются на его продвижении. Даже если до этого сайтом занимались не сведущие в SEO-оптимизации люди, в течение нескольких недель мы сможем исправить все недочёты, допущенные на стадии разработки и продвинуть ваш ресурс в ТОП выдачи поисковых систем.

Давайте представим ситуацию, что вы разработали сайт в Краснодаре , опубликовали его. Дальше вы ждете когда на него ринит целевой трафик, но этого не происходит, потому что не была произведена первичная SEO оптимизация или как еще называют внутренняя оптимизация. Неправильные действия по данному направлению могут привести к тому, что ресурс, может никогда не попасть на страницы поисковика.

Что входит в первичную оптимизацию?

1. Сборка семантического ядра. Семантическое ядро - набор ключевых запросов (низкочастотные, среднечастотные и высокочастотные), по которым и оптимизируется сайт.

Как собрать семантическое ядро? Помогут бесплатные сервисы Яндекс.Вордстат и Серпстат. После того, как семантическое ядро создано мы должны разделить его по категориям, и эти категории разделить по страницам сайта. Для того, чтобы на каждой странице находились ключевые запросы, которые соответствуют названию и теме. При необходимости структура сайта дорабатывается и добавляются новые разделы.

2. Установка счетчиков. Яндекс.Метрика и Google Analytics. Нужно для мониторинга статистики посещений, источников трафика, глубины просмотра, процент отказа.

3. SEO оптимизированный контент. Написание уникальных статей под конкретный ресурс и специфику деятельности. SEO оптимизированными тексты считаются в том случае, когда прописаны теги, тайтлы, дескрипшны и альты у картинок. Наполнение должно быть разнообразным: помимо текста добавляются изображение и видео.

4. Человеко-понятные урлы. Это красивые и дружественные страницы адреса сайт как для пользователя, так и для поисковых роботов. А затем переходим к перелинковки всех страниц, это значит что в тексте одной страницы идет ссылка на другой раздел.

5. Создание файлов роботс.тхт и сайтмап.хмл. Robots говорит роботам какие страницы индексируются, а какие скрыты от этого процесса. Sitemap позволяет быстрее ориентироваться по структуре ресурса.

6. Сниппеты и микроразметка. Сниппет - это блок информации или краткие сведения о конкретной странице, которая видна в поисковой выдачи.

После реализации всех пунктов хорошо бы озадачиться тем, чтобы разместить Политику Конфиденциальности, а также купить установить ССЛ-сертификат. Плюс ко всему зарегистрировать сайт во всех доступных каталогах и выложить информацию на карты.

Для того, чтобы сайт наконец начал индексироваться поисковиками ему нужна первичная SEO оптимизация. Если планируете заниматься внешней оптимизацией, то она невозможна без первичной внутренней оптимизации. Если планируете продвигаться через контекст, то для того, чтобы рекламные кампании были максимально эффективными нужна корректная работа ресурса.

Любой интернет-проект нуждается в оптимизации, и некоторые моменты необходимо поправить сразу же, потому что от них зависит 90% успеха. Да, писать тексты небыстро, размещать их долго, на заполнение сайта большого объема потребуется порядком времени. Однако не стоит откладывать работу со страницей до подготовки уникального контента, гораздо важнее как можно раньше выполнить хотя бы минимальные настройки.

Что включает в себя первичная оптимизация сайта

  • Добавление проекта в сервисы для вебмастеров от Яндекса и Google. Выполнение настроек (нужно указать регион, добавить карту сайта, проверить корректность отображения robots, наличие ошибок и прочее). Подключение площадки к счетчикам статистики для получения информации о посетителях.
  • Сбор семантического ядра хотя бы для основных страниц. На основе полученной информации необходимо прописать мета-теги и заголовки. На страницах, для которых не собирались запросы, необходимо задать настройки интуитивно, лишь бы они отражали содержимое. Например, заголовок H1 категории «Для детей» интернет-магазина одежды можно прописать так «Детская одежда».
  • Добавление правил оптимизации в файл robots.txt . Нужно указать поисковые системы (опционально), добавить разделы, которые нужно исключить из индексации, ссылку на карту сайта и главное зеркало.
  • Разработка навигационного меню и структуры сайта. Если есть возможность сократить количество уровней вложенности, следует это сделать. Пользователи и роботы должны без труда переходить по ссылкам.
  • Настройка http-заголовков. Страницы, доступные пользователям, должны быть с кодом ответа 200, неверные ссылки – 404, перемещенные навсегда – 301.

Описанные выше работы необходимо проводить в рамках первичной оптимизации сайта независимо от типа ресурса. Они позволят грамотно всё настроить для дальнейшего продвижения. Также желательно просканировать ресурс на другие ошибки технического плана, избавиться от дублирования как мета-тегов, так и контента, правильно выстроить иерархию заголовков группы . Обнаружить недочеты позволит услуга аудита сайта. Ее можно заказать в сторонней веб-студии или сделать самостоятельно (помогут в этом онлайн-сервисы и специальное ПО, у которого, как правило, есть демоверсия).

Ошибки первичной оптимизации сайта

Начинающие вебмастера часто совершают одну и ту же ошибку: они не работают со всем сайтом целиком, идут постранично. Например, выбрано 10-15 страниц для продвижения, для них собираются запросы, на них правятся мета-теги и заголовки, и для них пишутся оригинальные тексты. Однако для крупных проектов с большим количеством категорий и страниц, независимо от бюджета, такой подход только отодвигает срок получения результатов. Для таких ресурсов в первичную оптимизацию сайта включают также настройку шаблонов Title, Description, H1, текстов с использованием переменных.
Второй ошибкой является игнорирование верстки. Криво сделанный «на коленке» сайт сложнее продвигать, нужно исправлять ошибки, которые могут на нем присутствовать. Чаще всего это:

  • Неверное расположение элементов на странице (например, корзина слева, а не справа, как на большинстве ресурсов);
  • Использование тегов группы , , в шаблонах;
  • Отсутствие важных элементовхлебных крошек», заголовков в принципе и т.д.);
  • Отсутствие нужных стилей (например, в коде проставлены теги списков, а пользователю они не видны);
  • Использование большого количества скриптов;
  • Много мусора в коде;
  • Отсутствие микроразметки.

Иными словами, если брать сайт на первичную оптимизацию, то нужно прорабатывать его вдоль и поперек, работать с ним комплексно, а не отрывочно.

Преимущества первичной оптимизации сайта

Несмотря на то, что работы на сайте проводятся единоразово и дальнейшая динамика по ресурсу не отслеживается, у первичной оптимизации сайта есть свои плюсы. А это:

  • Услуга оплачивается только раз;
  • Можно с минимальным риском «прощупать» веб-студию;
  • Клиент получает и аудит, и исправление багов.

Однако не все недочеты можно устранить в рамках услуги, т.к. часть багов может быть связана с особенностями движка. В некоторых ситуациях для исправления ошибок нужно дорабатывать программный код с привлечением программиста и верстальщика. Предпочтительнее за первичной оптимизацией сайта обращаться в компанию, которая специализируется на работе с CMS, на которой размещен проект.

Первичная оптимизация затрагивает только базовые вещи, нельзя на ней завершать работу с ресурсом. Следует продолжать повышать позиции, собирать запросы, писать тексты, поддерживать группы в соцсетях.

09.10.2017 Время прочтения: 16 минут

Интернет-маркетинг – это огромная доля всего маркетинга; а продвижение сайта в поисковиках – огромная доля интернет-маркетинга.

Прямо сейчас зайдите на своем веб-сайте в файл robots.txt (https://www.ваш-сайт.ru/robots.txt) и проверьте, не закрыт ли он от ПС. Если увидите строку
User-Agent: *
Disallow: /
значит, ваш сайт не видит ни один поисковик, и нужно срочно заняться внутренней seo-оптимизацией!

Ещё один файл-помощник для общения с роботами ПС – sitemap.xml. Он важен в первую очередь для сайтов с большим количеством страниц. Потому что, роботы ПС обходят сайт последовательно: зашел на страницу X, нашел на ней сслыку на страницу Y, перешел на Y, нашел ссылку на Z и т.д. При этом есть ограничение по количеству страниц, которое поисковик обходит на одном сайте за сутки (краулинговый бюджет). Поэтому, если на сайте хотя бы 100 страниц, разбитых на несколько категорий, лучше дать поисковику маршрут, по которому стоит обходить сайт. Этот маршрут задается в карте сайта sitemap.xml. Когда карта сайта есть – процесс добавления страниц в индекс проходит быстрее (и их обновление при переобходе тоже проходит быстрее).

В карту сайта добавьте полный список страниц ресурса и так же, как и robots.txt, загрузите в корневую папку, чтобы адрес был таким: https://www.ваш-сайт.ru/sitemap.xml .

Настроить 404

Фото с сайта geocities.jp

Когда пользователь вводит в адресную строку браузера URL (например, ), браузер обращается к серверу, хранящему эту страницу, и в ответ получает некий код состояния. Два самых частых кода состояния – это 200 OK и 404 Not Found: первый означает, что страница с запрошенным адресом действительно существует (и загружает эту страницу); второй – что страницы с запрошенным адресом не существует.

Если в адресную строку ввели адрес, страницы по которому не существуют (например, https://сайт/blok/), сервер должен ответить браузеру 404 Not Found, и в окне браузера должна появиться «заглушка», информирующая пользователя, что ему нужно уточнить адрес.

Вот что происходит, когда на сайте не реализована функция грамотного ответа для несуществующих страниц:

  1. При переходе на несуществующую страницу пользователь попадает в тупик и покидает сайт;
  2. При переходе на несуществующую страницу поисковый робот думает, что она существует (ведь 200OK), и добавляет ее в индекс как дубль.

Поисковики ненавидят дубли (об этом читайте ниже, пункт «Избавиться от дублей контента, мета-тегов»). Поэтому обязательно настройте 404 для пустых страниц!

По умолчанию, популярные CMS уже оснащены функцией грамотного ответа для несуществующих страниц, но это не точно. Так что, лучше проверьте: введите в адресную строку неправильный адрес, проверьте, появляется ли «Страница 404», и проверьте код ответа (например, здесь: www.redirect-checker.org). Если что-то не так – срочно исправляйте.

Настроить 301 и 302 редиректы

Большая боль поисковых роботов – это редиректы (переадресации) в структуре сайта. В структуре – значит в тексте/меню/адресах картинок и проч., то есть, где-то в таком месте, на которое робот наткнется при обходе страниц. Каждый раз, встречая переадресацию в структуре, робот как бы спотыкается (сначала для него подгружается один URL, потом вдруг его перекидывает на второй), и вам засчитывается как бы негативный балл. Далее разберемся, где нужно и как правильно использовать редиректы, чтобы не огорчать поисковых роботов.

Избегайте слишком длинных адресов и большого уровня вложенности, структура должна быть четкой и ясно выраженной, а приоритетные страницы должны находиться не более, чем в 3-х кликах от главной. В противном случае поисковые роботы будут обходить большую часть страниц стороной, что грозит слабым индексированием сайта и потерей трафика.

Если при оптимизации внутренних страниц пришлось заменить адрес (был непонятный site.ru/1/n1234, решили заменить на понятный site.ru/catalog/nazvanie-tovara-artikul-1234), то используйте 301-ый редирект. Тогда у страниц с редиректом, которые уже присутствуют в поисковой выдаче, поисковик проиндексирует новую страницу и заменит в выдаче адрес на новый.

Если адрес страницы меняется на время (например, на сайте ведутся технические работы, и все адреса должны направлять на страницу с заглушкой), то используйте 302-ой редирект. В этом случае поисковик не будет менять адрес страницы в поисковой выдаче на новый, и не будет индексировать новую страницу.

Ситуации, когда необходимо настроить 301-ый редирект:

  • Смена домена;
  • Переезд на другую CMS без сохранения старых адресов;
  • Переезд на защищенный протокол HTTPS;
  • Изменение URL по техническим причинам (например, перенесли все товары из категории /category-1/ в/category-2/);
  • Приведение URL в формат ЧПУ («человекопонятный URL»);

Ситуации, когда необходимо настроить 302-ый редирект:

Важный нюанс: при настройке редиректов проследите, чтобы не возникало целой цепочки редиректов. Это ситуация, когда с исходного URL происходит редирект на URL№2, затем на URL№3 и так может быть до бесконечности. Чтобы проверить, настроен ли со страницы редирект (и какой), и нет ли цепочки редиректов, воспользуйтесь уже упомянутым сервисом www.redirect-checker.org .

Избавиться от дублей контента, мета-тегов

Фото с сайта theinfosphere.org

Дубли – это плохо. Если у страницы на сайте есть дубль – из индекса (а уж тем более, из ТОПа) могут вылететь обе: и дубль, и оригинал. Если мета-теги на разных страницах совпадают, шансы выйти в ТОП снова стремятся к нулю. Поэтому дубли нужно отлавливать и беспощадно уничтожать.

Вот самые частые причины возникновения дублей контента:

Как противостоять «атаке клонов»:

  1. Грамотно настроить «главное зеркало» сайта.
  2. Удалить все лишние технические адреса страниц, возникшие случайно в ходе создания сайта.
  3. Избегать параметрических УРЛов, если уже настроены ЧПУ.
  4. При использовании UTM-меток указывать поисковикам каноничный адрес страницы.

Удалить лишние технические адреса страниц уже сложнее, т.к. сначала их нужно обнаружить. С проверкой внутренней оптимизации сайта на предмет дублей здорово справляется специализированный софт, например, Screaming Frog SEO Spider или его бесплатный аналог Xenu . С помощью софта находим все «левые» адреса и оставляем только один каноничный.

Если у вас на сайте используются параметрические УРЛы, постарайтесь заменить их на ЧПУ (которые лучше индексируются). Если это невозможно (например, так уж реализован фильтр в каталоге товаров), то компромиссное решение – сделать копии страниц, но в формате ЧПУ. Например, https://www.site.ru/catalog/audio_and_digits/tv/AKAI/ - страница индексируется; а https://www.site.ru/catalog/audio_and_digits/tv/AKAI/?available=1&status=55395790&p=... уже нет, и у поисковика не будет подозрения на дубли контента. Вторая страница не индексируется благодаря директиве Disallow: */?available в robots.txt.

Похожая ситуация с UTM-метками. Стандартные UTM-метки, используемые, например, в Яндекс.Директе, сам Яндекс уже и так распознает, и не пытается добавить в индекс; но адреса с UTM-метками, используемыми для других целей, могут быть ошибочно восприняты поисковиком как самостоятельные страницы. Решается проблема тоже директивой Disallow в robots.txt.

Кроме дублей контента частая проблема работ по внутренней оптимизации сайта – дубли мета-тегов. Они появляются при автоматическом заполнении мета-тегов, например, в каталогах товаров интернет-магазина. Отлавливать дубли мета-тегов следует так же, как и дубли контента: через специализированный софт. А когда отловили – остается их только уникализировать. Если дублей много, то работа это непростая, т.к. вручную теги на 1000+ страниц даже при большом желании обновлять слишком долго и дорого; так что, в таких случаях используется заполнение по маске. Например, если у вас магазин телевизоров, и 50 телевизоров Samsung называются одинаково в карточках товаров «Телевизор Samsung» (на 50 разных страницах совпадают title и h1), то надо их переназвать, включив в заголовок различающиеся параметры: тип телевизора, диагональ, цвет, даже артикул.

Seo’оптимизировать изображения

Если дубли, пустая sitemap.xml, неработающая 404 ошибка – это прямо «криминал» в глазах поисковиков; то неоптимизированные изображения – вроде административного правонарушения. Все же, практика показывает, что оптимизация картинок дает общий «плюс к карме», и позиции растут быстрее; и, конечно же, если картинки оптимизированы – с ними можно влезть в Яндекс и Google поиск по картинкам, что в определенных тематиках приносит дополнительный трафик.

5 советов по оптимизации изображений:

  1. Старайтесь публиковать уникальное изображение;
  2. Используйте сервисы сжатия для сокращения веса картинки в килобайтах (чем меньше вес, тем быстрее загрузится картинка);
  3. Обязательно заполняйте атрибуты alt и title, включайте в них слова и фразы, релевантные изображенному;
  4. Называйте файлы картинок в ЧПУ виде (по аналогии с УРЛами - лучше всего транслитом);
  5. Используйте разметку schema.org для картинок, которая поддерживается и Яндексом, и Google.

Наполнить сайт ключевыми словами

После того, как технически сайт готов, пора приступить к насыщению его семантикой, то есть релевантными словами/фразами, по которым вы будете его продвигать.

Чек-лист по семантике:

  • Емкое и релевантное семантическое ядро;
  • Уникальный, интересный, разноплановый контент;
  • Правильно заполненные seo-теги;
  • Грамотная перелинковка.

Найти ключевые слова (семантику)

Семантическое ядро сайта (согласно Википедии) – это упорядоченный набор слов, их морфологических форм и словосочетаний, которые наиболее точно характеризуют вид деятельности, товары или услуги, предлагаемые сайтом. Если упростить, то это набор тех фраз/слов, по которым вы хотите, чтобы ваш сайт находили пользователи поисковых систем.

Данный метод внутренней оптимизации укладывается в четыре этапа:

  1. Сбор ключевых слов вручную с помощью специальных сервисов: Яндекс.Вордстат (Подбор слов) и Google Adwords .
  2. Дополнение семантики ключевыми словами конкурентов (хорошо подойдет сервис SEMrush) и словами из готовых баз (например, База Пастухова).
  3. Удаление нецелевых и малоэффективных слов из образовавшегося списка.
  4. Кластеризация запросов. Продвигать на одной странице следует ту группу запросов, которая нацелена на решение конкретной проблемы пользователя. В результате кластеризации получается карта распределения запросов по сайту.

Создать контент согласно семантике

Фото с сайта kino.ru

Когда готова карта запросов, пора составить техническое задание для копирайтера.

В ТЗ копирайтеру нужно указать:

  • Запрос, который должен войти в заголовок h1;
  • Количество вхождений в текст каждого из запросов, предусмотренных для страницы (вычисляется исходя из логики, здравого смысла и анализа текстов сайтов-конкурентов);
  • Объем знаков текста без пробелов (как правило, объем должен быть больше 1000 знаков для хорошей индексации, исключение составляют страницы карточек товаров; объем текста определяется также исходя из здравого смысла и анализа конкурентов);
  • Источники информации для написания интересного контента.
  • Текст должен быть интересным, полно и ясно отвечающим на вопрос пользователя;
  • Текст должен быть уникальными (уникальность проверяется специальными сервисами);
  • У текста должна быть низкая тошнота (тоже проверяется через сервисы);
  • Если текст длиннее 1000 знаков, его следует разбавлять иллюстрациями и другим мультимедийным контентом;
  • В тексте нужно использовать разметку: деление на параграфы, выделение заголовками, подзаголовками, маркированными и нумерованными списками.

Правильно заполнить seo-теги (title, h1-h6, description, keywords, strong)

Следующий важный для внутренних факторов оптимизации шаг, когда уже выбрана семантика и написаны тексты, – публикация текстов вместе с seo-тегами (часто их называют «мета-теги »). Порой грамотно заполненные seo-теги влияют на скорость поднятия в ТОП-10 страницы сильнее, чем оптимизированные тексты.

Seo-теги – это title, “description”, “keywords”, h1-h3 заголовки. Пользователь видит title, h1-h3, а description, keywords фактически видны только поисковым роботам. Задача при заполнении seo-тегов: вписать в них ключевые слова в максимально точном вхождении, соблюдая все требования ПС, при этом сохранив адекватным вид seo-тегов, видимых пользователю. Все seo-теги должны уникальными и не пустыми.

Базовые требования к seo-тегам:

Ручное заполнение данных мета-тегов для больших интернет-магазинов довольно затруднительно из-за множества страниц. Для этого процесс автоматизируют при помощи шаблонных масок. При помощи них, например, можно массово озаглавить тысячи страниц с товарами сайта и все его разделы.

Настроить перелинковку

Перелинковка (от слова “link” – «ссылка») означает установку обратной связи между страницами сайта: с главной страницы сайта в меню есть ссылка на страницу контактной информации – значит, имеет место быть внутренняя перелинковка между главной страницей и страницей контактной информации. Чем больше ссылок внутри сайта будет вести на одну страницу, тем больший вес получит она в глазах поисковых систем.

6 советов по организации внутренней перелинковки:

  1. Делайте анкоры уникальными и разнообразными.
  2. Используйте ключевые слова в анкорах.
  3. Ставьте не более одной ссылки на 1 000 знаков контента.
  4. Выделяйте цветом гиперссылки (классика: ссылки синего цвета, а текст черного).
  5. При внутренней оптимизации интернет-магазинов и больших порталов делайте массовую перелинковку похожих статьей/товаров и проч.
  6. Избегайте использования циклических ссылок – это ситуация, когда страница ссылается сама на себя.

Сделать сайт удобным

Вы расположили поисковиков к своему сайту, вышли по нужным запросам в ТОП – теперь нужно удовлетворить посетителя, дать ему кроме релевантного ответа на его запрос ещё и возможность комфортно использовать сайт.

Чек-лист по юзабилити:

Повысить юзабилити

Юзабилити сайта (от англ. “usability” – «удобство использования») – это уровень удобства использования интернет-сайта, которое позволяет пользователю легко и быстро найти нужную информацию.

Базовые факторы юзабилити сайта:

  • Контент. Контент всегда превыше всего, когда речь заходит о качестве сайта. Тексты должны быть интересными и полезными; графика в тему и приятной; дизайн современным и привлекательным.
  • Высокая скорость загрузки страниц сайта. Чтобы узнать, что именно нужно сделать, чтобы ее увеличить, воспользуйтесь официальным инструментом от Google – PageSpeed Insights .
  • Адаптивность сайта под все возможные устройства, с которых сайт могут посещать пользователи – ПК, ноутбуки, планшеты, смартфоны. Мобилопригодность проверяйте также через официальный инструмент от Google – Mobile-friendly Test .

В юзабилити, конечно же, укладывается и вообще все, что может способствовать удобству восприятия информации: удобные формы обратной связи, формы заказа; качественный дизайн; удобство навигации, etc. Поэтому делайте сайты для людей.

Усилить коммерческие факторы

Фото с сайта imprenditoreglobale.com

«Коммерческие факторы» в контексте SEO – это все элементы сайта, которые указывают поисковым системам, что: а) сайт что-то продает; б) на сайте вся информация, важная потребителю для покупки, представлена полно, точно и в удобной для восприятия форме.

Список коммерческих факторов:

  1. Несколько способов связи: телефон, e-mail, skype и т.д.;
  2. Несколько телефонов и наличие номера 8-800;
  3. Контакты отдельных сотрудников + их фото;
  4. Схема проезда и прохода в офис;
  5. Схема на Яндекс.Картах/Google Maps;
  6. Живые аккаунты в соцсетях, наполняемые контентом;
Просмотров: 66

Когда за услугой SEO к нам обращается новый сайт, первым делом делаем аудит и определяем стратегию продвижения. А вот 3 направления в начале работ:

  • Первичная оптимизация

Расскажем о начальных работах, или как мы называем первичная оптимизация сайта, которая состоит из 8 пунктов:

1. Для начала устанавливаем на сайт Яндекс Метрику – специальный счетчик для анализа SEO-продвижения и главных показателей сайта.

Среди таких показателей:

  • органический трафик с детальной разбивкой на поисковые системы

  • данные по конкретным поисковым фразам – визиты, посетители, отказы, глубина просмотра и время нахождения пользователя на сайте

2. Настраиваем Google Analytics – сервис для анализа поведения пользователей на сайте.

Добавляем счетчик и настраиваем цели на сайте. С Google Analytics наблюдаем за действиями посетителей, считаем конверсии, проводим A/B-тестирование, анализируем эффективность рекламных кампаний и прочее.

3. Добавляем сайт в Яндекс. Вебмастер – сервис для оценки индексации сайта и редактирования описания сайта в выдаче Яндекса:

Так сайт быстрее проиндексируется в поисковых системах, а пользователи, заинтересованные в торговом предложении – скорее найдут вас и обратятся ☺

4. Добавляем сайт в Google Search Console – важный инструмент для получения информации о сайте, аналогичный Яндекс. Вебмастеру , но сложнее по структуре.

Зато, если разобраться с сервисом – получишь точный анализ сайта на наличие ошибок и поймешь, что делать для повышения видимости ресурса в поисковой выдаче.

5. Добавляем сайт в Яндекс. Справочник, прописываем контактные данные и прочую информацию об организации:

Теперь – сайт появляется в Яндекс. Картах.

6. Регистрируем сайт в Google My Business:

Теперь информация о сайте присутствует на Google maps

7. Проверяем и оптимизируем скорость загрузки сайта. Подробнее почитайте об этом здесь



Рекомендуем почитать

Наверх