Оптимизация первичная услуги. Правильно прописываем метатеги. Установка социальных кнопок

Для Windows 25.04.2019
Для Windows
Просмотров: 66

Когда за услугой SEO к нам обращается новый сайт, первым делом делаем аудит и определяем стратегию продвижения. А вот 3 направления в начале работ:

  • Первичная оптимизация

Расскажем о начальных работах, или как мы называем первичная оптимизация сайта, которая состоит из 8 пунктов:

1. Для начала устанавливаем на сайт Яндекс Метрику – специальный счетчик для анализа SEO-продвижения и главных показателей сайта.

Среди таких показателей:

  • органический трафик с детальной разбивкой на поисковые системы

  • данные по конкретным поисковым фразам – визиты, посетители, отказы, глубина просмотра и время нахождения пользователя на сайте

2. Настраиваем Google Analytics – сервис для анализа поведения пользователей на сайте.

Добавляем счетчик и настраиваем цели на сайте. С Google Analytics наблюдаем за действиями посетителей, считаем конверсии, проводим A/B-тестирование, анализируем эффективность рекламных кампаний и прочее.

3. Добавляем сайт в Яндекс. Вебмастер – сервис для оценки индексации сайта и редактирования описания сайта в выдаче Яндекса:

Так сайт быстрее проиндексируется в поисковых системах, а пользователи, заинтересованные в торговом предложении – скорее найдут вас и обратятся ☺

4. Добавляем сайт в Google Search Console – важный инструмент для получения информации о сайте, аналогичный Яндекс. Вебмастеру , но сложнее по структуре.

Зато, если разобраться с сервисом – получишь точный анализ сайта на наличие ошибок и поймешь, что делать для повышения видимости ресурса в поисковой выдаче.

5. Добавляем сайт в Яндекс. Справочник, прописываем контактные данные и прочую информацию об организации:

Теперь – сайт появляется в Яндекс. Картах.

6. Регистрируем сайт в Google My Business:

Теперь информация о сайте присутствует на Google maps

7. Проверяем и оптимизируем скорость загрузки сайта. Подробнее почитайте об этом здесь

Давайте представим ситуацию, что вы разработали сайт в Краснодаре , опубликовали его. Дальше вы ждете когда на него ринит целевой трафик, но этого не происходит, потому что не была произведена первичная SEO оптимизация или как еще называют внутренняя оптимизация. Неправильные действия по данному направлению могут привести к тому, что ресурс, может никогда не попасть на страницы поисковика.

Что входит в первичную оптимизацию?

1. Сборка семантического ядра. Семантическое ядро - набор ключевых запросов (низкочастотные, среднечастотные и высокочастотные), по которым и оптимизируется сайт.

Как собрать семантическое ядро? Помогут бесплатные сервисы Яндекс.Вордстат и Серпстат. После того, как семантическое ядро создано мы должны разделить его по категориям, и эти категории разделить по страницам сайта. Для того, чтобы на каждой странице находились ключевые запросы, которые соответствуют названию и теме. При необходимости структура сайта дорабатывается и добавляются новые разделы.

2. Установка счетчиков. Яндекс.Метрика и Google Analytics. Нужно для мониторинга статистики посещений, источников трафика, глубины просмотра, процент отказа.

3. SEO оптимизированный контент. Написание уникальных статей под конкретный ресурс и специфику деятельности. SEO оптимизированными тексты считаются в том случае, когда прописаны теги, тайтлы, дескрипшны и альты у картинок. Наполнение должно быть разнообразным: помимо текста добавляются изображение и видео.

4. Человеко-понятные урлы. Это красивые и дружественные страницы адреса сайт как для пользователя, так и для поисковых роботов. А затем переходим к перелинковки всех страниц, это значит что в тексте одной страницы идет ссылка на другой раздел.

5. Создание файлов роботс.тхт и сайтмап.хмл. Robots говорит роботам какие страницы индексируются, а какие скрыты от этого процесса. Sitemap позволяет быстрее ориентироваться по структуре ресурса.

6. Сниппеты и микроразметка. Сниппет - это блок информации или краткие сведения о конкретной странице, которая видна в поисковой выдачи.

После реализации всех пунктов хорошо бы озадачиться тем, чтобы разместить Политику Конфиденциальности, а также купить установить ССЛ-сертификат. Плюс ко всему зарегистрировать сайт во всех доступных каталогах и выложить информацию на карты.

Для того, чтобы сайт наконец начал индексироваться поисковиками ему нужна первичная SEO оптимизация. Если планируете заниматься внешней оптимизацией, то она невозможна без первичной внутренней оптимизации. Если планируете продвигаться через контекст, то для того, чтобы рекламные кампании были максимально эффективными нужна корректная работа ресурса.

Любой интернет-проект нуждается в оптимизации, и некоторые моменты необходимо поправить сразу же, потому что от них зависит 90% успеха. Да, писать тексты небыстро, размещать их долго, на заполнение сайта большого объема потребуется порядком времени. Однако не стоит откладывать работу со страницей до подготовки уникального контента, гораздо важнее как можно раньше выполнить хотя бы минимальные настройки.

Что включает в себя первичная оптимизация сайта

  • Добавление проекта в сервисы для вебмастеров от Яндекса и Google. Выполнение настроек (нужно указать регион, добавить карту сайта, проверить корректность отображения robots, наличие ошибок и прочее). Подключение площадки к счетчикам статистики для получения информации о посетителях.
  • Сбор семантического ядра хотя бы для основных страниц. На основе полученной информации необходимо прописать мета-теги и заголовки. На страницах, для которых не собирались запросы, необходимо задать настройки интуитивно, лишь бы они отражали содержимое. Например, заголовок H1 категории «Для детей» интернет-магазина одежды можно прописать так «Детская одежда».
  • Добавление правил оптимизации в файл robots.txt . Нужно указать поисковые системы (опционально), добавить разделы, которые нужно исключить из индексации, ссылку на карту сайта и главное зеркало.
  • Разработка навигационного меню и структуры сайта. Если есть возможность сократить количество уровней вложенности, следует это сделать. Пользователи и роботы должны без труда переходить по ссылкам.
  • Настройка http-заголовков. Страницы, доступные пользователям, должны быть с кодом ответа 200, неверные ссылки – 404, перемещенные навсегда – 301.

Описанные выше работы необходимо проводить в рамках первичной оптимизации сайта независимо от типа ресурса. Они позволят грамотно всё настроить для дальнейшего продвижения. Также желательно просканировать ресурс на другие ошибки технического плана, избавиться от дублирования как мета-тегов, так и контента, правильно выстроить иерархию заголовков группы . Обнаружить недочеты позволит услуга аудита сайта. Ее можно заказать в сторонней веб-студии или сделать самостоятельно (помогут в этом онлайн-сервисы и специальное ПО, у которого, как правило, есть демоверсия).

Ошибки первичной оптимизации сайта

Начинающие вебмастера часто совершают одну и ту же ошибку: они не работают со всем сайтом целиком, идут постранично. Например, выбрано 10-15 страниц для продвижения, для них собираются запросы, на них правятся мета-теги и заголовки, и для них пишутся оригинальные тексты. Однако для крупных проектов с большим количеством категорий и страниц, независимо от бюджета, такой подход только отодвигает срок получения результатов. Для таких ресурсов в первичную оптимизацию сайта включают также настройку шаблонов Title, Description, H1, текстов с использованием переменных.
Второй ошибкой является игнорирование верстки. Криво сделанный «на коленке» сайт сложнее продвигать, нужно исправлять ошибки, которые могут на нем присутствовать. Чаще всего это:

  • Неверное расположение элементов на странице (например, корзина слева, а не справа, как на большинстве ресурсов);
  • Использование тегов группы , , в шаблонах;
  • Отсутствие важных элементов («хлебных крошек», заголовков в принципе и т.д.);
  • Отсутствие нужных стилей (например, в коде проставлены теги списков, а пользователю они не видны);
  • Использование большого количества скриптов;
  • Много мусора в коде;
  • Отсутствие микроразметки.

Иными словами, если брать сайт на первичную оптимизацию, то нужно прорабатывать его вдоль и поперек, работать с ним комплексно, а не отрывочно.

Преимущества первичной оптимизации сайта

Несмотря на то, что работы на сайте проводятся единоразово и дальнейшая динамика по ресурсу не отслеживается, у первичной оптимизации сайта есть свои плюсы. А это:

  • Услуга оплачивается только раз;
  • Можно с минимальным риском «прощупать» веб-студию;
  • Клиент получает и аудит, и исправление багов.

Однако не все недочеты можно устранить в рамках услуги, т.к. часть багов может быть связана с особенностями движка. В некоторых ситуациях для исправления ошибок нужно дорабатывать программный код с привлечением программиста и верстальщика. Предпочтительнее за первичной оптимизацией сайта обращаться в компанию, которая специализируется на работе с CMS, на которой размещен проект.

Первичная оптимизация затрагивает только базовые вещи, нельзя на ней завершать работу с ресурсом. Следует продолжать повышать позиции, собирать запросы, писать тексты, поддерживать группы в соцсетях.

09.10.2017 Время прочтения: 16 минут

Интернет-маркетинг – это огромная доля всего маркетинга; а продвижение сайта в поисковиках – огромная доля интернет-маркетинга.

Прямо сейчас зайдите на своем веб-сайте в файл robots.txt (https://www.ваш-сайт.ru/robots.txt) и проверьте, не закрыт ли он от ПС. Если увидите строку
User-Agent: *
Disallow: /
значит, ваш сайт не видит ни один поисковик, и нужно срочно заняться внутренней seo-оптимизацией!

Ещё один файл-помощник для общения с роботами ПС – sitemap.xml. Он важен в первую очередь для сайтов с большим количеством страниц. Потому что, роботы ПС обходят сайт последовательно: зашел на страницу X, нашел на ней сслыку на страницу Y, перешел на Y, нашел ссылку на Z и т.д. При этом есть ограничение по количеству страниц, которое поисковик обходит на одном сайте за сутки (краулинговый бюджет). Поэтому, если на сайте хотя бы 100 страниц, разбитых на несколько категорий, лучше дать поисковику маршрут, по которому стоит обходить сайт. Этот маршрут задается в карте сайта sitemap.xml. Когда карта сайта есть – процесс добавления страниц в индекс проходит быстрее (и их обновление при переобходе тоже проходит быстрее).

В карту сайта добавьте полный список страниц ресурса и так же, как и robots.txt, загрузите в корневую папку, чтобы адрес был таким: https://www.ваш-сайт.ru/sitemap.xml .

Настроить 404

Фото с сайта geocities.jp

Когда пользователь вводит в адресную строку браузера URL (например, ), браузер обращается к серверу, хранящему эту страницу, и в ответ получает некий код состояния. Два самых частых кода состояния – это 200 OK и 404 Not Found: первый означает, что страница с запрошенным адресом действительно существует (и загружает эту страницу); второй – что страницы с запрошенным адресом не существует.

Если в адресную строку ввели адрес, страницы по которому не существуют (например, https://сайт/blok/), сервер должен ответить браузеру 404 Not Found, и в окне браузера должна появиться «заглушка», информирующая пользователя, что ему нужно уточнить адрес.

Вот что происходит, когда на сайте не реализована функция грамотного ответа для несуществующих страниц:

  1. При переходе на несуществующую страницу пользователь попадает в тупик и покидает сайт;
  2. При переходе на несуществующую страницу поисковый робот думает, что она существует (ведь 200OK), и добавляет ее в индекс как дубль.

Поисковики ненавидят дубли (об этом читайте ниже, пункт «Избавиться от дублей контента, мета-тегов»). Поэтому обязательно настройте 404 для пустых страниц!

По умолчанию, популярные CMS уже оснащены функцией грамотного ответа для несуществующих страниц, но это не точно. Так что, лучше проверьте: введите в адресную строку неправильный адрес, проверьте, появляется ли «Страница 404», и проверьте код ответа (например, здесь: www.redirect-checker.org). Если что-то не так – срочно исправляйте.

Настроить 301 и 302 редиректы

Большая боль поисковых роботов – это редиректы (переадресации) в структуре сайта. В структуре – значит в тексте/меню/адресах картинок и проч., то есть, где-то в таком месте, на которое робот наткнется при обходе страниц. Каждый раз, встречая переадресацию в структуре, робот как бы спотыкается (сначала для него подгружается один URL, потом вдруг его перекидывает на второй), и вам засчитывается как бы негативный балл. Далее разберемся, где нужно и как правильно использовать редиректы, чтобы не огорчать поисковых роботов.

Избегайте слишком длинных адресов и большого уровня вложенности, структура должна быть четкой и ясно выраженной, а приоритетные страницы должны находиться не более, чем в 3-х кликах от главной. В противном случае поисковые роботы будут обходить большую часть страниц стороной, что грозит слабым индексированием сайта и потерей трафика.

Если при оптимизации внутренних страниц пришлось заменить адрес (был непонятный site.ru/1/n1234, решили заменить на понятный site.ru/catalog/nazvanie-tovara-artikul-1234), то используйте 301-ый редирект. Тогда у страниц с редиректом, которые уже присутствуют в поисковой выдаче, поисковик проиндексирует новую страницу и заменит в выдаче адрес на новый.

Если адрес страницы меняется на время (например, на сайте ведутся технические работы, и все адреса должны направлять на страницу с заглушкой), то используйте 302-ой редирект. В этом случае поисковик не будет менять адрес страницы в поисковой выдаче на новый, и не будет индексировать новую страницу.

Ситуации, когда необходимо настроить 301-ый редирект:

  • Смена домена;
  • Переезд на другую CMS без сохранения старых адресов;
  • Переезд на защищенный протокол HTTPS;
  • Изменение URL по техническим причинам (например, перенесли все товары из категории /category-1/ в/category-2/);
  • Приведение URL в формат ЧПУ («человекопонятный URL»);

Ситуации, когда необходимо настроить 302-ый редирект:

Важный нюанс: при настройке редиректов проследите, чтобы не возникало целой цепочки редиректов. Это ситуация, когда с исходного URL происходит редирект на URL№2, затем на URL№3 и так может быть до бесконечности. Чтобы проверить, настроен ли со страницы редирект (и какой), и нет ли цепочки редиректов, воспользуйтесь уже упомянутым сервисом www.redirect-checker.org .

Избавиться от дублей контента, мета-тегов

Фото с сайта theinfosphere.org

Дубли – это плохо. Если у страницы на сайте есть дубль – из индекса (а уж тем более, из ТОПа) могут вылететь обе: и дубль, и оригинал. Если мета-теги на разных страницах совпадают, шансы выйти в ТОП снова стремятся к нулю. Поэтому дубли нужно отлавливать и беспощадно уничтожать.

Вот самые частые причины возникновения дублей контента:

Как противостоять «атаке клонов»:

  1. Грамотно настроить «главное зеркало» сайта.
  2. Удалить все лишние технические адреса страниц, возникшие случайно в ходе создания сайта.
  3. Избегать параметрических УРЛов, если уже настроены ЧПУ.
  4. При использовании UTM-меток указывать поисковикам каноничный адрес страницы.

Удалить лишние технические адреса страниц уже сложнее, т.к. сначала их нужно обнаружить. С проверкой внутренней оптимизации сайта на предмет дублей здорово справляется специализированный софт, например, Screaming Frog SEO Spider или его бесплатный аналог Xenu . С помощью софта находим все «левые» адреса и оставляем только один каноничный.

Если у вас на сайте используются параметрические УРЛы, постарайтесь заменить их на ЧПУ (которые лучше индексируются). Если это невозможно (например, так уж реализован фильтр в каталоге товаров), то компромиссное решение – сделать копии страниц, но в формате ЧПУ. Например, https://www.site.ru/catalog/audio_and_digits/tv/AKAI/ - страница индексируется; а https://www.site.ru/catalog/audio_and_digits/tv/AKAI/?available=1&status=55395790&p=... уже нет, и у поисковика не будет подозрения на дубли контента. Вторая страница не индексируется благодаря директиве Disallow: */?available в robots.txt.

Похожая ситуация с UTM-метками. Стандартные UTM-метки, используемые, например, в Яндекс.Директе, сам Яндекс уже и так распознает, и не пытается добавить в индекс; но адреса с UTM-метками, используемыми для других целей, могут быть ошибочно восприняты поисковиком как самостоятельные страницы. Решается проблема тоже директивой Disallow в robots.txt.

Кроме дублей контента частая проблема работ по внутренней оптимизации сайта – дубли мета-тегов. Они появляются при автоматическом заполнении мета-тегов, например, в каталогах товаров интернет-магазина. Отлавливать дубли мета-тегов следует так же, как и дубли контента: через специализированный софт. А когда отловили – остается их только уникализировать. Если дублей много, то работа это непростая, т.к. вручную теги на 1000+ страниц даже при большом желании обновлять слишком долго и дорого; так что, в таких случаях используется заполнение по маске. Например, если у вас магазин телевизоров, и 50 телевизоров Samsung называются одинаково в карточках товаров «Телевизор Samsung» (на 50 разных страницах совпадают title и h1), то надо их переназвать, включив в заголовок различающиеся параметры: тип телевизора, диагональ, цвет, даже артикул.

Seo’оптимизировать изображения

Если дубли, пустая sitemap.xml, неработающая 404 ошибка – это прямо «криминал» в глазах поисковиков; то неоптимизированные изображения – вроде административного правонарушения. Все же, практика показывает, что оптимизация картинок дает общий «плюс к карме», и позиции растут быстрее; и, конечно же, если картинки оптимизированы – с ними можно влезть в Яндекс и Google поиск по картинкам, что в определенных тематиках приносит дополнительный трафик.

5 советов по оптимизации изображений:

  1. Старайтесь публиковать уникальное изображение;
  2. Используйте сервисы сжатия для сокращения веса картинки в килобайтах (чем меньше вес, тем быстрее загрузится картинка);
  3. Обязательно заполняйте атрибуты alt и title, включайте в них слова и фразы, релевантные изображенному;
  4. Называйте файлы картинок в ЧПУ виде (по аналогии с УРЛами - лучше всего транслитом);
  5. Используйте разметку schema.org для картинок, которая поддерживается и Яндексом, и Google.

Наполнить сайт ключевыми словами

После того, как технически сайт готов, пора приступить к насыщению его семантикой, то есть релевантными словами/фразами, по которым вы будете его продвигать.

Чек-лист по семантике:

  • Емкое и релевантное семантическое ядро;
  • Уникальный, интересный, разноплановый контент;
  • Правильно заполненные seo-теги;
  • Грамотная перелинковка.

Найти ключевые слова (семантику)

Семантическое ядро сайта (согласно Википедии) – это упорядоченный набор слов, их морфологических форм и словосочетаний, которые наиболее точно характеризуют вид деятельности, товары или услуги, предлагаемые сайтом. Если упростить, то это набор тех фраз/слов, по которым вы хотите, чтобы ваш сайт находили пользователи поисковых систем.

Данный метод внутренней оптимизации укладывается в четыре этапа:

  1. Сбор ключевых слов вручную с помощью специальных сервисов: Яндекс.Вордстат (Подбор слов) и Google Adwords .
  2. Дополнение семантики ключевыми словами конкурентов (хорошо подойдет сервис SEMrush) и словами из готовых баз (например, База Пастухова).
  3. Удаление нецелевых и малоэффективных слов из образовавшегося списка.
  4. Кластеризация запросов. Продвигать на одной странице следует ту группу запросов, которая нацелена на решение конкретной проблемы пользователя. В результате кластеризации получается карта распределения запросов по сайту.

Создать контент согласно семантике

Фото с сайта kino.ru

Когда готова карта запросов, пора составить техническое задание для копирайтера.

В ТЗ копирайтеру нужно указать:

  • Запрос, который должен войти в заголовок h1;
  • Количество вхождений в текст каждого из запросов, предусмотренных для страницы (вычисляется исходя из логики, здравого смысла и анализа текстов сайтов-конкурентов);
  • Объем знаков текста без пробелов (как правило, объем должен быть больше 1000 знаков для хорошей индексации, исключение составляют страницы карточек товаров; объем текста определяется также исходя из здравого смысла и анализа конкурентов);
  • Источники информации для написания интересного контента.
  • Текст должен быть интересным, полно и ясно отвечающим на вопрос пользователя;
  • Текст должен быть уникальными (уникальность проверяется специальными сервисами);
  • У текста должна быть низкая тошнота (тоже проверяется через сервисы);
  • Если текст длиннее 1000 знаков, его следует разбавлять иллюстрациями и другим мультимедийным контентом;
  • В тексте нужно использовать разметку: деление на параграфы, выделение заголовками, подзаголовками, маркированными и нумерованными списками.

Правильно заполнить seo-теги (title, h1-h6, description, keywords, strong)

Следующий важный для внутренних факторов оптимизации шаг, когда уже выбрана семантика и написаны тексты, – публикация текстов вместе с seo-тегами (часто их называют «мета-теги »). Порой грамотно заполненные seo-теги влияют на скорость поднятия в ТОП-10 страницы сильнее, чем оптимизированные тексты.

Seo-теги – это title, “description”, “keywords”, h1-h3 заголовки. Пользователь видит title, h1-h3, а description, keywords фактически видны только поисковым роботам. Задача при заполнении seo-тегов: вписать в них ключевые слова в максимально точном вхождении, соблюдая все требования ПС, при этом сохранив адекватным вид seo-тегов, видимых пользователю. Все seo-теги должны уникальными и не пустыми.

Базовые требования к seo-тегам:

Ручное заполнение данных мета-тегов для больших интернет-магазинов довольно затруднительно из-за множества страниц. Для этого процесс автоматизируют при помощи шаблонных масок. При помощи них, например, можно массово озаглавить тысячи страниц с товарами сайта и все его разделы.

Настроить перелинковку

Перелинковка (от слова “link” – «ссылка») означает установку обратной связи между страницами сайта: с главной страницы сайта в меню есть ссылка на страницу контактной информации – значит, имеет место быть внутренняя перелинковка между главной страницей и страницей контактной информации. Чем больше ссылок внутри сайта будет вести на одну страницу, тем больший вес получит она в глазах поисковых систем.

6 советов по организации внутренней перелинковки:

  1. Делайте анкоры уникальными и разнообразными.
  2. Используйте ключевые слова в анкорах.
  3. Ставьте не более одной ссылки на 1 000 знаков контента.
  4. Выделяйте цветом гиперссылки (классика: ссылки синего цвета, а текст черного).
  5. При внутренней оптимизации интернет-магазинов и больших порталов делайте массовую перелинковку похожих статьей/товаров и проч.
  6. Избегайте использования циклических ссылок – это ситуация, когда страница ссылается сама на себя.

Сделать сайт удобным

Вы расположили поисковиков к своему сайту, вышли по нужным запросам в ТОП – теперь нужно удовлетворить посетителя, дать ему кроме релевантного ответа на его запрос ещё и возможность комфортно использовать сайт.

Чек-лист по юзабилити:

Повысить юзабилити

Юзабилити сайта (от англ. “usability” – «удобство использования») – это уровень удобства использования интернет-сайта, которое позволяет пользователю легко и быстро найти нужную информацию.

Базовые факторы юзабилити сайта:

  • Контент. Контент всегда превыше всего, когда речь заходит о качестве сайта. Тексты должны быть интересными и полезными; графика в тему и приятной; дизайн современным и привлекательным.
  • Высокая скорость загрузки страниц сайта. Чтобы узнать, что именно нужно сделать, чтобы ее увеличить, воспользуйтесь официальным инструментом от Google – PageSpeed Insights .
  • Адаптивность сайта под все возможные устройства, с которых сайт могут посещать пользователи – ПК, ноутбуки, планшеты, смартфоны. Мобилопригодность проверяйте также через официальный инструмент от Google – Mobile-friendly Test .

В юзабилити, конечно же, укладывается и вообще все, что может способствовать удобству восприятия информации: удобные формы обратной связи, формы заказа; качественный дизайн; удобство навигации, etc. Поэтому делайте сайты для людей.

Усилить коммерческие факторы

Фото с сайта imprenditoreglobale.com

«Коммерческие факторы» в контексте SEO – это все элементы сайта, которые указывают поисковым системам, что: а) сайт что-то продает; б) на сайте вся информация, важная потребителю для покупки, представлена полно, точно и в удобной для восприятия форме.

Список коммерческих факторов:

  1. Несколько способов связи: телефон, e-mail, skype и т.д.;
  2. Несколько телефонов и наличие номера 8-800;
  3. Контакты отдельных сотрудников + их фото;
  4. Схема проезда и прохода в офис;
  5. Схема на Яндекс.Картах/Google Maps;
  6. Живые аккаунты в соцсетях, наполняемые контентом;

Всем привет дорогие читатели! Тема этой статьи возникла из комментария постоянного читателя моего блога по поводу оптимизации сайта на практическом примере и сегодня я хочу разобрать как же своими руками самостоятельно провести внутреннюю seo (сео) оптимизацию сайта, не платя при этом специалистам, т. е сделать это совершенно бесплатно и эффективно.

Пост будет нести чисто практический уклон. Никакой воды, строго по списку. Приступим.

Самостоятельная первичная оптимизация сайта

Многие оптимизаторы порой допускают ошибку, продвигая исключительно целевые страницы сайта, совершенно забывая про непродвигаемые страницы. А ведь раскрутка это комплексный процесс, подобный механическим часам. Стоит упустить малейшую деталь и вся работа пойдет просто «коту под хвост». Чтобы этого не допустить предлагаю рассмотреть основные моменты внутренних работ по оптимизации и приведению сайта в удобный для продвижения вид. Да, кстати, можно . Хотите узнать? Тогда переходите по ссылке.

Прописываем title, description, keywords

Это основа основ. Любой оптимизатор это знает. Вот вам практический пример:

Эта статья пишется под следующие ключевые запросы я их специально выделил красным на скриншоте, писать сюда не хочу, ибо получится переспам ключей и поисковику это не понравится.

и вот еще один скрин

Всегда при составлении тайтлов делайте их большими, человекопонятными с вхождением всех ключевых фраз и чтобы это было смыслово, а не тупой набор слов из вордстата.

Важный нюанс:

Тайтл НЕ ДОЛЖЕН повторять название вашей статьи. В моем случае статья называется — 11 важных правил первичной оптимизации сайтов, а title — SEO (сео) внутренняя оптимизация сайта своими руками самостоятельно и бесплатно!

Количество символов в тайтле не должно быть длинным и не должно быть сильно коротким. Идеально — 4-5 слов, но не более 60-70 символов. Хотя это правило не исключение.

Твердо уясните это правило!

Теперь поговорим про description. Это как визитная карточка того, о чем мы хотим рассказать на странице сайта. Игнорирование этого пункта ставит под угрозу все ваши трудозатраты над проектом, в результате чего вы не получите нужных позиций в выдаче Яндекса и Гугла. Не особо хочется быть аутсайдером, не так ли?

С полем «описание сайта» (дескрипшен) немного попроще. Здесь вы можете либо придумать свой вариант, отличающийся от текста на самой странице статьи, либо взять прямо из текста. Я обычно беру из текста, хотя над коммерческими клиентскими проектами придумываю из головы. Вот как выглядит дескрипшен этой статьи

Важный нюанс:

При создании поля описание страницы старайтесь «вписываться» в требуемое количество знаков — 160 символов. Бывает так, что Яша и Гоша сами формируют нужный дескрипшен, выцепляя нужные участки с ключами.

По поводу keywords особо разглагольствовать не буду, ибо этот пункт давно уже утратил свою силу, когда для того, чтобы подняться на первое место в поиске достаточно было прописать длинную «портянку» нужных ключевых фраз и вы уже в ТОПе. Сейчас это уже не работает. Лучше думайте над удобством для читателя.

В связи с «якобы» отменой ссылочного Яндекс уверяет, что есть другие 750 факторов по которым сайты будут прекрасно чувствовать себя на верхних строчках, и причем выдача не пострадает. Сейчас рулят «поведенческие факторы», а именно удобство для читателя, понятное меню, доступность страниц в два клика и много других факторов. Об этом я думаю будет одна из статей.

Заголовки h1-h6

Про них тоже нельзя забывать они делают логичной структуру самого текста. Самый важный, который должен встречаться только один раз в тексте — это h1. Другие заголовки можно сколько угодно раз использовать на странице. Вот вам наглядный пример с моей страницы:

Создание карты сайта

Ее наличие помогает поисковым роботам быстрее проиндексировать содержимое вашего сайта. Можно использовать несколько вариантов карты либо XML формата, или же с помощью специальных плагинов (я говорю про Вордпресс). Можно поставить на несколько внешних ссылок, чтобы был вес, который будет в дальнейшем передан другим страницам. А это уже поможет продвинуться по низкочастотным запросам. На моем блоге карта сайта расположена прямо в главном меню, а также в шаблоне 404 ошибки.

Отсутствующие документы и битые ссылки

Для предотвращения ошибок со стороны популярных поисковых систем, ваш сайт следует проверить на наличие битых и нерабочих ссылок и документов. Если вы этого не сделаете, то к вашему сайту в последующем будут предъявлены санкции и могут наложить фильтры.

Подобный фильтр, который так и называется «Фильтр битых ссылок» есть у Гугла. Не поленитесь и произведите чистку. Вот рекомендую плагин, который очищает «авгиевы конюшни» из нерабочих урлов на блоге и называется он Broken Link Checker.Удобство еще и в том, что на почту к вам будут приходить уведомления об ошибках и будут указаны пути где это исправить. Мне он всегда помогает держать руку на пульсе. Рекомендую!

Валидный код HTML, CSS, RSS

Необходимо также проверить структуру вашего кода через специальные программы — валидаторы. Они существуют отдельно для Html кода, так и для . Сервис валидации находится вот по этой ссылке http://validator.w3.org/

Просто вводите урл сайта и нажимаете проверить («Check»). Если у вас версии DOCTYPE Strict, где используется строгое соответствие стандартам языка гипертекстовой разметки, тогда проверьте закрыли ли вы все теги слешами < br / > Иначе будет выдаваться ошибка

Использование Flash анимации и Javascript кода на сайте

Для того, чтобы ваш сайт индексировался и загружался быстрее нужно постараться сократить flash графику и джаваскрипты до минимума, поскольку они создают нагрузку при загрузке страниц сайта. Я не говорю, что их вообще лучше не использовать, нет. Просто выносите их в отдельный файл, как и каскадные таблицы CSS. Файл так и назовите JS и в него все складывайте. Скрипты лучше и правильнее выносить в подвал сайта (футер), а не в шапку сайта (header)

Абсолютные и относительные ссылки

Смысл в том, чтобы максимально сосредоточить вес страниц вашего сайта, чтобы исходящие (например с главной) вели на внутренние страницы (внутренняя перелинковка). Таким образом вес будет накапливаться и можно выдвинуть сайт без покупных ссылок по НЧ запросам. Другое дело если вы делаете dofollow блог, и с ваших страниц будет много разных внешних ссылок. Тут вес будет немного теряться. Для себя вы должны решить — или посещаемость, или ценность собственных ссылок. Выбор за вами. Мои комментарии скрыты от индексирования, поскольку может прилетать очень много спама и тупых комментариев. Я работаю на качество.

На некоторых сайтах в футере наблюдаю просто «потрясающую» картину. Здесь уже будет сарказм, простите…Вот нафига некоторые вебмастера «суют» по 7-10 счетчиков всякой разной статистики и рейтингов? От этого никакого эффекта никогда не будет, и мало того, такой сайт выглядит непрофессионально. Запомните: один, максимум два счетчика статистики и обязательно на сайте! Без нее никуда, таким образом вы увидите реальную посещаемость, процент отказов и поведение ваших посетителей, то над чем предстоит поработать. Это ОЧЕНЬ важный этап! Счетчики обязательно должны быть закрыты от индексации, вот пример как это следует делать:

Навигационная цепочка

Она используется, во-первых, для удобства читателей, чтобы знать на какой странице и на каком уровне вложенности от главной он сейчас находится. Также навигационная линейка урлов помогает в индексации сайтов. Их еще называют хлебные крошки. К сожалению они у меня на сайте не стоят, так как весь материал доступен в один клик от главной страницы. К тому моменту как вы будете читать эту статью «крошки» будут стоять на сайте. Вот, как они выглядят:

Всегда самый хороший способ внутренней перелинковки и самостоятельной оптимизации сайта выводить похожие материалы. Лучше делать это как на главной странице, так и на внутренних. Это удержит внимание читателя, ведь он реально увидит смежные статьи по теме и, вполне вероятно, продолжит проводить время на вашем сайте, улучшая поведенческие факторы.

Правильный файл robots.txt

Этот файл своеобразная инструкция для поисковых ботов, которая говорит какие страницы индексировать, а какие разделы сайта полностью закрыть. Как правило закрывают от индексации служебные и неинформативные страницы и каталоги, которые дублируют содержание сайта. Например от индексации можно закрыть «Архивы», папку с плагинами (если мы говорим про wordpress).

Вот и все, что я хотел рассказать вам про самостоятельную внутреннюю оптимизацию сайта своим руками да еще и бесплатно! Учитесь на блоге, всего хорошего



Рекомендуем почитать

Наверх