Вредоносное ПО (malware) - это назойливые или опасные программы,...
![Лучшие утилиты для удаления вирусов и вредоносных программ](https://i2.wp.com/webhelper.info/images/danger.jpg)
В августе 2011 года введённый в действие для всех сегментов Всемирной паутины. Для англоязычных интернет-пользователей алгоритм был запущен немного ранее – в апреле того же года. Разработчиками нового алгоритма стали сотрудники поискового гиганта Амит Сингал и Мэтт Катс. Новый алгоритм радикально отличается от прежних разработок своей ориентированностью на человеческий фактор. Однако алгоритм учитывает при ранжировании и обычные критерии.
Неповторимость текстового наполнения учитывается Пандой в виде процентного соотношения копипаста как для конкретной страницы, так и для сайта в целом. Другими словами, теперь наличие заимствований ухудшает не только позиции конкретной страницы, но и всего «пиратского» ресурса. Плюс к тому, Панда легко отслеживает такой показатель, как шаблонность. Проще говоря, алгоритм устанавливает похожие по содержанию страницы, контент которых создаётся даже под разные ключевые запросы .
Реклама детского питания, размещённая на странице интернет-магазина, который продаёт тяжёлые грузовики, почти гарантированно вызовет «неудовольствие» поисковика . Такое внимание Google к качеству размещения рекламы призвано остудить пыл к зарабатыванию денег неразборчивыми оптимизаторами и веб-мастерами . Цель – поднятие сайтов, по-настоящему соответствующих заявленной тематике
Здесь речь идёт как о размещённых, так и об обратных ссылках . Требование одно – нахождение сайтов в едином информационном пространстве. То есть, сайты, обменивающиеся ссылочной массой, должны быть максимально схожи по тематике. Количество обратных ссылок , конечно, учитывается Пандой, но является далеко не определяющим при ранжировании.
В данном случае было бы правильнее оперировать SEO-терминологией, в которой человеческий фактор называется поведенческим . Поисковый алгоритм Панда как никакой другой до него придирчиво учитывает поведение пользователя на сайте. Очевидно, что для этого разработчикам необходимо было колоссальное усложнение алгоритма, поэтому, к слову сказать, алгоритм так долго запускался для всего интернета – создатели до бесконечности шлифовали поисковые инструменты.
Однако результаты, прямо скажем, впечатляют. На топовые позиции в Google на сегодня способны выйти по-настоящему полезные сайты. Благодаря использованию нового алгоритма поисковая система Google реально стала мощнейшим поисковиком на планете, что подтверждается не только ростом количества пользователей этого сервиса, но и уровнем капитализации Google, который перевалил за 200 миллиардов долларов. Пользователя ещё можно обмануть различными модными фишками и агрессивной рекламой, но инвестора дешёвыми трюками не взять. Он чувствует, что Google – дело прибыльное. И это не в последнюю очередь благодаря Панде.
Итак, поведенческие факторы. К ним относится, в принципе ограниченный набор критериев:
Причём, Панда обращает внимание, так сказать, на деталировку каждого показателя. Проще говоря, учитывается, например, не только время, в течение которого пользователь оставался на сайте, но и то, какие действия он там производил, к примеру, совершал ли переходы по ссылкам, так или иначе относящимся к предмету, который содержался в ключевом запросе. Словом, алгоритм даёт возможность определить не только факт привлекательности и полезности данного ресурса для пользователя, но и степень этой привлекательности, средства, которые делают данный сайт таковым.
Оптимизатор, продвигающий сайты в Google, может сегодня даже при сравнительно небольшой ссылочной массе получить достаточно высокие позиции в выдаче . Для этого необходима грамотная перелинковка внутренних страниц сайта и в целом повышение удобства ресурса для каждого пользователя – и для гуру, и для того, кто лишь вчера услышал слово «интернет». На этом стоит новый поисковый алгоритм Google – Panda.
Здравствуйте, уважаемые читатели блога сайт! В продолжение темы настала очередь оценить действие Панды как одного из фильтров Google в отношении вебсайтов, пытающихся манипулировать результатами поисковой выдачи.
В прошлой статье были рассмотрены нюансы работы другого представителя гугловской фауны - , базовой задачей которого является понижение вебресурсов за ссылочный спам. Panda же пессимизирует вэбсайты в основном за внутреннюю переоптимизацию и низкое качество контента.
В общем и целом цели поисковых систем схожи: обеспечить максимальную степень релевантности страниц вебресурсов. Это необходимо для того, чтобы в результате ранжирования (в - о факторах, влияющих на содержание выдачи Яндекса и Гугла) вебресурсов в ТОПе оказывались бы те ресурсы, которые наиболее отвечали бы конкретным ПЗ ( - о видах поисковых запросов) пользователей.
Поэтому общие принципы механизмов, регулирующих качество находящихся в выдаче документов, у Гугла и Yandex тождественны. Алгоритм Panda, к примеру, наказывает практически за то же самое, что и , это касается и других фильтров обоих ПС, разница лишь в деталях.
Надо сказать, что за последнее время выдача и Google, и Yandex существенно очистилась. Особенно радует то, что резко сократилось число ГС, место которых заняли настоящие СДЛ (сайты для людей), хотя до идеала еще ой как далеко.
Однако, есть и другая сторона медали. Очень хорошо, что некачественные вебресурсы теряют надежду попасть в ТОП, что справедливо. Но во многих случаях вполне приличные ресурсы все равно оказываются не у дел. Это связано с тем, что поисковики постоянно экспериментируют, меняя содержание алгоритмов ради глобальной цели получения релевантной выдачи.
Сие благое намерение вполне понятно, впрочем оно сообразуется со стремлением Яндекса и Гугла добиться конечной цели в виде повышения своих доходов, которые достигают на данный момент десятков миллиардов долларов в год. Было бы весьма странно, если такие гигантские интернет корпорации не использовали бы такую возможность.
Расчет здесь весьма прост: чем больше пользователей будет находить конкретную информацию по искомому запросу, тем больший их процент будет доверять данному поиску. А в этом случае увеличится число кликов, совершаемых по объявлениям контекстной рекламы (в о монетизации сайта посредством контекста общая информация), доходы от которой составляют львиную долю ПС.
В общем, меркантильные интересы поисковиков налицо, что, впрочем, вполне логично. Кстати, частыми обновлениями алгоритмов они преследуют в том числе еще одну цель: создать условия для перехода части владельцев вебресурсов из SEO в другую область получения трафика для продвижения своего бренда, услуг либо товара, а именно с помощью использования контекста Директ или AdWords. То бишь, они стремятся увеличить армию рекламодателей, которые будут приносить дополнительный доход.
Но простые вебмастера, имеющие информационные проекты, не всегда имеют возможность таким образом заработать на сайте (в об этом подробнее) в соответствии с затраченными ресурсами (время, расходы на содержание вебпроекта и т.д.). Поэтому очень важно в данной ситуации вовремя предугадывать, в какую сторону поворачивает СЕО. Хотя в глобальном смысле алгоритмы не могут изменяться на 180 градусов, все-таки пожелания пользователей остаются теми же, однако нюансы могут быть. Дьявол, как известно, кроется в деталях.
Я позволил себе это информационное отступление, чтобы лишний раз напомнить о необходимости постоянного мониторинга всех событий, касающихся современного SEO, частью которого являются правила, устанавливаемые ПС, в том числе их сдерживающие фильтры.
Это необходимо, чтобы вовремя реагировать на них и обеспечить максимальную эффективность в продвижении своего проекта. Ну а теперь немедленно переходим к конкретике, актуальной именно на данный момент, и посмотрим, за что может наказать тот же Панда (этот алгоритм впервые появился в 2011 году). Итак, вэбсайт непременно понесет наказание, если Panda вдруг обнаружит следующее:
Итак, если вы увидите, что число посетителей, приходящих с поиска Гугл, вдруг начинает неуклонно падать (и это не связано с присущими вашему вэбсайту обычными сезонными колебаниями), то весьма вероятно, что ресурс попал под один из фильтров. Отслеживать посещаемость с поисковых систем удобнее всего используя LiveInternet, который обладает богатым функционалом. Вот график изменения посещаемости одного из моих проектов:
Как видите, с сентября 2014 года кривая трафика начала неуклонно ползти вниз. Как раз в это время был последний апдейт Панды. Проследить обновления всех фильтров можно с помощью специализированных сервисов, одним из которых является Moz.com , где представлены все даты обновлений:
Так что в данном случае все ясно, именно фильтр Panda стал причиной падения посещаемости. Однако не всегда так легко соотнести даты обновления алгоритмов и начавшиеся проблемы с проседанием позиций вэбресурса и, соответственно, трафика. Поэтому существует зарубежный ресурс Barracuda, который предлагает специальный инструмент Panguin Tool :
С его помощью можно проследить, например, кто из сладкой парочки Гугла (Панда или Пингвин) стал причиной крушения вашего вэбсайта. Правда, для этого необходимо предоставить доступ к вашей статистике Google Analytics. Конечно, мировому гиганту поиска можно доверять в вопросе сохранения конфиденциальных данных, но чем черт не шутит. Ведь с основным аккаунтом Google (в о создании аккаунта в Гугле все подробности) обычно связана и учетная запись , что как-то напрягает.
В этой связи я вспомнил, что вполне возможно делегировать права на данные Аналитикс другому своему профилю, на котором нет никакой важной информации, благо Google не накладывает ограничения на количество учетных записей. Что и было сделано. Для этого я вошел во вкладку «Администратор» основного профиля Гугл Analytics и выбрал раздел «Управление пользователями»:
Там прописал адрес электронной почты, соответствующей другой моей учетной записи. Этим самым я предоставил право получения статистических данных через другой аккаунт:
Естественно, отреагировал на это положительно, кликнув по соответствующей кнопке. Дальше вылезло сообщение, предлагающее выбрать конкретный канал статистики:
В итоге была сформирован результирующий график, где точные даты обновлений алгоритмов накладываются на кривую изменения посещаемости моего блога.
Если проанализировать эту графическую информацию, то не заметен спад посещаемости после какого-либо апдейта. Единственный непродолжительный участок провала, где трафик упал до нуля, связан со снятием счетчика Аналитикс, сейчас уже не помню, по какой причине. Следовательно, сайт, похоже, пока избежал острых клюва и когтей Панды либо Пингвина.
Если по графику невозможно понять, под какой фильтр угодил вэбсайт (безусловно, бывает и такое), то при анализе трафика надо обратить внимание на следующее. Если вас клюнул Penguin, то проседание позиций, скорее всего, будет только для тех запросов, по которым вы продвигаете заспамленные "плохими ссылками" страницы. Если же покусал Panda, то падение начнется по всем ключевикам, следовательно, будет более стремительным.
В первой главе текущей публикации мной были упомянуты нарушения, при обнаружении которых Пандой может быть наказан вебресурс. Теперь рассмотрим, как сделать так, чтобы избежать его лап. Или, если вам не удалось этого избежать, каким образом восстановить позиции своего ресурса. Итак:
2. Ликвидировать переизбыток ключевых слов в Тайтле, заголовках H1-H3, Description (описании). Все заглавия и описания статей должны быть читабельны, понятны пользователям и цепляющими взгляд. Кроме этого, они обязаны полностью соответствовать содержанию публикаций. Ведь в противном случае читатели покинут вебсайт, поскольку не найдут обещанного.
3. Убрать лишнюю рекламу со страниц вепроекта, особенно те блоки, которые не являются релевантными его содержанию. Ведь такие рекламные объявления не принесут достойного дохода, а навредить могут серьезно. Также откажитесь от использования большого количества агрессивной рекламы типа попандеров, кликандеров, всплывающих окон и им подобных элементов.
4. Уничтожить весь имеющийся дублированный контент. Как это сделать, например, для блога WordPress с древовидными комментариями, я подробно писал в статье о страниц, которые, поверьте, могут стать причиной полного краха. Это действительно серьезно.
5. Улучшить поведенческие факторы вебсайта, качество которых связано с предыдущими шагами. Если реализуете первые три пункта, то большая часть работы будет выполнена.
Это основные пункты, следование которым поможет избежать Панды или, в худшем случае, освободиться от его объятий. Помните, что Panda это машинный алгоритм, который накладывается автоматически. Никакие обращения в хелп Гугла не помогут ускорить его снятие. Только после всех исправлений вы можете обратиться с подробным описанием всех предпринятых вами действий.
Поэтому лучше, конечно, изначально не давать ему повод испытать свои зубы на вас. Ну а если не посчастливиться, что вполне возможно при современном развитии событий, не примените воспользоваться моими рекомендациями, данными чуть выше. Хуже точно не будет.
Несмотря на то, что изменения в алгоритмах Google – одна из самых животрепещущих тем в сфере SEO , многие маркетологи не могут с уверенностью сказать, как именно алгоритмы Панда, Пингвин и Колибри повлияли на ранжирование их сайтов.
Специалисты компании Moz подытожили наиболее значимые изменения алгоритмов Google и буквально разложили по полочкам информацию о том, за что отвечает каждое обновление.
Алгоритм Панда, главной целью которого является повышение качества результатов поиска , был запущен 23 февраля 2011 года. С его появлением тысячи сайтов потеряли свои позиции, что взбудоражило весь Интернет. Поначалу оптимизаторы думали, что Панда штрафует сайты, замеченные в участии в ссылочных схемах. Но, как позже стало известно, борьба с неестественными ссылками не входит в круг полномочий этого алгоритма. Все, чем он занимается, – это оценка качества сайта.
Чтобы узнать, не угрожает ли вам опасность попасть под фильтр Панды, ответьте на такие вопросы:
Какие именно факторы учитывает Панда при ранжировании сайтов, наверняка не знает никто. Поэтому лучше всего сфокусироваться на создании максимально интересного и полезного сайта. В особенности вам нужно уделить внимание таким моментам:
Google ежемесячно обновляет алгоритм Панда. После каждого обновления поисковые роботы пересматривают все сайты и проверяют их на соответствие установленным критериям. Если вы попали под фильтр Панда, после чего внесли изменения на сайте (изменили недостаточный, некачественный и неуникальный контент), позиции вашего сайта улучшатся после очередного обновления. Учтите, что, скорее всего, вам придется ждать восстановления позиций несколько месяцев.
Алгоритм Google Пингвин был запущен 24 апреля 2012 года. В отличие от Панды, этот алгоритм нацелен на борьбу с неестественными обратными ссылками .
Авторитет и значимость сайта в глазах поисковых систем во многом зависит от того, какие сайты на него ссылаются. При этом одна ссылка с авторитетного источника может иметь такой же вес, как десятки ссылок с малоизвестных сайтов. Поэтому раньше оптимизаторы стремились всеми возможными путями получить максимальное количество внешних ссылок.
Google научился распознавать разные манипуляции с ссылками. Как именно работает Пингвин, известно только его разработчикам. Все, что известно оптимизаторам, так это то, что этот алгоритм охотится за некачественными ссылками, созданными веб-мастерами вручную с целью повлиять на позиции сайта. Сюда относятся:
Пингвин – такой же фильтр, как и Панда. Это означает, что он регулярно обновляется и пересматривает сайты. Чтобы выйти из-под фильтра Пингвин, вам нужно избавиться от всех неестественных ссылок и ждать обновления.
Если вы добросовестно последуете рекомендациям Google и не будете пытаться получить ссылки нечестным путем, то сможете вернуть себе расположение поисковых систем. Однако чтобы вернуть первые позиции, вам не достаточно будет просто удалить некачественные ссылки. Вместо них вам нужно заработать естественные редакторские ссылки с трастовых сайтов.
Алгоритм Колибри – это совсем другой «зверь». Google объявил о запуске этого обновления 26 сентября 2013 года, но он также упомянул о том, что этот алгоритм действует уже на протяжении месяца. Вот почему владельцы сайтов, позиции которых упали в начале октября 2013 года, ошибочно полагают, что они попали под фильтр Колибри. Если бы это действительно было так, они ощутили бы действие этого алгоритма на месяц раньше. Вы спросите, а что же в таком случае послужило причиной снижения трафика? Скорее всего, это было очередное обновление Пингвина, которое вступило в силу 4 октября того же года.
Алгоритм Колибри был разработан для того, чтобы лучше понимать запросы пользователей. Теперь, когда пользователь вводит запрос «В каких местах можно вкусно поесть в Екатеринбурге», поисковая система понимает, что под словом «места» пользователь подразумевает рестораны и кафе.
Поскольку Google стремится как можно лучше понимать пользователей, вы должны делать то же самое. Создавайте контент, который будет давать максимально развернутые и полезные ответы на запросы пользователей, вместо того, чтобы зацикливаться на продвижении по ключевым словам.
Как видите, все поисковые алгоритмы преследуют одну цель – заставить веб-мастеров создавать качественный, интересный и полезный контент. Помните: Google постоянно работает над повышением качества результатов поиска. Создавайте контент, который поможет пользователям найти решение их проблем, и первые места в выдаче вам гарантированы.
Социальные сети вошли в нашу жизнь сравнительно недавно. Но уже сейчас мы с трудом представляем себе мир без них. Фейсбук, Вконтакте, Инстаграм — все эти названия известны каждому, иконки этих соцсетей можно увидеть практически на любом современном сайте. Высокая популярность таких сервисов объясняется тем, что с их помощью люди могут делиться информацией о себе, читать про жизнь других, общаться с друзьями независимо от их местонахождения, показывать миру свои фотографии и видео. Другими словами, для активной общественной жизни социальные сети дают массу возможностей.
Название этой социальной сети произошло от английского слова «twitt», которое в переводе на русский язык означает «болтать», «чирикать». Это как нельзя лучше обозначает всю суть данного сервиса. Твиттер создан для быстрого обмена короткими сообщениями
. Это удобно как для обычных пользователей, так и для знаменитостей, которые могут добавить себе популярности благодаря таким кратким жизненным зарисовкам. Например, Барак Обама перед первыми выборами набрал целых 6% голосов именно благодаря Твиттеру. Также этой площадкой пользуются такие известные люди, как Джастин Бибер, Бритни Спирс, Кэти Перри и многие другие.
Также Твиттер зарекомендовал себя как отличный новостной ресурс. Дело в том, что каждое публикуемое в нем текстовое сообщение, фотография и видео становятся известными всему миру в течение пяти минут. Подобная скорость распространения информации является одной из самых высоких, оставляя позади и телевидение, и радио. Поэтому Твиттер идеально подходит для новостных компаний, а ещё он выполняет роль прекрасной рекламной площадки для любого бизнеса.
Популярен он и среди различных научных и информативных ресурсов. Например, своя страница в Твиттере есть у National Geographic, у Википедии и у NASA .
Каждое сообщение мгновенно появится в новостной ленте ваших подписчиков. А далее дело уже за ними. Если твит вызовет большой интерес, то фолловеры начнут делиться им на своих страницах, где его увидит ещё более широкий круг людей. Те, в свою очередь, также могут ретвитнуть это сообщение. Таким образом твиты набирают большое количество просмотров и приводят к вам новых подписчиков.
Многие из таких сообщений получают настоящую мировую известность , причем они не всегда принадлежат каким-то знаменитостям. Например, не так давно был выложен ролик, в котором маленький мальчик показывал новый способ научиться завязывать шнурки. Это видео обрело бешеную популярность, оно было просмотрено несколькими миллионами пользователей и вызвало живой отклик у людей со всего мира.
Прежде всего нужно пройти несложную процедуру регистрации. Только после этого вы получите доступ ко всем ресурсам этой социальной сети. К процессу регистрации следует подойти внимательно, поскольку пользователь не может создать более одного аккаунта.
Чтобы зарегистрироваться , нужно ввести в специальную форму некоторые данные:
Как правило, Твиттер не требует указывать и телефон, и почту. Можно обойтись только е-мэйлом
. Кстати, в этом случае есть возможность избежать ограничения количества созданных аккаунтов. Например, вы сможете создать ещё один профиль, но указать в нем не почту, как в предыдущем, а номер телефона.
Когда все поля в форме будут заполнены, нужно будет подтвердить создание профиля. Если при регистрации вы указали номер телефона, то вам придет на него код подтверждения, который нужно будет ввести в специальную графу. А тот, кто предпочел использовать адрес электронной почты, получит на свой ящик письмо со ссылкой, по которой нужно будет пройти для активации аккаунта.
После подтверждения создания профиля регистрация будет завершена, и вы сможете пользоваться Твиттером без ограничений.
Существует несколько внутренних правил , которые необходимо соблюдать во избежание блокировки аккаунта и возникновения проблем с законом.
В любом цивилизованном обществе принято соблюдать некоторые правила этикета . Твиттер не стал исключением. Конечно, соблюдение правил общения — это просто рекомендация, нарушение которой не повлечет за собой какие-либо санкции. Но если вы хотите, чтобы ваша страница была интересна и приятна людям, то этикету всё же стоит уделить повышенное внимание.
Если вы открыты миру и любите делиться интересными событиями, происходящими в вашей жизни, то Твиттер — это как раз то, что вам нужно.