Фильтры Google и Яндекс: на страже «прав потребителя»

11 января 2013 года, Размещено в категории: SEO / SMO

Фильтры Google и Яндекс: на страже «прав потребителя»

Поисковые системы изначально создавались для того чтобы облегчать участь пользователя, предоставляя ему максимум комфорта при работе с сайтами, блогами и иными ресурсами. При этом поисковые системы позволяют нажатием одной кнопки за считанные секунды из многомиллиардной библиотеки сайтов отбирать те площадки, которые соответствуют конкретному пользовательскому запросу. При этом все сайты, попадающие в выдачу, выстраиваются по принципу наибольшего соответствия поисковому запросу. Но не только в этом состоит полезность поисковых систем для пользователя. Представителями его интересов в сети выступают фильтры поисковых систем, которые заботятся о том, чтобы в выдачу попадали только сайты, которые отвечают высоким критериям качества.

 

Борьба фильтров с дублированным контентом

Одной распространённой бедой, характерной для многих ресурсов сети, является размещение дублированного контента. Все сайты находятся в свободном доступе, и нет ничего проще, чем зайти на любой из них и скачать какую-нибудь интересную статью. Причём никто не узнает о том, что кто-то «позаимствовал» авторский материал. Никто, кроме поисковиков. Поисковые системы имеют противоядие от этой беды, и название ему - фильтры Google и Яндекс. Поисковые фильтры представляют собой универсальное орудие против текстового плагиата. Все сайты, прежде чем попасть в выдачу, проходят проверку на уникальность текстового контента, размещённого на их страницах. При этом поисковые фильтры Яндекс и Google всегда моментально и безошибочно выявляют дублированный контент, на какой бы захудалой площадке не был бы размещён оригинальный текст. Такая точность проверки достигается посредством специальных сервисов, которые с молниеносной скоростью анализируют все статьи, размещённые на проиндексированных ресурсах сети, и выявляют процент совпадений между текстом на сайте и статьями на сторонних ресурсах сети. Если процент совпадений невысок (примерно 5-10%), то фильтры Google и Яндекс пропускают такую площадку в выдачу, но если уникальность статей сайта оказалась низкой, то страница или раздел, на которых они размещены, попадут под фильтр, то есть не будут высвечиваться в выдаче. В некоторых случаях под фильтр попадают все площадки целиком – например, такое может произойти, когда одна дефектная страница потянет за собой целый раздел, а тот, в свою очередь, всю площадку. Дублированный контент нарушает право пользователей на уникальную информацию, поэтому фильтры Яндекс и Google ведут отчаянную борьбу с плагиатом в сети. Популярная поисковая система Яндекс ограждает своих пользователей от дублированного контента фильтрами «АГС» и «Ты последний», а в Гугле функцию санитара текстов выполняет фильтр «Дублирующий контент». Поисковые фильтры имеют технические средства для точного выявления процента совпадений между статьями, размещёнными на разных ресурсах. Причём поисковые роботы не интересует, какой характер имеют найденные совпадения – случайный или умышленный. Тексты с низким процентом уникальности подпадают под фильтры, которые либо существенно понижают позиции в выдаче поисковиков, либо вообще исключают сайт из рейтинга поисковой выдачи.

 

Поисковые фильтры против бесполезных сайтов

Поисковые фильтры Google и Яндекс также защищают права пользователей на полезные и информативные площадки. По умолчанию, в выдаче популярных поисковых систем должны участвовать только сайты, которые представляют определённую ценность для аудитории сети. Для того чтобы обеспечить соответствие этому правилу, необходимо стараться выбирать интересную для большинства людей актуальную тематику площадки и наполнять её свежими занимательными материалами, несущими реальную пользу. Поисковые фильтры Яндекс и Google доброжелательно относятся к таким площадкам и в 99% случаев пропускают их в выдачу без понижения позиций. Если же на сайте размещены никому не интересные материалы, которые не имеют большой информативной ценности, то, скорее всего, такая площадка не попадёт в поисковую выдачу с лёгкой руки поисковых фильтров. Поисковики руководствуются весьма специфической политикой относительно ресурсов в контексте оценки их полезности для пользователя. В сети существует негласная презумпция бесполезности, то есть все новый только что созданные сайты по умолчанию считаются бесполезными, и только потом, в ходе своего существования, они должны доказать поисковым системам обратное. Как правило, все новые ресурсы сразу же после их создания попадают в фильтры для «новичков». Для поисковой системы Яндекс это фильтр «Новый домен», для Гугла – «Песочница». Пребывая под этими фильтрами, сайты могут не высвечиваться в выдаче по высокочастотным запросам от нескольких месяцев до нескольких лет. Чтобы выйти из-под такого фильтра, необходимо либо занять выжидательную позицию, либо активно доказывать поисковикам полезность своего сайта. Для этого необходимо наполнять сайт интересным текстовым и мультимедийным контентом, размещать ленту свежих новостей, полезные ссылки, информацию справочного характера и так далее. Также не лишним является размещение внешних ссылок, ведущих на сайт, но только при условии, что они будут размещены на тематических сайтах и не появятся в большом количестве одновременно, чтобы не подпасть под действие других ссылочных фильтров. Одним словом, для того чтобы полноценно на равных правах с другими сайтами участвовать в выдаче по популярным поисковым запросам, новички должны доказать поисковым роботам свою полезность для пользователя, а также соответствие его потребностям и ожиданиям.






1 Комментарий

  • 4 года назад Ответить

    Спасибо за статью. Теория конечно сложно дается, но в этот раз прочитала все до конца.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Перед отправкой формы: