На PubCon, представитель Гугл – Мэт Катс объявил: В Гугл созданы специальные алгоритмы, позволяющие выявить сайты, реклама которых забивает основной контент. Подобные сайты не будут распознаваться через Гугл.

Гугл недоволен сайтами, чей контент перекрывается рекламой. Новые алгоритмы позволяют выявить видимую часть контента и провести .

Это позволит оценить то, как пользователь будет воспринимать полезную информацию сайта. Сможет ли сайт представить полезный контент без раздражителей в виде навязчивой рекламы. И что самое интерессное – действительно ли сайты с отрицательным анализом будут выбраковываться Гуглом?

Сейчас в Гугле работает алгоритм Панда. Он производит чистку сайтов, сделанных только для представления рекламы. По словам Мэт Катса уже сейчас будут использованы специальные алгоритмы, помогающие пользователям избавиться от ненужных навязчивых реклам.

Эта работа Гугл позволит существенно повысить КПД интернет ресурсов, так как будут представляться те сайты, на которых легко можно будет найти нужный контент среди разнообразных элементов, перегружающих страницы Инета.

Каждый владелец интернет ресурсов должен подходить к созданию сайта с позиции доступности своей основной информации.