Практически каждый вебмастер, который  хочет, чтобы его сайт находился в первых местах при поиске в популярных  поисковых системах, таких как “Гуугл” или “Яндекс” – занимался оптимизацией содержимого сайта под определенные поисковые запросы. И не редко случалось так, что происходила переоптимизация сайта, то есть  перенасыщение его ключевыми словами или фразами. В итоге текст разделов сайта становился трудночитаемым. 

Если рассмотреть   алгоритма Google Panda – этот алгоритм успешно использует поисковая система “Гуугл”, то можно увидеть, что данный алгоритм отслеживает сайты, которые являются переоптимизированными и может даже “забанить” сайт, т.е. забрать у него право участвовать в выдаче.

Почему посковые системы понижают позиции переоптимизированных сайтов?

Дело в том, что при переоптимизации сайт становится не релевантен запросам, под которые его стараются оптимизировать. В данном случае происходит имитация релевантности.

В итоге вероятность того, что человек, который ищет какую-либо информацию по одному из запросов, может попасть на  сайт с не читаемым текстом, где ключевых слов больше чем полезной информации. Поэтому в последнее время  службы поддержки поисковых систем  сообщают вебмастерам о переоптимизации их ресурса. В случае если никаких мер предпринято не было, существенно понижают позиции сайта в выдаче по тем же ключевым запросам, а могут даже поместить ресурс в черный список. Особое внимание поисковая система  уделяет анализу уникальности текста.