Почему нельзя брать тексты с других сайтов
Если мы обернемся в прошлое – взглянем на ситуацию, которая была, скажем, лет шесть назад, – то увидим, что алгоритмы поисковых систем были не такими «умными», как сейчас, и их можно было обходить.
Возьмем ситуацию с текстами (контентом сайта). Изначально можно было скопировать статью с другого сайта, поменять слова в предложении местами, вставить ключевые слова – и вуаля! – мы поднимаемся на хорошие позиции (причем стоит отметить, что для старых сайтов этот прием до сих пор периодически срабатывает).
Или другой вариант: можно было взять несколько статей с разных сайтов и объединить их в одну. (Помните, выше мы уже шутили по поводу того, что копирование из одного источника – это плагиат, а из нескольких – уже докторская диссертация? Это из той же оперы.)
И такой прием некогда срабатывал – поисковая система расценивала подобные тексты как уникальные, сайт поднимался в выдаче.
Отметим, что примерно этот же метод (но только, если можно так выразиться, более «человечный») используется сейчас для раскрутки интернет-магазинов. Объясним, каким образом. Допустим, один и тот же одинаковый прайс-лист используется в ста интернет-магазинах. Как вы понимаете, менять названия товаров в прайсе нельзя, поэтому нужно как-то выкручиваться. Вот часть контента и будет неуникальная – с других сайтов. А другая часть – это уже абсолютно уникальные тексты, написанные специально под данный сайт. И против такого симбиоза поисковик ничего не имеет.
Однако в целом в прошлом наблюдалась довольно нехорошая тенденция, а именно: каждый мог создать множество сайтов с помощью текстов, заимствованных нечестным путем, а проще говоря, ворованных с других ресурсов.
Скажем больше: такие сайты делались автоматически, а потому те самые кристально честные веб-мастера, которые писали тексты с нуля, находились, мягко говоря, в неловком положении: можно было корпеть, стараться, писать уникальный текст, а потом обнаружить, что его украли. Причем тот сайт, на котором разместился украденный текст, мог оказаться выше в выдаче, нежели сайт с первоисточником.
А что же сейчас?
А сейчас поисковая система ранжирует сайты с помощью фильтра, выявляющего уникальность/неуникальность текстов. Если выясняется, что сайт берет тексты с других ресурсов и размещает их у себя, то он признается некачественным и частично либо полностью удаляется из поисковика. Правда, эти фильтры работают неидеально – и отсеивается плагиат не всегда.
Именно поэтому выше мы неоднократно говорили о том, что важно писать много качественных – и главное уникальных! – текстов.