В данной статье мы расскажем о способах, которые позволяют уберечь свой блог от плагиаторов.
Использование анонсов в RSS фиде
Вы должны использовать анонсы в RSS фидах. Это позволит сохранить ваш блог от веб-сайтов, автоматически генерирующих свой контент на базе полученных RSS. Многие веб-харвестеры (web scrapers) используют RSS каналы сайта для получения статей сразу же после их публикации. Если вы используете анонсы в RSS, то автоматический генератор контента опубликует их вместе с обратной ссылкой на вашу статью. Таким образом, ваш блог будет спасен от плагиаторов статей, и вы получите обратную ссылку от веб-харвестера.
Как установить анонсы фидов в WordPress? Для этого достаточно войти в панель администратора, перейти к Settings (Параметры) > Reading (Чтение) > Show Article Summery in Feed (Для каждой статьи в ленте отображать:) и выбрать Анонс.
Внутренняя линковка
Очень часто воры контента просто копируют и вставляют HTML-код, не удаляя внешних ссылок из статей. Таким образом, внутренняя линковка статей вашего блога позволяет получить обратную ссылку, если кто-либо скопировал HTML-код записи.
Плагин Simple Feed Copyright
Этот бесплатный плагин добавляет копирайт в конец каждой статьи, находящейся в RSS фиде, а также ставит ссылку на ваш блог.
Предупреждение плагиаторов
Если вы заметили, что кто-либо успешно скопировал вашу статью, и не опубликовал в ней обратной ссылки, оставьте в комментариях к украденной записи предупреждение о нарушении авторских прав. Объясните человеку возможные последствия, которые могут ему грозить. Изредка такие уверения помогают.
Размещение уведомления об авторском праве
Если вы добавите изображение уведомления об авторском праве под областью записи (к примеру, Copyscape), это предупредит ручное копирование статьи.
Все напрасно? Приступаем к правовым действиям
Если кто-либо копирует ваш контент в автоматическом режиме или вручную, не предоставляя вам обратной ссылки, и игнорирует ваши предупреждения, вы можете предпринять следующие шаги.
1. Уведомить Google о спаме
2. Воспользоваться законом DMCA
DMCA — самый эффективный метод, чтобы удалить скопированный контент из поиска Google. Ознакомиться с правилами закона DMCA можно на странице DMCA Google.
По материалам сайта devilmustcry.com
Я пока только написал скрипт, который не дает выделить больше 100 символов.
В любом случае все это легко обходится одной кнопкой — отключить Javascript в браузере :)
Ну и как конкретно уведомить гугл о сайтах, своровавших контент (по ссылке DMCA Google ничего не понятно)? И как вообще доказать, авторство, да хотя бы переводов на этом сайте?
И еще… кто-нибудь берёт и копирует уникальную статью на википедию, или какой-нибудь пузатый сайт, в итоге по запросу, на первом месте вылазит этот сайт, хотя он не является первоисточником.
В Яндексе можно указывать авторство статей. Там есть специальное решение, называется «Оригинальные тексты». Сделано специально для сайтов, с которых активно перепечатывают контент. Помогает уведомить поисковую систему о скором выходе статьи, которая будет автоматом под вашим авторством.
Хех… «Данная возможность доступна сайтам с ТИЦ не менее 10. Обратите внимание, что Яндекс не гарантирует учет вашей заявки в работе поисковых алгоритмов.»
Т.е. новые сайты с нулевым ТИЦ не поддерживаются. Да что говорить, у меня живой форум три года, куча естественных ссылок, а ТИЦ 0. Другой сайт уже 10 лет, море ссылок, ТИЦ 20. Зато всякие ГС в топе и под сотню имеют.
P.S. ГС-ы которые тырят контент.
Возможно, что это не всегда работает, но это хоть какой-то вариант показать яндексу, что контент принадлежит именно вам. А ставить всякие заглушки и прочее — бесполезно, на мой взгляд. Чем больше преград в виде JS, тем сильнее хочется своровать контент.
Почитал это http://webmaster.ya.ru/replies.xml?item_no=14965 и убедился что эта их служба — просто пыль в глаза вебмастерам, а реально не работает. А вот в гугле советуют +1 кнопку ставить.
Про кнопку +1 тоже многое читал, но практической пользы от нее не увидел. В чем плюсы от ее установки?
Ну там пишут в комментариях следующее: «Текст сохранится в гуглплюс, со ссылкой на источник. Если кто-то захочет взять статью до индексации вашего сайта — не проблема, время публикации известно, первый источник тоже. В документации этот вопрос подробно расписан. Это намного действеннее, чем сервис яндекса, который по сути не особо работает.»
Т.е. публикуем статью и тут же жмём на волшебную кнопку +1, статья летит и сохраняется в гугл+, в наш профиль там и закрепляется за нами.
Но как раз с гуглом то проблем меньше. Я вообще не жду его робота, а после публикции статьи, захожу в вебмастерс и вручную добавляю статью в индекс гугла через «посмотреть как гугл» -> «отправить в индекс».
Гугл и новые сайты быстрее забирает. Обычно первые ссылки появляются именно в гугле, а от яндекса жди и жди, пока он возьмет.
Согласен. Месяц назад открыл новый сайт. В яндексе он появился только через месяц, в то время как в гугле появился в тот же день. Если добавляю статью и вручную отсылаю в индекс, она тут же на глазах появляется в индексе. Да и вообще между заходами яндекса можно сто раз контент перетырить и скормить в их «оригинальные тексты». Так что для кого сделали? Ворам только на пользу и будет эта служба, впрочем думаю они откажутся от нее ввиду несостоятельности и последуют за гуглом, т.к. всегда только и могли что копировать его идеи. Хотя кто их знает, яндекс он в своей неадекватности может всякое выкинуть и придумает еще какую-нибудь нелепость. Поражаюсь его популярности при всей ей тормознутости и неадекватности… вот что значит реклама.
Да вообще казалось бы такие тормоза как мейл.ру и бинг уже гораздо быстрее яндекса индексируют. Мейл.ру помаленьку подымается как источник трафа в России: http://www.liveinternet.ru/stat/ru/searches.html?period=month
Яндекс всегда славился как нечто непонятное. Качественные сайты для людей порой находятся ниже каких-нибудь ГС в выдаче, контент выдается в основном рекламный вместо нормальных статей.
По воровству контента у меня года три назад был случай, писал Платонам, мой сайт был ниже на строчку в выдаче, чем тот, что воровал. Какое-то время следил, ничего не менялось. Потом плюнул на это дело, да и сайт тот перестал воровать со временем. В общем, с этим вряд ли можно как-то бороться.
Первоисточник всегда трудно определить. Я даже не представляю, как это можно реализовать на практике, чтобы в индексе был именно оригинальный контент выше, ведь поменять дату публикации — раз плюнуть.
Это возможно в нормальных поисковиках зачёт проверки уникальности текста и запоминания сайта, где он впервые появился. Дата публикации не при чем. Ничего сложного, нужны только вычислительные мощности. Яндекс к нормальным и мощным не относится.
Ведь их Платон сам же отвечает в техподдержке: «Дело в том, что поисковая система Яндекс лишь индексирует общедоступную информацию и показывает её по запросам пользователей. Мы ни в коем случае не являемся цензорами сети и не присваиваем авторство той или иной статьи какому-либо сайту. Также мы не выделяем среди сайтов сайты-первоисточники. Результаты поиска формируются с учетом множества факторов, иными словами, с учетом релевантности сайтов запросам пользователей.»
Этим всё сказано — они не присваивают авторство статей какому-либо сайту, а отдают предпочтение гламурным пузатым сайтам. «Там, где информация представлена более удобно и выгодно для пользователя».
В статье про оригинальные тексты яндекс пишет: «В итоге сейчас алгоритмы отдают предпочтение присланным оригинальным текстам на 80% чаще.» А это значит, что оставшиеся 20% воров сидят в топе и имеют 80% трафика. Т.е. почему не 100% если текст уникален, да потому что скорее всего их этот сервис не работает и яндекс предпочитает пузатые гламурные (т.е. раскрученные и «понятные пользователям» типа ответы мейл.ру) сайты, а уникальность на втором месте.
А как вы думаете, пенальти для новых сайтов — это оправданная мера? Когда новый сайт не может занять верхние позиции в поиске какое-то время (вроде как первый год для Яндекса).
Смысл-то понятен: чтобы не было такого, что по конкуретным запросам новый сайт резко теснил старичков. Однако это, опять же, ведет к тому, что старички могут надолго осесть по «жирным» запросам и не париться.
Думаю это как раз и плохо. Потому что уникальный контент появляется в основном на новых сайтах, т.к. неуиник сразу улетает под АГС. И вот с молодых сайтов будут тырить контент и выкладывать на старых.
А новый сайт в любом случае не потеснит резко старичков в любой ПС, хотя бы потому, что у старичков ссылочная масса выше, а ранжирование идёт в первую очередь по ссылочной массе, а уже во вторую по свежести и уникальности.
Полностью согласен.
Такие ограничения приводят к тому, что вебмастеры не заморачиваются и просто покупают сайты, у которых уже есть определенный траст, которые существуют уже длительное время, вместо создания и продвижения новых сайтов.
У меня у самого была мысль купить уже существующий сайт, но потом весы все же перевесили в пользу нового. Не хочу брать сайт с сомнительной историей.
Да и не очень приятно это — покупать и носить секонд хенд)
Некоторым вполне даже подходит, кто хочет быстрой монетизации, но продают обычно то, что уже полностью выжато и приносит теперь только убытки.
Почитал вашу переписку, довольно любопытно было узнать мнения людей со стороны на работу поисковых систем с точки зрения копипаста. У гугла на данный момент намного лучше дело обстоит с этим делом. Релевантность в выдаче поисковых запросов в яше мягко говоря неидеально работает, о чем мне часто жалуются и другие знакомые вебмастера. Остается только надеется, что яша все-таки поднимет уровень в итоге в этом вопросе.
Дмитрий, посоветуйте, пожалуйста, плагин типа Simple Feed Copyright. Который ставит ссылку на блог при копировании.
https://wordpress.org/plugins/wp-content-copy-protector/
https://wordpress.org/plugins/dmrightscom-content-copyright-protection/
https://wordpress.org/plugins/wp-content-copy-protection/
Вот варианты для защиты контента.