loading...

Авторизация ...

Имя пользователя :
Пароль :
я всё забыл!

ХакиSOHSR v1.0 - Скрываем контент от поисковых роботов

Написал Vipi, 24 октября 2008 | 29 комментариев | рейтинг новости не нравится   +13   нравится Версия для печати
[left]В продолжение темы о сео оптимизации. Все знают волшебный тег
<noindex></noindex>
Но как показывает практика, гугл данный теэ просто игнорирует, а яндекс очень нелюбит большое колическво внешних ссылок на странице. решение читаем в полной новости. Так что же делает хак?
1) Добавляет возможность использовать 2 новых блока, а имено
[robots] .. [/robots] - Контент, заключённый между этими тэгами будет виден только лиш поисковым системам. Обычные пользователи этого не увидят. Целесобразно использовать для вывода некоторого блока с описанием основной информаци, содержащейся на странице с целью лучшей индексации. Обычные пользователи этот блок не увидят.
[no-robots] .. [/no-robots] - Контент, заключённый между этими тэгами будет виден только обычный пользователям, от поисковых роботов данный контент будет скрыт. Целесобразно скрывать элементы, которые вы не хотите индексировать, но хотите показать юзерам.
2) Автоматически определяет, пользователь или поисковый робот запрашивает информацию с сервера, и если это поисковый робот - хак меняет все внешние ссылки типа http://othersite.ru на http://mysite.ru/engine/go.php?url=.....

Таким образом гугл и компания не видет то, что ему и не надо видеть, а яша не волнуется насчёт большого кол-ва внешних ссылок на сайте. Все довольны, ну чего ещё можно желать? :)
ЗЫ: Данные в базе данных или шаблоне никоем образом не затрагиваются. Вы можете использовать данные тэги в любом месте: как при добавлении новости, так и в ваших шаблонах. Процес замены/скрытия/открытия контента/ссылок происходит непосредственно перед самым выводом страницы пользователю/роботу.
ЗЫЫ: Если будет спрос, есть ещё пару идей по модернизации хака, например список ссылок-исключений, которые не будут заменяться, а так и останутся внешними и т.п.

Вы не можете скачивать файлы с нашего сервера



Комментарии пользователей

  Экспорт комментариев в RSS
 Сортировать по рейтингу, по дате

Написал HelloWorld, 24 октября 2008 в 17:23 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
[robots] .. [/robots] - Контент, заключённый между этими тэгами будет виден только лиш поисковым системам


Бан обеспечен ...

Написал AVET, 24 октября 2008 в 18:43 плохой комментарий   0   хороший комментарий
Новостей: 17, комментариев: 535, Редактор
Карма: 12±
В принципе хак хорший, но вот только, как сказал HelloWorld в СЕО за такие вещи бан обеспечен, ибо модераторы сидят, маскируясь под ботами и проверяют сайты ...

З.Ы. Самый простор способ проверить - установить на IE7 плагин IEPro и задать агента Googlebot

to Max399 теперь что, для каждого бота делать тег ? так у нас будет армия тегов noindex, rel=nofollow, nogo, куда проще делать проверку бот это или нет и соответствующим образом выводить для него контент.

Написал Ankor, 25 октября 2008 в 08:21 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 14, Пользователи
Карма:
не факт, разве что года через три )
проверено годами

Написал Max399, 24 октября 2008 в 17:23 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
2) Автоматически определяет, пользователь или поисковый робот запрашивает информацию с сервера, и если это поисковый робот - хак меняет все внешние ссылки типа http://othersite.ru на http://mysite.ru/engine/go.php?url=.....


Вот оно то мне и надо, но хотелось бы увидеть небольшое дополнение в виде того что:

Чтобы к коду заключённому допустим в тег [nogo][/nogo] не применялось это. Зачем спросите? Возьмём того же робота САПЫ или SetLinks, они покроют все ссылки в ERROR. Для этого надо просто заключить блок с ссылками сапы в данный тег и готово :)

Написал alico, 24 октября 2008 в 18:27 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
Благодарный ba

Написал Hazar_OFF, 24 октября 2008 в 22:30 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
Бан обеспечен ...
Не знаешь, не пугай других. А афтору могу сказать только одно: для моего сайта этот хак написан давно (6месяцев как стоит), моим вторым админом и нечего страшного нет. Хорошая вещь для "сапы". Так что не слушай бестолковых, которые в этом нечё не шарят. Я высказал свою точку зрения, но не более того....

Написал cheguevaraua, 25 октября 2008 в 04:23 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 4, Пользователи
Карма:
Cloaking.. За Cloaking все поисковики банят. Рано или поздно..

Написал Ankor, 25 октября 2008 в 08:25 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 14, Пользователи
Карма:
может и так, но пока настанет это поздно, те кому надо успевают 4

да и вообще, народ харе флудить, кто говорит "нах" предлагает варианты получше или что в доработку, итог:
теоретиков bu
автору ay

Написал Tweek, 25 октября 2008 в 10:44 плохой комментарий   +4   хороший комментарий
Новостей: 5, комментариев: 344, Пользователи
Карма: 24±
Может быть бан, может его и не быть, это как повезет...
Как по мне, то больше вероятности, что забанят.

ибо модераторы сидят, маскируясь под ботами и проверяют сайты ...


Ибо модераторыми являются теже боты, только не для индексирования, а для модерации :) там персонал не будет проверять миллионы сайтов...
а то и миллиарды )

Написал sk8er, 25 октября 2008 в 20:26 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
А забанят только за использование [robots] .. [/robots]? за [no-robots] не забанят?

Написал akucher, 25 октября 2008 в 20:49 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
банят за разное содержание страниц для юзеров и ботов

Написал semakos, 25 октября 2008 в 23:42 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
Я в этом деле новичок, но скажите вот есть для Wordpress плагин который кодирует и прячет все (есть фильтр) внешние ссылки, а потом просто исправляет robot.txt, и все, получается нет внешних ссылок - ссылко. Это что-то подобное? Если нет, то есть ли вообше что то подобное?

Написал Vipi, 26 октября 2008 в 00:32 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
Несовсем. Если нужна только функция преобразования внешних ссылок на внутренние - напиши мне в асю (пять2-53-0два) я подредактирую[БеЗвОзМеЗдНо].

Написал semakos, 26 октября 2008 в 02:08 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
Vipi,
спасибо конечно, правда я не планировал сейчас этим заниматься, времени нехватает, но буду знать к кому можно обратиться.

Написал Dobrinia, 26 октября 2008 в 03:40 плохой комментарий   +2   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
бан конечно, нет смысла на белых ресах юзать клоакинг., велик риск и неоправдан!

Написал FireDancer, 27 октября 2008 в 23:41 плохой комментарий   -3   хороший комментарий
Новостей: 0, комментариев: 7, Пользователи
Карма:
Люди,а чем вам не нравится тег [leech=][/leech],который преобразует все ссылки в вид mysite.com/engine/go.php?url=...........?

Написал nitrox06, 28 октября 2008 в 23:01 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
тем, что его, например, в полных новостях, где идут ссылки на скачивание чего-либо (например с депозита и рапиды) придется ставить каждый раз, а так - хак внедрил и готово. зачем это нужно? - чтобы в сапе лучше ссылки продавались.

Написал blagen, 30 октября 2008 в 19:35 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
подскажите, пожалуйста.

у меня установлен модуль vkontakte 1.1 который при добавлении новости парсит внешние ссылки в вид:

hттp://site.ru/engine/redirect.php?url=hттp://rapidshare.com/files/157786787/xxxxxxxxx.avi

и на этой странице есть открытая внешняя ссылка hттp://rapidshare.com/files/157786787/xxxxxxxxx.avi


это для поисковика будет то же что:

hттp://site.ru/engine/go.php?url=hттp://rapidshare.com/files/157786787/xxxxxxxxx.avi ?

т.е. эффект аналогичный SOHSR ?

или открытая внешняя ссылка будет видна поисковикам ?

в моём случае ставить SOHSR или нет ?

Написал blagen, 31 октября 2008 в 15:45 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
океюшки )

задам вопрос другой. он проще )

этот хак робит для всех страниц сайта ?

для всех статических, динамических ... какую страницу ни прилеплю, на всех будет нужный эффект ?

я бы сам проверил. только понятия не имею как узнать что увидит поисковый робот.

давайте, помогайте уже, пжалста !

Написал blagen, 2 ноября 2008 в 01:00 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
ответы найдены. вопросы сняты.

Написал gloom, 6 ноября 2008 в 15:55 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
Ставить надо,иначе яша будет банить (особенно верзники)

отпишитесь кто установил


Я установил. Вроде без ошибок ,пока.

Написал ma3ca, 10 ноября 2008 в 05:22 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
клоакинг! focus

Написал STsoldier, 6 декабря 2008 в 15:51 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
Устанавливал на 7.2, в результате выяснилось, что хак на 100% не рабочий.

Написал azacg, 26 декабря 2008 в 16:36 плохой комментарий   0   хороший комментарий
Новостей: 1, комментариев: 32, Пользователи
Карма: -1±
STsoldier аналогично

Написал Nestor, 18 января 2009 в 07:45 плохой комментарий   0   хороший комментарий
Новостей: 1, комментариев: 30, Пользователи
Карма:
angry_2 не работает

Написал Bomberman, 31 января 2009 в 21:12 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 171, Пользователи
Карма:
Тоже не работает.

Написал romans69, 22 декабря 2009 в 01:26 плохой комментарий   0   хороший комментарий
Новостей: 0, комментариев: 0, Гости
Карма: ±
А как Вы определили что не работает? я поставил хак и для проверки взял в темплете закрыл картинку [robots] в результате после перезагрузки странички картинки для меня исчезли. Это говорит что хак работает. А вот определить работает [no-robots]? или нет, не знаю как. Сайт на dle 8.3

Да и вопрос. Можно ли сделать так что бы во всех новостях все внешние ссылки закрыть за один раз. Ато каждую править можно угореть. Не знаю почему, но хак <noindex><nofolow> у меня никак не запускается. Беда прям. А ссылок просто не мерянно. Варезник. :( Ищу стопроцентный способ закрыть ссылки.

Информация



Посетители, находящиеся в группе Гости, не могут оставлять комментарии в данной новости.
Анализ Тиц и PR сайта

[removed][removed] [removed] (adsbygoogle = window.adsbygoogle || []).push({}); [removed]