Палю тему: «Контент — уникальней некуда»

Да простят меня, о боги, ГС-строители оптовики, за школу ГС-строительства.

В жизни всех линктрейдеров есть кое-что общее. А именно, те вопросы, которые каждый SEO-шник рано или поздно задаёт себе и другим. Вопросы, ответы на которые смогут дать автоматизированное потоковое производство пациентов для ссылочных бирж, которые в своё время будут приносить N уёв в месяц. Как правило, всё ограничивается двумя основными доходообразующими дилеммами:

  1. Неиссякаемый уникальный контент
  2. тИЦ и PR

Сегодня открою Вам страшную тайну: «Где брать бесплатный уникальный контент, и именно столько, сколько Вам нужно».

Всё гениальное, как известно, просто. Для того чтобы ответить на вопрос: «Где брать бесплатный уникальный контент», нужно подумать, а что же такое уникальный контент в глазах ПС? Любой контент, закрытый от индексации ПС является для них уникальным, до тех пор, пока он не проиндексируется. Логика железная.

Теперь подумайте, где найти подобные сайты? Всё очень просто. Любой SEO-шник в силу профессии обязан знать синтаксис поисковых запросов основных ПС. Но что же там искать? Попробуем объяснить Гуглу, что «нам нужны все сайты, закрытые от индексации в Яндексе» на понятном ему языке. Выглядеть это будет примерно так. Теперь курим выдачу по производным этого запроса, и парсим базу сайтов, которые нам нужны.

После обработки у нас будет готовая база сайтов с уникальным контентом. А как быть с дальнейшей индексацией Гуглом этого контента? Алгоритмы Гугла менее привередливы, чем у Яндекса. Весь контент Гугл повторно проглотит без проблем. Только вот в серп такой контент никогда не выйдет, но это нам и не нужно. Что с этой базой делать дальше? Всё очень просто. Для любителей ручной работы, контент можно собрать руками. Но проще и быстрее, воспользоваться бесплатным универсальным парсером контента.

Это один из способов добывать бесплатный уникальный контент. Сложности возникают только с тем, что все сайты отличаются друг от друга и постоянно менять шаблон парсинга – дело не благодарное.

UPD. Кстати, подобные сайты можно целиком и полностью вытаскивать грабилкой вроде Teleport, вместе с дизайном и вёрсткой, вешать на свободный домен, и продавать ссылки. Путь для ленивых.

Есть ли способ проще?

Когда начинал писать этот пост, было желание спалить метод проще и вкуснее.  Тот способ, в котором не возникает проблем с постоянными сменами шаблона парсинга. Но, немного задействовав серое вещество, Вы и сами «спалите» себе эту тему. Для тех же, кто категорически отказывается думать, остаётся только одно  — ждать. Через несколько постов открою секрет, как обещал на форуме, с примерами проиндексированных сайтов (по 2-3к страниц).

На заметку

  • Sape не обманул, и мои результаты снова доступны для общественности в TopSape. Кстати, уверенно подбираюсь к первой странице рейтинга. Достаточно быстро, учитывая даже мои самые смелые прогнозы. Дальше — больше!;)
  • Глеб поделился простым способом загнать сайты в индекс, а также понял, что хорошие сайты делать гораздо выгодней.
  • Хорошую статью про экономию при покупке ссылок в Sape с помощью Sapemaster'a и YADD поведал нам Презренный

А вот так «живут» в NY-ском офисе компании Google:







57 комментариев (+Ваш отзыв?)

  1. Александр
    13 Мар 2010 в 17:27

    Спасибо за спаленную тему)

    Ответить

  2. Дмитрий
    13 Мар 2010 в 19:18

    Будем ждать ))

    Ответить

  3. Михаил
    13 Мар 2010 в 19:40

    А вам не кажется, что данный метод очень плохо стыкуется с моралью?

    Ответить

  4. Skop
    13 Мар 2010 в 20:16

    Нормальное начало)

    Ответить

  5. flash.kosta
    13 Мар 2010 в 20:18

    темка спаленая, но для новичков, опытные сеошники давно таят эту хитрость )))

    посмотрел видос и просто еще раз понял, что насколько другой уровень там за бугром... что если у них стоят полные конфеток вазы в каждом магазине и их берут только по необходимости, то у нас поставь такую, конфет в ней не будет уже через пару минут и их буду продавать за углом...

    Ответить

    • Человек
      09 Апр 2010 в 16:22

      сейчас таких магазинов много, и никто не хватает конфеты и не продает, не надо равнять все под себя.

      Ответить

  6. Андрей
    13 Мар 2010 в 20:34

    Поставь в заголовке 1'000'000 (с ' то есть), а то считать эти нули... :)

    Ответить

  7. speedseo
    13 Мар 2010 в 21:02

    пп

    Ответить

  8. Сергей
    13 Мар 2010 в 21:02

    Подтверждаю «тема» работает! В недалеком прошлом практиковал этот метод! Сайты еще живы! Все эти темы — они ведь на поверхности лежат! Просто думать надо и анализировать, а кто не думает — тому и темы не помогут!

    Но если чесно комент написал только из-за видео)

    «А вот так «живут» в NY-ском офисе компании Google:»)))

    Смотрели комедию «1000000 лет до нашей эры»?))) Зацените тётку на 17 секунде ролика!) Узнаете жену вождя племени?))))))

    Ответить

  9. Nerezedent
    13 Мар 2010 в 22:07

    Да правда все гениальное просто, проверил выборочно пару сайтов в Яндексе на уникальность, показует уникальным. Спасибо попробую сделать сателлит посмотрю что получится.

    Ответить

  10. reproger
    13 Мар 2010 в 22:39

    Мда, падево...

    Ответить

  11. justme
    14 Мар 2010 в 0:40

    User-Agent: yandex Disallow: — такая директива наоборот открывает индексацию боту.

    User-Agent: yandex Disallow:/ более правильно, но и так ищется полная хня типа закрытых каталогов или версий для печати. Вобщем, чушь ты написал. Не оправдываешь пока надежд...

    Ответить

  12. TraderMax
    14 Мар 2010 в 1:39

    Хм... интересно и палевно.

    Ответить

  13. ЮС
    14 Мар 2010 в 1:52

    @Михаил

    На счёт морали:

    — «Куда катится мир, сказал один SEO-шник?!»,

    — «Кати быстрей, сказал человек пинающий катящего»...

    @flash.kosta

    Конфеты — это приятная мелочь, всё остальное за кадром. Именно то, чего не купить ни за углом, ни за бугром.

    @Андрей

    Я думаю тройка нулей никого не собьёт со счёта?!:)

    @speedseo

    Тут было, хотел написать «да, это полный ПП», но случайно заглянул сюда sokr.ru/%D0%BF%D0%BF/ и ужаснулся! Что именно ты имел в виду из 2к вариантов?!;)

    @Сергей

    Специально для тебя и тех, кто действует, а не «складывает в большой пеликанский рот» всё сказанное, скоро спалю гораздо более вкусную тему, так что...не пропускай СЕАНСЫ ВОЗРОЖДЕНИЯ!

    А на счёр 17-ой секунды... эх, может всё-таки спалю свою «МУЗУ пред народом», дабы подлить масла в огонь!;)

    @justme

    «В общем глаза открыть надо для начала», или дальше заниматься онанизмом, дружище. Если ты не видишь очевидных тем, которые спалены выше — тебе место на заводе, у станка.

    Ответить

  14. Роман
    14 Мар 2010 в 2:31

    Нашел один сайт, продают «Антикражные системы». Что то аж стремно стягивать стало)

    Ответить

  15. Валерий
    14 Мар 2010 в 7:55

    А какой толк нам от этих буржуйских сайтов? Разве сапа их скушает? Сильно не бейте если че я в этом деле новенький 😉

    Ответить

  16. Yan
    14 Мар 2010 в 10:42

    Зачем дурью маятся

    спарсите каталоги mail.ru яндекс рамблер итд

    на названия сайтов, вытащите оттуда домены

    и выкачайте с них роботсы

    но блин туды суют всякую хрень которая в индексе не должна быть

    сколько потом парсить и скачивать для проверок на index-Yandex, ведь если там disalow это не значит что инфы нет в паблике

    короче потратьте столько же времени на более менее нормальный mfs, который ту же деньгу принесёт.

    Ответить

  17. linur
    14 Мар 2010 в 11:39

    Спасибо за способ ) можно еще в сапе искать сайты «не в индексе яндекса», и у них контент воровать)))

    Ответить

    • Женёк
      14 Мар 2010 в 17:14

      почти всё, что в сапе не проиндексировано яндексом — копипаст

      Ответить

  18. Mobi
    14 Мар 2010 в 20:05

    ждем след.серию ) эту серию «перемотал» оказывается повтор сегодня 😀

    Ответить

  19. Olga
    14 Мар 2010 в 21:33

    Согласна с justme. Это действительно ерунда. Таким образом закрывают дублированный контент. Вряд ли кто-то из сайтовладельцев закроет свой сайт от яндекса целиком.

    Ответить

  20. Know
    14 Мар 2010 в 23:24

    Отлично! Гениально!

    Большое спасибо за палево!

    Ответить

  21. Xstroy
    15 Мар 2010 в 8:24

    Да, тема из серии «знаю и молчу».

    Ответить

  22. Глеб Жиглов
    15 Мар 2010 в 12:02

    ЮС, спасибо за ссылку (отвечу взаимностью).

    Блог очень любопытный, клепание таких СДЛ-ов пачками — у меня только в планах на далекое будущее, возможно твой пример даст мне дополнительный импульс.

    Надеюсь, что рунет подольше будет находиться в таком неразвитом состоянии как сейчас (очень много свободных ниш для СДЛ-ов) и я тоже успею отхватить вкусный кусочек :)

    P.S. Не обращай внимания на «непонимающих» комментаторов, про свои СДЛ-ы сильно темы не пали (хотя ты и без моих советов это знаешь).

    Ответить

  23. Некий кто-то
    15 Мар 2010 в 18:56

    Прикольная идея, но слишком геморная, при таком подходе нужно анализировать роботс и глядеть что именно закрыто от индексации. Чаще всего это разделы админки, закрытые для доступа посторонних разделы, доски объявлений итп.

    Тоже долго ломал голову где натырить контента, в итоге собрал на коленке парсер вебархива. Теперь стоит вопрос как проверить массово контент на уник, может подкинете пару идей? Парсить ответы по запросам яши?

    Ответить

    • ЮС
      16 Мар 2010 в 2:48

      На счёт первого, простенький php-скрипт сделает все проверки за тебя. Это и имелось ввиду изначально. А на счёт проверки на уникальность, есть программка «Double Content Finder». Она работает по принципу сравнения пассажей, но могу ошибаться. Капай в сторону неё...

      Ответить

  24. roman
    16 Мар 2010 в 2:18

    Способ, конечно, спорный. Это, блин, «первичное накопление капитала» без моралей и принципов. :)

    Я как-то сейчас в сторону севрисов смотрю — всё-таки клепать ГС вечно — это не выход. Сейчас запустил один сервис для теста, посмотрю, что с этого будет. Вроде посещаемость растёт, дальше посмотрим.

    Ответить

  25. mafia_manager
    17 Мар 2010 в 2:11

    Спасибо за статьи, спасибо за блог.

    Такого количества полезной информации уже давно не получал т.к. все «палят спаленное» или рекламят партнерки.

    Респектище ! Действительно темы :) Взял на заметку про ЖЖ и про уник с роботс.тхт.

    Пиши еще и почаще! Подписался.

    Ответить

  26. Max
    17 Мар 2010 в 15:02

    «В следующем посте будут спалены, как минимум, две интересных темы:

    1) Почему я зарабатываю на Linkfeed больше, чем на Sape (при прочих равных условиях)

    2) Источник уникального контента с неиссякаемыми запасами — всё подробно, с примерами уже готовых сайтов в индексе по 2к страниц и больше.»

    Про источник спалено, а как же примеры сайтов?

    P.S. Цитата сообщения с нуледа.

    Ответить

    • ЮС
      17 Мар 2010 в 15:08

      Прочитай абзац под заголовком «Есть ли способ проще?».

      Ответить

  27. Openixxx
    17 Мар 2010 в 16:24

    как я понимаю «темапроще» которая упоминается в конце поста это и есть — заставить пользователей самих генерить контент...)

    тут вариантов вижу два — или тематический форум или социальная сеть...

    Ответить

    • Max
      17 Мар 2010 в 17:05

      я думаю, вряд ли об этом речь. заставить пользователей нагенерировать 1000+ страниц в сжатые сроки, при этом по собственному желанию :), анрил имхо

      тут скорее речь идет о том, что спарсить качественный контент, который интересен пользователям и они будут потихоньку добавлять новый и комментировать старый.

      Ответить

      • ЮС
        19 Мар 2010 в 13:37

        Логика работает в верном направлении. Но если всё было бы так просто, все бы делали именно так.

        Ответить

        • Max
          21 Мар 2010 в 19:06

          Все бы и делали, если бы знали откуда спарсить этот качественный и интересный пользователю контенты, да забыл, еще и уникальный :)

          Ответить

  28. Валера
    22 Мар 2010 в 10:05

    По данному запросу всего чуть более 200 сайтов. Невижу я там кучи уникального контента.(

    Ответить

  29. Admirus
    22 Мар 2010 в 17:26

    Просто уже многое разобрали:)) А вообще конечно кнопку бабло каждый придумывает сам и не думаю, что просто так за спасибо, да и за маленькие деньги кто-то отдаст. Как в песни у Трафима: «Нужно и самим что-то придумывать». А так ЮС молодец, хорошо пишет и почитав и сам больше начинаешь творить и созадать.

    Ответить

  30. Паскаль
    25 Мар 2010 в 15:14

    Больше интересует голосование за комментарии. Вот это прикольная штука! Тоже хочу такую, первый раз вижу.

    Ответить

  31. Alex
    25 Мар 2010 в 21:46

    Да зачем такие сложности. Яндекс и гугл отлично ест неукник контнет. Спалю к лету как заставить есть , а то ещё сам не наигрался.

    Ответить

    • Валера
      26 Мар 2010 в 15:48

      Ест то ест, но в большинстве случаев не пережевав выплевывает.)

      Ответить

    • evgen
      28 Мар 2010 в 7:27

      А яшку и заставлять не нужно. Стоит только говнецом завонять, и он тут как тут кушает и причмакивает, а еще и спасибо может сказать.

      Ответить

  32. Александр
    26 Мар 2010 в 23:16

    Красавчик, спору нет я тоже люблю гошу за его простоту и доступность.

    Ответить

  33. Сергей Терешков
    30 Мар 2010 в 14:32

    На счёт не уника не уверен. У меня недавно сайтик со 100% уникального контента из индекса вылетел, а тут неуник.

    Ответить

  34. klever2000
    11 мая 2010 в 19:13

    У меня другой вопрос начал искать сайты по данному методу, однако после проверки на индекс яндекса, все сайты были уже в индексе яши. Как это понимать?

    Ответить

  35. админ
    16 мая 2010 в 8:25

    Это получится говно-контент для гс. Лучше уже энцилопедию отсканить

    Ответить

  36. Артем
    12 Июн 2010 в 12:41

    Знаю я еще один способ получать контент без лишних телодвижений... Намекну) В интернете много разных файлов в форматах, которые поисковики не понимают. Дальше сами :-)

    Ответить

  37. Алексей
    30 Июл 2010 в 16:09

    Так это же воровство получается, кто-то писал текст, а его стащили... А если ставить обратную ссылку, от куда текст взят, то все по честному получается, так ведь? Или я не прав?

    Ответить

  38. Aleks-Gold
    28 Сен 2010 в 11:12

    Ок, сейчас буду готовить контект для сайта под сапу!

    Ответить

  39. Евгений
    04 Мар 2012 в 0:18

    Интересный способо, правда пока не нашёл ниодного сайта нормального, но поищу ещё:)) спасибо автору

    Ответить

  40. Гого
    29 Мар 2013 в 10:59

    Так Disallow Yandex в выдаче даёт всего лишь robots.txt разных сайтов, в которых закрыты от индексации страницы-дубли типа результатов поиска по сайту. Да и зачем веб-мастерам блокировать от яндекса свой контент??

    Или я что-то не догоняю?

    Ответить

  41. Андрей
    11 Апр 2013 в 22:35

    Информация, конечно, полезная, респект автору. Но на данный момент уник в ПС имеет меньший приоритет. Сейчас ПС смотрят на востребованность контента и скорость его публикации. Было у меня два сайта один уник из 300 страниц, другой копированный контент из 4000 страниц, конечно ссылки на первоисточники стоят везде, правда с соответствующим атрибутом. Уник продержался чуть больше года, другой живёт до сих пор и индексация страниц растёт постоянно. А счас я сделал другой сайт под базу другого сайта, т.е. тот же контент только оболочка другая, то яндекс начал его быстро индексировать, уже больше 1000 страниц. Вот вам и уник.

    Ответить

Ваш отзыв