parser

Написать ответ на текущее сообщение

 

 
   команды управления поиском

Ответ

G_Z 05.02.2020 01:55 / 05.02.2020 01:57

Достаточно задать себе вопрос: приносит ли подобный текст пользу посетителю и честно на него ответить.

Генерированные тексты никто не читает и особого толку от них нет.
Вся рандомизация не привносит в текст ничего нового и давно выявляется методами слабого искусственного интеллекта.
Уже десять назад все писали генераторы текста с рандомизацией синонимами, их легко выявляет даже простой анализ шинглами.

Термины «ключи», «человечность», «безводность», «тошнотность» иже с ними давно пора забыть.
Прекрасно находятся даже страницы без прямых вхождений ключевых слов — благо в ПС давно работает анализ синонимов.

Фактически, нужно добиться популярности сайта у пользователя, а ПС не останется ничего, кроме как подстроиться.
Можно сделать говносайт с уникальным контентом, который вопреки всем рекомендациям будет стоять на первых местах, но технически качественному сайту, при прочих равных, занять эти места проще.
Писать руками 3750 страниц сумасшедших нет
Именно такие «сумасшедшие» и идут правильным, хоть и трудным, путём.
А остальной интернет ворует друг у друга кривые каталоги с одинаковыми ошибками в описании товаров.

У товара вполне может не быть текстового описания, но может быть качественно описанные ТТХ.

Если же у товара будет настоящий, специально о нём написанный текст — это много ценнее генерации любых масштабов.

Проблема не столько в контенте, сколько необходимости его генерировать и обновлять постоянно, в воровстве.
Что же, подход - некультурный?
Такой подход — ленивый, хоть и бывает вынужденным.
Любые хитрости такого плана выявляются в автоматическом режиме и страницы без затей получают пометку «некачественная».
При таком подходе - опасно? Серьёзно?
Я говорил об опасности генерации пустышек — страниц с несуществующими товарами и попытках ответа 200 на запросы к несуществующим страницам.

У ПС есть т. н. бюджет обхода, он зависит от размера сайта и других его качеств.
Больше этого количества URL (включая перенаправления) краулер не обходит и индексатору не передаёт.

Расход этого бюджета на мусор снижает частоту переиндексации полезных страниц, отодвигает, а то и исключает, момент попадания в индекс и выдачу новых страниц.
Не стоит генерировать для ПС лишнюю работу.

Генерация текста тоже не так безобидна как может показаться.
Добиться санкций вряд ли получиться, но снизить качество сайта, размыв полезные страницы вполне удастся.
Но самое плохое в ней — издевательство над посетителями.
Лично я на подобных сайтах не задерживаюсь.