Интернет

На сайте начали появляться дополнение к ссылкам типа

На сайте начали появляться дополнение к ссылкам типа - /?etext=2202.woYk_hIuTATjQ7sPfRDCdCEFDY-HH-YD7bqSHglOuXvt3iSBkl2WZzlEOmHi2opf2_K_4Becxp5LPrbzGoSs18qm-54zVCbkUr40VcSvtxVhYnd2bndodGJ3emduYWpy.f8255b875daf628611ac7f0100eda3869fb7c3bc

Где ?etext=2202 - везде статично, остальное рандом.
Никак не могу понять, откуда они формируются. Раньше их не было.
Предположу, что это простой GET запрос, не взлом, а попытка создать дубли страниц, если у вас не настроена rel canonical, то будут появляться дубли в выдаче вот с такими ссылками. Закрывайте эти страницы для индексации уже сейчас, прописывайте тег canonical для каждой страницы. Либо вносите в Роботс тхт Disallow: /*etext=2202
Это один из вариантов, а возможно что-то парсят.
МБ
Михаил Баринов
437
Лучший ответ
Какой clean-param?! А завтра появится etext2, 3 и т.д... Тоже добавлять?! Canonical есть, но робот Яндекса, по ходу, игнорирует. А Гугл - нет. Например, вот сайт: https://mtg-biz.ru/
Ulan Imeshov
Ulan Imeshov
877
С помощью Clean Param, в этой статье дается ответ https://willday.ru/blog/dubli-stranits-s-parametrom-etext-v-url-kak-izbavitsya/
Таже самая проблема. В поисках ответа увидел эту тему. В Яндесе куча таких ссылок даже у авторитетных сайтов (такском, еаптека...). Пишите решение кто найдет, в рунете его пока нет.
Александр, тоже сделал дислоу в роботсе, но кто мешает сделать запросы не 2202, а другой набор цифр.... так и роботса не хватит. Каноникал вариант, но если так легко дубли создаются, то их и лярды накрутить можно.
Alexsander Gruzdev
Alexsander Gruzdev
741
Nurbolat Karimov Сделайте просто Disallow: /*etext=
За себя скажу, что не парюсь, так как тег каноникал пока не подводил, дубли, с момента установки Canonical не находил в Псах.
К слову, кому-нибудь может пригодиться, если не видели, у Яндекса есть рекомендация, как с такими дублями и GET запросами работать: https://webmaster.yandex.ru/blog/kak-obnaruzhit-dubli-stranits-na-sa
в robots.txt запись Clean-param: etext добавить никак нельзя у кого плагин All in One SEO, разработчик сказал что К сожалению, через All in One SEO нельзя добавить директиву clean-param, и мы не планируем добавлять эту опцию.
как быть тогда? как добавить? плагин менять не хочется, привык к нему
в robots.txt
Disallow: /*?etext
Disallow: /*?etext* - так правильнее.
Ирина Максимова Смысловая * - по умолчанию стоит в конце каждой строки, даже если ее не прописывать вручную. Ваш вариант - излишен
добавьте в robots.txt
Clean-param: etext
Добрый день, в этой статье подробно разобрано https://willday.ru/blog/dubli-stranits-s-parametrom-etext-v-url-kak-izbavitsya/ и решение есть
Тоже такая ерунда. Скорее всего проблема на клиентском пк. Либо вирусня, либо какие-то плагины отслеживания.
Поддержка Вебмастера ответила, что о таких ссылках роботу стало известно из обходов по счетчикам Яндекс Метрики, то есть, после их посещения пользователями. Откуда же пользователям стали известны такие ссылки, они сказать затруднились. Рекомендовали включит а robots.txt запись Clean-param: etext
Я еще думаю, что дополнительно можно отключить обход по счетчикам, если он включен в Вебмастере. Возможно временно, до момента пока они не разберутся и не устранят этот баг.
Причем в вебвизоре явно видно, что этот параметр etext добавляется при переходе на сайт из поиска yandex. У меня это были переходы по рекламе директа.
Я закрыл через Clean-Param, сразу тонна этих дублей страниц убралась

Похожие вопросы