Надо устранить проблему: найдены страницы-дубли с разными GET-параметрами
Цитирую письмо:
На вашем сайте
praktika-doma.ru некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров). Например,
example.com/tovary?from=m... дублирует
example.com/tovary. Из-за их обхода информация о важных для вас страницах может медленнее передаваться в поисковую базу, что может влиять на состояние сайта в поиске.
Вот примеры страниц и дублирующих их страниц с незначащими GET-параметрами:
keyword:
praktika-doma.ru/?matchty... praktika-doma.ru/?keyword... keyword:
praktika-doma.ru/?matchty... praktika-doma.ru/?keyword... keyword:
praktika-doma.ru/?matchty... praktika-doma.ru/?keyword... keyword:
praktika-doma.ru/?matchty... praktika-doma.ru/?keyword... keyword:
praktika-doma.ru/?matchty... praktika-doma.ru/?keyword... Если эти страницы действительно являются дублями, рекомендуем использовать директиву Clean-param в robots.txt, чтобы робот игнорировал незначащие GET-параметры и объединил все сигналы со страниц-копий на основной странице.