Директива Clean-param для исключения индексации дублей

Ссылка на работу
Пропишу директиву Clean-param в robots.txt Кворк необходим, если в Яндекс. Вебмастере возникла критическая ошибка "Найдены страницы-дубли с GET-параметрами", рекомендуется применить директиву Clean-param в robots.txt В вебмастере проверю корректность закрытия ссылок. После выполнения мною задачи, Вам необходимо необходимо отправить на проверку, длительностью около 14 дней. В зависимости от объема страниц, процесс исправления может продолжаться несколько недель (это зависит от поисковой системы). Сдача и приемка заказа происходит не дожидаясь окончания процесса замены ссылок в индексе. Внимание! Для 100% результата (чтобы страница выпала из индекса и директива сработала, нужно сделать страницу неканонической (та что без ? oid, например). Нужно для заказа: Адрес сайта Доступ в Яндекс. Вебмастер для пользователя int-net-partner. ru@yandex. ru Доступ к метрике для вышеуказанной почты. Доступ к файлам сайта FTP или через файловый менеджер хостинга.