Спасибо, лестно.
clean-param помогает боту яндекса отсекать дубли страниц, образующиеся от яндексовских примочек. Например, для отслеживания переходов из директа, (если я не путаю) в ссылку добавляется &yclid - это метка для метрики, отслеживающая переходы по контекстным объявлениям. Короче, для google bot это просто строчка, не имеющая значения. Все инструкции robots.txt роботы поисковиков выполняют по порядку. По хорошему, гуглобот заканчивает свою работу на строчке Sitemap в первом блоке инструкций. Далее инструкции идут уже для яндекс бота, которые гуглобот не должен исполнять. Именно поэтому сначала пишутся инструкции общие, для всех роботов, а потом уже конкретно для каждого интересующего. Поэтому и условия для Yandex bot пишутся после общих условий.
Оценить не могу, так как:
1. Я не гуру роботс - я просто стараюсь пользоваться информацией, на том же яндексе, анализировать ее и использовать
2. Есть подсказки в том же Яндекс.Вебмастер - ими я и пользуюсь.