1. С твоими дублями лучше разобраться с помощью вот этого модуля http://www.opencart.com/index.php?route=extension/extension/info&extension_id=4085
Не пожалей денюжку и купи. С его помощью ты избавишься от дублей типа site.ru/category1/tovar-00001, site.ru/category2/tovar-00001, site.ru/tovar-00001 а robots.txt пусть будет твоим страховочными вариантом в борьбе с дублями. Так поисковику намного легче будет индексировать то, что ты хочешь.
2. Слишком большой robots.txt не есть хорошо. Насколько я знаю, есть определенный лимит строк, который воспринимают поисковые роботы (уже не помню сколько). У меня, например, на сайте проще перечислить то, что нужно индексировать, чем запрещать, поэтому у меня такой небольшой роботс
User-agent: * - алгоритм касается всех роботов
Disallow: / - сначала запрещаю индексацию всего сайта
Allow: /$ - затем разрешаю индексацию главной страницы
Allow: /katalog-tovarov - далее разрешаю индексировать категорию katalog-tovarov и все, что в ней находится
Disallow: /katalog-tovarov/*?* - но при этом запрещаю индексировать динамические страницы
Disallow: /katalog-tovarov/*&*
Disallow: /katalog-tovarov/*php*
Disallow: /katalog-tovarov/novinki/* - и еще запрещаю индексировать товары, находящиеся в подкатегории novinki, так как там повторяются некоторые товары из категории katalog-tovarov, а это дубли
Allow: /kak-zakazat - разрешаю индексировать информационные страницы
Allow: /oplata-i-dostavka
Allow: /garantii
Allow: /otzyvy
Allow: /blog
Allow: /akcii
Allow: /kontakty
Allow: /sitemap.xml - разрешаю индексировать сайтмэп
Вот с этой связкой у меня нет проблем ни с гуглом ни с яндексом