Столько обсуждений простейшего вопроса... Ну все же описано на самом гугле.
Не попадает.
Ноуиндекс в роботс именно от этого и защищает - от переходов по внутренним ссылкам на мусорные страницы.
Чтобы не дергать сервер попусту, открывая миллион страниц фильтра.
НО - краулер может все равно прийти на страницу, закрытую в роботс, если на нее ведет внешняя ссылка.
Если бот попадает на страницу подобным образом, в обход роботс, признает её годной и индексирует, тогда и появляется предупреждение: "проиндексировано, хотя в роботс закрыто от сканирования".
Это не какая-то ошибка, это просто уведомление, чтобы владелец сайта обратил внимание, и, возможно, выбрал - оставить страницу в индексе или закрыть noindex-ом на самой странице.
И вот тут-то пригодится ноуиндекс в теге (если страницу и правда не надо индексировать). А можно проставить его заранее, на всякий случай
Также бот может и без внешних ссылок, по одному ему ведомым причинам решить, что страница очень нужная, и пойти ее индексировать любой ценой. Рассматривать этот вариант бесполезно, если боту чего в голову стукнуло, то и 20 ноуиндексов в любых местах его не остановят.