В частности, один из веб-мастеров поинтересовался у Джона Мюллера, будет ли достаточно для этой цели использовать команду disallow в файле robots.txt? Ответ официального представителя Google оказался довольно обширным: «Необходимо понимать одну простую вещь. Блокировка страниц в robots.txt не дает полной гарантии. Может случиться так, что на заблокированные таким образом страницы с других сайтов кто-то будет ссылаться.
В этом случае для нас факт внешней ссылки приоритетен. Следовательно, вполне возможен вариант, когда мы, перейдя по такой ссылке, проиндексируем страницу, которую вы якобы закрыли в файле robots.txt. И если эта страница, скажем, пустая (некачественная), то это не пойдет на пользу сайту.
Учитывая сказанное, я бы рекомендовал использовать мета-тег noindex вместо команды disallow. Перейдя по внешней ссылке и обнаружив указанный тег, Google не станет индексировать ее содержимое. Страница будет навсегда исключена из процесса индексации. Пока noindex не будет отменен».
Вопрос и ответ на него в оригинале можно прослушать на видео, начиная с отметки 24:36.