Представитель Google Джон Мюллер рассказал в своём Твиттере о том, что Google не может индексировать страницы, запрашивающие включение Cookies.
Для того, чтобы индексация состоялась, пользователю нужно “отключить зависимость” страницы от cookie-файлов.
Для многих вебмастеров это не новость, так как Google неоднократно говорили о том, что система может сканировать только “чистые” сайты. Однако теперь стало понятно, что поисковик умеет распознавать страницы, требующие включённых Cookies.
Разговор Мюллера с пользователем:
@jakebohall
@JohnMu Можете поделиться какими-то примерами ситуаций, когда Googlebot использует Cookies? Не смог найти никакой информации об этом, кроме того, что Google WRS старается их чистить...
@JohnMu
Мы практически никогда их не используем. Если вам нужна поддержка Cookies для просмотра страницы, то, скорее всего, не рассчитывайте на то, что мы сможем её проиндексировать. Лучше уберите этот параметр (отключите зависимость от таких файлов), так как с ним у нас вряд ли что-то получится :-).
Также Джон Мюллер рассказал ресурсу Reddit следующее: “...несмотря на то, что Googlebot, как правило, не сохраняет Cookies, иногда он может использовать их”. Речь шла о кастомизации контента и добавления в него новых элементов.