Ребята, подниму тему. По добавлял товара, на странице в категории отображается 15 товаров, поэтому появились странички 1, 2, 3... Гугл проиндексировал их, а именно shop.kherson-holod.com.ua/kondicionery?page=2 ! Надо ли это? Или запретить Disallow: /*?page ? Срочно! Еще Хелп! Гугл также проиндексировал страницы поиска товара shop.kherson-holod.com.ua/search.html?filter_tag=Cooper-Hunter%20CH-S09SRP Что с этим делать!? Или это нормально?? Я вообще пока поддомен не добавлял в поиск для Гугла, да и не собираюсь. Просто перезалью сайт с поддомена в домен(там сейчас старый сайт) че он его подхватил? Может вообще пока в Роботс прописать запреты на индексацию??? Буду очень признателен за любую помощь!!!
Это ссылки на страницы в категориях, решение это проблемы пока не нашел, если сделаешь Disallow: /*?page ?, он страницы в категории листать не будет. --- добавлено: Jan 25, 2013 7:34 AM --- А вообще я нашел решение по ридиректу всех ссылок через вот такой пример Код: Удаление дублей страниц Простейший и в то же время чаще всего необходимый трюк – редирект дублей одной и той же страницы на основной ее адрес. Яркий пример – главная страница любого сайта обычно доступна по 4-ем адресам: http://www.site.ru/ http://site.ru/ http://www.site.ru/index.html http://site.ru/index.html Каждый из перечисленных выше вариантов распознается поисковыми системами как самостоятельная страница, отсюда идет дублирование контента одной и той же страницы по нескольким адресам, что не есть хорошо. Решение этой проблемы предельно простое и выглядит так: Options +FollowSymLinks RewriteEngine on RewriteCond %{HTTP_HOST} ^site.ru RewriteRule (.*) http://www.site.ru/$1 [R=301,L] RewriteCond %{THE_REQUEST} ^[A-Z]{3,9}\ /index\.html\ HTTP/ RewriteRule ^index\.html$ http://www.site.ru/ [R=301,L] Таким образом, мы получим редирект всех страниц-дублей на http://www.site.ru/
Вот мой: Код: User-agent: * Disallow: /search/ Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /admin Disallow: /catalog Disallow: /download Disallow: /login/ Disallow: /shopping-cart/ Disallow: /compare-products/ Disallow: /forgot-password/ Disallow: /create-account/ Disallow: /system Disallow: /*sort* Disallow: /*limit* Disallow: /*filter* Disallow: /*tracking* Host: site
Скажите пожалуйста, может вообще пока в Роботс прописать запреты на индексацию всего сайта??? Потому что сайт пока что наполняется! Сайт стоит на поддомене(то есть потом переедет на другой адрес-чистый домен). Потом ведь будут другие пути(ссылки) на товары! Может включить Режим обслуживания сайта в Админке(Отключает магазин для посетителей. Им будет показано сообщение о том, что магазин находится на обслуживании. Магазин не отключается только для администратора.) Что посоветуете?
Сегодня смотрел выдачу гугла.. смотрю он индексирует закрытые страницы с ?limit= . При этом пишет: Описание веб-страницы недоступно из-за ограничений в файле robots.txt.Подробнее.. Это на что-то влияет?