Автор Тема: Просьба помочь по дублям страниц в престашоп  (Прочитано 5829 раз)

25 Июнь 2015, 10:05:07
Ответ #15
  • Партнер
  • Старожил
  • ****
  • Сообщений: 313
  • Репутация: +13/-0
  • SEO оптимизация сайтов, интенет-магазинов.
    • Просмотр профиля
В инструментах вебмастера можно проверить.
prices-drop, new-products, best-sales не нужно закрывать.
Поисковая оптимизация, SEO  оптимизация сайтов, интенет-магазинов.  Работа на результат –  вывод в топ, увеличение посещяемости и увеличение продаж.
25 Июнь 2015, 13:35:20
Ответ #16
  • Фрилансер
  • *
  • Сообщений: 237
  • Репутация: +0/-0
  • Сообщество PrestaShop
    • Просмотр профиля
В инструментах проверял, страницы, которые создает фильтр, доступны для роботов это нормально?
25 Июнь 2015, 13:39:52
Ответ #17
  • Фрилансер
  • *
  • Сообщений: 237
  • Репутация: +0/-0
  • Сообщество PrestaShop
    • Просмотр профиля
И страницы пагинации тоже разрешены вот такиеhttp://leonsvet.ru/514-khrustalnye-lyustry#/page-2/price-3147-133180
25 Июнь 2015, 16:20:18
Ответ #18
  • Партнер
  • Старожил
  • ****
  • Сообщений: 313
  • Репутация: +13/-0
  • SEO оптимизация сайтов, интенет-магазинов.
    • Просмотр профиля
Нужно или закрыть страницы пагинации и фильтров, или сделать для них разные навзания, описание, текст. Иначе будут дубли.
В этой ветке есть темы как закрывать или менять заголовок.
Поисковая оптимизация, SEO  оптимизация сайтов, интенет-магазинов.  Работа на результат –  вывод в топ, увеличение посещяемости и увеличение продаж.
26 Июнь 2015, 00:02:08
Ответ #19
  • Фрилансер
  • *
  • Сообщений: 237
  • Репутация: +0/-0
  • Сообщество PrestaShop
    • Просмотр профиля
Читал все предыдущие сообщения, читал сообщения, на которые ссылался PrestaMan , НО либо я ничего не понял..либо не знаю что)))
Так вот, на сколько я понял две строчки в robots.txt Disallow:/*n=
Disallow:/*p=
должны закрыть от поисковиков все страницы пагинации, но! в вебмастере яндекса, анализ роботс я загружаю содержимое с этими двумя строчками, потом захожу на свой сайт, перехожу в категорию и на вторую страницу, и копирую адрес (он у меня получается вместе с прайсом) http://leonsvet.ru/514-khrustalnye-lyustry#/page-2/price-3147-9356 и проверяю через ВМ, он говорит что доступ разрешен! Далее я проверил и без прайса, и без решетки, т.е. вот эти строчки http://leonsvet.ru/514-khrustalnye-lyustry#/page-2
http://leonsvet.ru/514-khrustalnye-lyustry/page-2
далее я в роботс дописал конкретно Disallow:/*page-2 и снова доступ к http://leonsvet.ru/514-khrustalnye-lyustry#/page-2 разрешен, но! если убрать http://leonsvet.ru/page-2 то доступ уже запрещен! Потом немного подумав я дописал в роботс Disallow:/514-khrustalnye-lyustry/price-3147-133180, но так он запрещает доступ как и к http://leonsvet.ru/514-khrustalnye-lyustry так и к http://leonsvet.ru/514-khrustalnye-lyustry#/price-3147-133180
как мне написать то? если не трудно, напишите пожалуйста пример один
26 Июнь 2015, 01:00:19
Ответ #20
  • Фрилансер
  • *
  • Сообщений: 237
  • Репутация: +0/-0
  • Сообщество PrestaShop
    • Просмотр профиля
мне кажется дело в этой решетке, тк, если Disallow:*page* то закрывается страница xxx.xx/xxx/page-2, но моя xxx.xx/xxx#/page-2 открыта
26 Июнь 2015, 09:37:56
Ответ #21
  • Ветеран
  • *****
  • Сообщений: 1808
  • Репутация: +49/-1
  • Сообщество PrestaShop
    • Просмотр профиля
мне кажется дело в этой решетке, тк, если Disallow:*page* то закрывается страница xxx.xx/xxx/page-2, но моя xxx.xx/xxx#/page-2 открыта
Disallow: /*#/page*
26 Июнь 2015, 23:23:10
Ответ #22
  • Фрилансер
  • *
  • Сообщений: 237
  • Репутация: +0/-0
  • Сообщество PrestaShop
    • Просмотр профиля
Такая строчка закрывает доступ вообще ко всему сайту
27 Июнь 2015, 11:08:22
Ответ #23
  • Партнер
  • Старожил
  • ****
  • Сообщений: 313
  • Репутация: +13/-0
  • SEO оптимизация сайтов, интенет-магазинов.
    • Просмотр профиля
Удалите повторяющиеся директивы. Знак вопроса не нужен. Для контроллеров используйье "*controller=" Указываете правлила на запрещение, разрешения не используйте. В конце файла указываете карту сайта
Disallow: /*orderby=
Disallow: /*orderway=
Disallow: /*controller=addresses
Disallow: /*controller=address
Host: хххххх
Sitemap: http://хххххх/1_index_sitemap.xml

Отключите чпу. Проверьте адрес страницы при постраничной навигации и с фильтрами.
Поисковая оптимизация, SEO  оптимизация сайтов, интенет-магазинов.  Работа на результат –  вывод в топ, увеличение посещяемости и увеличение продаж.
27 Июнь 2015, 11:19:37
Ответ #24
  • Партнер
  • Старожил
  • ****
  • Сообщений: 313
  • Репутация: +13/-0
  • SEO оптимизация сайтов, интенет-магазинов.
    • Просмотр профиля
Disallow: /*#/page*
Не правильно, знак решетки это комментарий. Это все равно, что
Disallow: /*Так будет закрыт весь сайт. Для закрытия параметров в url нужно использовать адреса на контроллерах.
Поисковая оптимизация, SEO  оптимизация сайтов, интенет-магазинов.  Работа на результат –  вывод в топ, увеличение посещяемости и увеличение продаж.
27 Июнь 2015, 12:30:18
Ответ #25
  • Партнер
  • Ветеран
  • ****
  • Сообщений: 1146
  • Репутация: +338/-0
  • Job-Freelance - работа для специалистов PrestaShop
    • Просмотр профиля
    • Job Freelance - удаленная работа программистам, веб-мастерам и дизайнерам
Янус, вопрос актуальный. В новой версии prestashop используют знак решетки. Закрыть такие страницы с помощью robots.txt не получается. Вопрос, что можно сделать для удаления фильтров, страниц и прочих параметров из индексации?
Job Freelance - предложения от европейских работодателей для  программистов, веб-мастеров и дизайнеров - специалистам по Magento и PrestaShop.
27 Июнь 2015, 13:34:28
Ответ #26
  • Партнер
  • Старожил
  • ****
  • Сообщений: 313
  • Репутация: +13/-0
  • SEO оптимизация сайтов, интенет-магазинов.
    • Просмотр профиля
Янус, вопрос актуальный. В новой версии prestashop используют знак решетки. Закрыть такие страницы с помощью robots.txt не получается. Вопрос, что можно сделать для удаления фильтров, страниц и прочих параметров из индексации?
Это общеизвестная проблема,  дубли страниц, из-за которых страницы теряют вес и уникальность, подрывают доверие поисковиков к сайту. Все это ведет к проседанио в поисковой выдаче и ваш сайт попадёт под фильтр АГС. В prestashop 1.6 robots.txt уже не помогает бороться с дублями.  В обще-то,  я думаю, что robots.txt не для борьбы с дублями страниц. Для этого нужно правильно использовать схему чпу. Закрытие дублей должно быть на уровне ядра системы.
Поисковая оптимизация, SEO  оптимизация сайтов, интенет-магазинов.  Работа на результат –  вывод в топ, увеличение посещяемости и увеличение продаж.
27 Июнь 2015, 15:37:01
Ответ #27
  • Партнер
  • Ветеран
  • ****
  • Сообщений: 1146
  • Репутация: +338/-0
  • Job-Freelance - работа для специалистов PrestaShop
    • Просмотр профиля
    • Job Freelance - удаленная работа программистам, веб-мастерам и дизайнерам
На уровне ядра это не реально. Переделка движка не выход. Может есть модули для этого?
Job Freelance - предложения от европейских работодателей для  программистов, веб-мастеров и дизайнеров - специалистам по Magento и PrestaShop.
27 Июнь 2015, 16:54:17
Ответ #28
  • Фрилансер
  • *
  • Сообщений: 237
  • Репутация: +0/-0
  • Сообщество PrestaShop
    • Просмотр профиля
опять я ничего не понял) так как быть то?
03 Июль 2015, 17:24:24
Ответ #29
  • Фрилансер
  • *
  • Сообщений: 237
  • Репутация: +0/-0
  • Сообщество PrestaShop
    • Просмотр профиля
если так не получается, как еще можно закрыть дубли?