День добрый! вот сайт пациент
http://s-beton.com.ua/Суть в чём - связался с гнилой конторой, которая разместила полностью неоптимизированный сайт - в итоге приходится теперь всё разруливать самому.
В рузультате в индекс гугла попали дубли страниц со знаком вопроса например
http://s-beton.com.ua/3-beton_kiev?p=2 и
http://s-beton.com.ua/3-beton_kiev?p=3 . в итоге все деньги на копирайтера и СЕО-тексты пошли по "одному месту".
Был вариант закрыть индексацию в robots.txt страниц со знаком вопроса таким макаром:
Disallow: /*?
но тогда не индексируются товары, находящиеся на 2-3 страницах.
В инете нашёл решение с помощью функции preg_match
насколько я понял можно написать нечто в стиле
if (preg_match('/^(http|https|ftp)://s-beton.com.ua/*?*)) {
echo "tag=”noindex, follow";
} else {
echo "tag=”index, follow";
и разместить данные функции в шаблоне.
подскажите, как правильно. если кто-то сталкивался с данной проблемой)