Если ссылки на отдельные странички вашего вебсайта оформлены неверно, то поисковые машины в состоянии обнаруживать одинаковое содержание. Следствием этого может стать снижение эффекта от поисковой оптимизации ваших проектов.
Поисковые системы это всего лишь запрограммированные роботы, у которых своя цель. Обнаружат ли они повторяющееся содержимое на на вашем сайте, находится в зависимости от определённых причин. Как избавиться от вопросов, связанных с дублированным контентом? Ответ - старайтесь строго указать пауку поисковика что добавлять в индекс, а что не добавлять. Это делается с помощью директив в файле robots.Txt. Многие CMS без должного разрешения со стороны администратора сайта генерируют огромное количество идентичных по содержанию страниц, но разных по адресу. В конечном итоге в базе данных поисковика к примеру тысяча страниц интернет-сайта, но оригинальными по содержанию в глазах ПС будут только 200, например. Чем чревата такая ситуация? Очень часто поисковые системы стараются не ранжировать высоко сайты с таким количеством дубликатов. Порой довольно реализовать грамотную внутреннюю перелинковку и вебсайт выходит на высокие позиции в поиске без каких-то других ухищрений со стороны вебмастера. Хорошим примером грамотной навигации и как следствие неплохой индексации служит сайт nofollow.ru Следите за своими проектами, проверяйте, на сколько правильно они проиндексированы поисковыми системами чтобы избежать таких проблем.