Данный подход будет особенно полезен для сайтов, имеющих множество целевых страниц каталога и крайне актуально, если страницы с фильтрацией доступны для индексации, так как это может привести к образованию большого количества страниц дублей.
1. Сначала нам нужно будет собрать необходимые страницы для анализа с помощью парсинга.
Затем следует экспортировать файл, ограничившись перечнем URL и заголовками H1. Для этой задачи отлично подойдет программа Screaming Frog.
2. Далее нам понадобится сервис KeySo. Переходим в раздел меню “Запросы” и выбираем “Чистка неявных дублей”. В поле “Список поисковых фраз” вставляем заголовки H1 из нашего файла и нажимаем на кнопку “Обработать”.
В блоке “Исключено” будут перечислены неявные дубли. Копируем сформированный список и вставляем его в конце столбца H1 нашего ранее выгруженного файла, после чего выделяем повторяющиеся значения. Таким образом, мы получим перечень страниц с неявными дублями.
3. Следующий шаг — вынести в отдельный файл все найденные дубли страниц, включая оригинальную страницу и ту страницу, которая была найдена в процессе анализа неявных дублей.
Затем необходимо определить релевантную страницу и выбрать подходящий метод устранения дублирующихся страниц, например, с помощью 301 редиректа или атрибута rel=”canonical”.
Проверьте ваш сайт на наличие неявных дублей страниц — вы можете обнаружить дубли, о которых даже не подозревали.