- 1. Що таке дублі на сайті
- 1.1. типи дублікатів
- 1.2. Причини появи дублікатів
- 2. Чим небезпечні дублі сторінок з точки зору SEO
- 3. Як знайти дублі на сайті за допомогою підручних засобів
- 4. Як знайти дублі, використовуючи краулер
- Коротко про головне
Один з найважливіших аспектів технічної оптимізації сайту - відсутність дубльованого контенту або дублів. Це безпосередньо впливає на пошукове просування і позиції сайту в органічній видачі. Олександра металовироби, контент-маркетолог Netpeak Software, розповідає про те, що собою представляють дублі і як їх відшукати за допомогою різних інструментів.
1. Що таке дублі на сайті
Дублікати - це великі блоки інформації в рамках одного або декількох доменів, зміст яких або повністю збігається, або майже не відрізняється. Іншими словами, якщо один і той же матеріал доступний за двома різними адресами, це і є дублювання.
1.1. типи дублікатів
В рамках одного сайту можуть існувати такі типи дублів:
- повні дублікати сторінок (ідентичний HTML-код);
- дублікати тексту (вміст блоку <body>);
- дублікати Title (назви сторінки);
- дублікати Description (опису сторінки);
- дублікати H1 (головного заголовка).
1.2. Причини появи дублікатів
- Помилки в системі управління контентом (CMS). Якщо вона налаштована неправильно, в процесі створення нових сторінок або статей можуть автоматично генеруватися дублі.
- Генерація сторінок з одними і тими ж атрибутами, розташованими в різному порядку (наприклад, /? Id = 1 & cat = 2 і /? Cat = 2 & id = 1).
- Версії сторінок сайту для друку, не закриті від індексації.
- Чи не налаштована переадресація (301 редирект) після переїзду сайту з протоколу http на https. Це стосується і відсутнього редиректу на головне дзеркало сайту. Наприклад, коли сайт доступний за адресою з www. і без нього, з слешем в кінці і без нього.
- Неправильне налаштування і автоматична генерація посилань в процесі роботи сайту.
- Випадкове дублювання сторінки або статті вебмастером або контент-маркетологом.
- Зміна структури сайту, внаслідок якої сторінок присвоюються нові адреси, а старі будуть збережені.
- На сайті використовуються «швидкі» мобільні версії сторінок, з яких не виставлено Canonical на основні версії.
2. Чим небезпечні дублі сторінок з точки зору SEO
Наявність дублікатів на сайті - один ключових чинників внутрішньої оптимізації (або її відсутності), який вкрай негативно позначається на позиціях сайту в органічній пошукової видачі. Дублі спричиняють кількох проблем, пов'язаних з оптимізацією.
- Проблеми з індексацією.
При великій кількості дублів пошукові роботи в силу обмеженого краулінгового бюджету можуть не проіндексувати потрібні сторінки. Також є ризик того, що сайт буде пессімізірован, а його краулінговий бюджет - урізаний. - Проблеми з видачею пріоритетною сторінки в органічному пошуку.
За рахунок дублів в пошукову видачу може потрапити не та сторінка, просування якої планувалося, а її копія. Є й інший варіант: обидві сторінки будуть конкурувати між собою, і жодна з них не виявиться у видачі. - «Розпилення» посилального ваги. Вага сторінки сайту - це своєрідний рейтинг, виражений в кількості і якості посилань неї з інших сайтів або інших сторінок всередині розглянутого сайту. При наявності дублів контрольний вагу може переходити нема на єдину версію сторінки, а ділитися між її дублікатами. Таким чином, всі зусилля по зовнішньої оптимізації та лінкбілдінгу виявляються марними.
3. Як знайти дублі на сайті за допомогою підручних засобів
- Перевірити, яка версія сайту відображається після введення адреси з слешем і без нього, з www. і без www. , А також з протоколами http і https. Якщо сайт не пересилає вас на якусь одну версію сайту, то можете не сумніватися - на кожну зі сторінок доводиться кілька дублів.
- Подивитися в настройках движка, що не дозволені всередині сайту динамічні посилання.
- Перевірити, чи є на сайті матеріали, одночасно доступні за двома різними адресами. Така ситуація можлива у випадках, якщо, наприклад, адреса статтi має вигляд site.com/category-1/article-1, а на ділі вона одночасно належить до категорій category-2 і category-5.
- Зайти в Google Search Console і з'ясувати, чи не виявила чи система дублі на вашому сайті.
- Перевірити сайт на наявність дублів за допомогою пошукових операторів Google. За допомогою оператора site: example.com ви обмежуєте пошук виключно сторінками свого сайту, а такими операторами як intitle обмежуєте область пошуку певним структурним елементом сторінки. Приклад застосування: site: blog.ringostat.com intitle: »Як знайти дублі».
На жаль, описані вище методи не гарантують розуміння точного числа дублікатів, особливо якщо мова йде про часткові дублях, таких як дублікати вмісту Meta Description і заголовка H1.
4. Як знайти дублі, використовуючи краулер
Для пошуку всіх існуючих видів дублів всередині сайту ви можете використовувати краулер, наприклад, Netpeak Spider . Програма виявить дублікати на сайті і ідентифікує їх як помилки середньої і високої критичності.
Для пошуку дублікатів необхідно виконати ряд послідовних дій.
- Запустіть Netpeak Spider.
- Відкрийте меню «Параметри» і виберіть розділ «Просунуті».
- Відзначте всі пункти блоку «Враховувати інструкції по індексації», а також пункт «Враховувати Rel Next / Prev». Ці настройки гарантують, що дублі, завбачливо приховані за допомогою пошукових інструкцій і усунуті з атрибутом Canonical, не з'являться в результатах сканування. Якщо приховані вами дублі все ж виявляться в списку сторінок з помилками, ви зможете звернути на них увагу і виправити проблему.
- Збережіть налаштування, натиснувши «ОК».
- У рядку з початковим URL введіть адресу сайту. Натисніть кнопку «Старт», щоб почати інсталяцію.
- Після завершення сканування всі виявлені помилки, в тому числі - пов'язані з дублікатами, відобразяться на бічній панелі на вкладці «Звіти» → «Помилки». Клацніть по назві цікавить помилки, щоб відфільтрувати результати і побачити тільки список сторінок, на яких вона присутня.
- Для вивантаження результатів даної таблиці з відфільтрованими результатами в меню «Експорт» виберіть «Результати в поточній таблиці». Якщо вас цікавлять всі сторінки з помилками, в тому ж меню можна вибрати «Все помилки».
Коротко про головне
Дублювання контенту - як цілих сторінок, так і вмісту окремих метатегов всередині них - входить в число факторів, які чинять негативний вплив на SEO і позиції сайту в органічному пошуку. Регулярне сканування сайту на предмет наявності дублікатів та усунення дубльованого контенту - справа першорядної важливості для кожного SEO-фахівця і вебмастера.
Шукати дублікати можна вручну, задіюючи пошукові оператори і Google Search Console. Але краще робити цю процедуру систематично за допомогою потужного краулер, такого як Netpeak Spider. Він допоможе знайти всі можливі види дубльованого контенту всередині сайту, а також визначить ступінь критичності наявності тих чи інших дублів.