Czy wiesz, że zawartość witryn oraz treść, jaka znajduje się na Twojej stronie internetowej to jeden z głównych czynników rankingowych? Unikalne i dobrze zoptymalizowane opisy kategorii, podstron bądź produktów, a także merytoryczne artykuły eksperckie na blogu to zdecydowana podstawa w drodze do osiągnięcia wysokich pozycji w wynikach wyszukiwania, a co za tym idzie relatywnych sukcesów w biznesie.
Thin Content to termin, z którym w content marketingu spotykamy się dość często. Rozumienie jego znaczenia nie tylko pod względem teorii, lecz także praktyki, to kwestia niezwykle istotna i mająca duży wpływ na pozycjonowanie. Przeczytaj mój poradnik i dowiedz się, czym jest thin content, a także jak dokonać analizy treści, by go odnaleźć. ?
Algorytm Panda i rewolucja w świecie content marketingu...
Aby odpowiednio zobrazować Wam znaczenie thin contentu w marketingu treści, zacznę od podstaw. Osoby, które z marketingiem internetowym związane są od dawna, po przeczytaniu powyższego nagłówka z pewnością świadome są powagi sytuacji. Dla tych, którzy nie do końca wiedzą, o co chodzi, przygotowałam małą podróż w czasie...
23 lutego 2011 roku, to właśnie wtedy oficjalnie wprowadzony został algorytm Panda. Początkowo działał on jako filtr i nie stanowił części algorytmu głównego. Włączenie do algorytmu głównego nastąpiło 5 lat później, w styczniu 2016 roku.
Algorytm o dość przyjaznej i sympatycznej nazwie uczynił spore zamieszanie w świecie marketingu internetowego. Jego głównym celem była walka ze spamem i nieuczciwymi technikami pozycjonowania. Witryny, które w owym czasie stroniły od nieetycznych form publikacji treści — zostały docenione przez roboty, co owocowało zwiększeniem widoczności tych witryn w wynikach wyszukiwania, natomiast strony o niskiej jakości, które nie spełniały kryteriów Google, w dużej mierze zostały ukarane. Na takowe serwisy, w skrajnych przypadkach nakładane były kary, które skutkowały usunięciem witryny z indeksu Google.
Od momentu zaistnienia tego algorytmu, udostępniany content powinien być w pełni unikalny i wartościowy pod względem merytorycznym, stanowiąc swoistą wartość dla odbiorcy.
W początkowym okresie aktualizacje Pandy wprowadzane były średnio co miesiąc. Od roku 2013, przebiegają w połączeniu ze zmianami w algorytmie głównym, co sprawia, że dużo trudniej powiązać je konkretnie z Pandą.
Czym właściwie jest thin content?
To content niskiej jakości publikowany w obrębie witryny. Mogą być to treści posiadające liczne błędy merytoryczne, językowe i składniowe, nieprzekazujące żadnej konkretnej wartości, a także duplicate content oraz treści generowane w sposób automatyczny za pomocą synonimizatorów.
Bardzo częstym błędem jest również ukrywanie treści na stronach www (Cloaking) - co prawda tekst jest wówczas niewidoczny dla użytkownika, jednak roboty wyszukiwarek widzą go doskonale — co jest niezgodne z wytycznymi wyszukiwarki Google i może w negatywny sposób wpłynąć na pozycjonowanie witryny i obniżenie jej wartości w rankingu.
Oto kilka głównych działań, których powinniśmy się wystrzegać:
- tworzenie niskiej jakości stron lub generowanie ich automatycznie,
- udostępnianie treści krótkich, posiadającej błędy merytoryczne i wykazującej się niską wartością dla użytkownika,
- publikowanie treści wprowadzających w błąd, gdzie znajdują się nieaktualne lub niezgodne z prawdą informacje,
- duplicate content — kopiowanie i powielanie treści zaczerpniętych z innych stron,
- nienaturalne upychanie słów kluczowych na siłę,
- Cloaking- ukrywanie treści na stronie,
- Doorway — strony przejściowe.
Thin content a SEO
Google chce dostarczyć użytkownikom treści najwyższej jakości, spełniającej oczekiwania odbiorcy. Największym zagrożeniem wynikającym ze stosowania nieodpowiednich praktyk w przypadku tworzenia treści jest spadek oceny strony i znaczący spadek widoczności w wynikach wyszukiwania, a także wzrost współczynnika odrzuceń. Roboty Google bardzo wnikliwie sprawdzają Twoją stronę, dlatego nie ma co do tego wątpliwości, że zaistniałe nieprawidłowości zostaną wychwycone. Treści niskiej jakości potraktowane zostaną jako opisywany thin content, a podejmowane działania w celu pozycjonowania strony www nie przyniosą oczekiwanych efektów.
Thin content, będzie miał również ogromne znaczenie w przypadku zachowań użytkowników na stronie www. Podobnie jak roboty Google, Internauta odwiedzający Twoją stronę jest w stanie szybko zweryfikować czy udostępniona zawartość sprosta jego oczekiwaniom, a także czy przekazuje wartość, jakiej on sam oczekuje.
Przykładowo, temat, który opisujesz na swoim blogu, z całą pewnością został poruszony gdzieś indziej, zastanów się zatem czy nie warto poświęcić mu nieco więcej czasu, zebrać wszystkie dane i stworzyć wyczerpujący artykuł, który w 100% sprosta oczekiwaniom odbiorców.
Nasycenie słowami kluczowymi
Błędem w pozycjonowaniu jest zarówno zbyt małe nasycenie treści słowami kluczowymi oraz frazami long tail, jak i szpikowanie treści frazami upychanymi na siłę. Prym wiedzie tutaj naturalność. Owszem treści powinny zawierać określone słowa kluczowe, jednak ich wstawianie w danym miejscu powinno być w pełni uzasadnione, zgodne z praktykami SEO oraz poprawnością językową.
Zobacz także artykuł "Jak pisać teksty SEO, które będą wysoko niezależnie od zmian w Google?"
Ukryta treść na stronie
Cloaking, czyli prościej mówiąc ukrywanie treści na stronie internetowej, to często stosowane, celowe działanie, zadaniem którego jest "pomoc" w optymalizacji strony internetowej. Nieprzypadkowo słowo "pomoc" zawarłam w cudzysłowie. Ukrywanie treści na stronie, to jedno z nieetycznych działań Black Hat SEO. Być może, w początkowym etapie realizacji działanie to przyniesie oczekiwane efekty, jednak nie ma się co łudzić, że utrzymają się ona na dłużej. Google z pewnością wychwyci nieprawidłowość, a radość z efektów pryśnie niczym bańka mydlana ?.
Thin Content i duplicate content w sklepach internetowych
Thin content bardzo często pojawia się w przypadku dużych stron internetowych, w tym branży e-commerce. Mnogość dostępnych produktów sprawia, że bardzo często publikowane są opisy z zastosowaniem jedynie pojedynczych specyfikacji danego produktu. W swojej pracy bardzo często spotykam się z duplikacją treści w obrębie jednej lub wielu domen. Najczęściej jest to nieświadome działanie, wynikające z niewiedzy. Duże witryny typu e-commerce, bardzo często mają problem z wymyśleniem wysokiej jakości treści na wszystkich swoich stron, a zwłaszcza dla tysięcy stron produktów.
Błędem, który bardzo często pojawia się w przypadku sklepów internetowych, jest - kopiowanie treści opublikowanych na stronach producenckich. Pomimo iż opis udostępnionego produktu będzie niemal identyczny, warto zadbać, aby na Twojej stronie pojawiła się treść unikalna, zawierająca tę samą wartość, podaną jednak w zmienionej formie.
Często do czynienia mamy również z zewnętrznym powielaniem treści, przykładowo, takie same opisy znajdują się na wielu stronach aukcyjnych, ogłoszeniowych itd. Pamiętajmy więc, aby każda udostępniana przez nas treść była unikalna.
Jak znaleźć bezwartościowe podstrony?
Screaming Frog SEO Spider
Narzędzie Screaming Frog dostępne jest zarówno w wersji darmowej, jak i płatnej. Wersja okrojona pozwala na analizę 500 podstron, co w przypadku większych stron internetowych w tym sklepów online może okazać się niewystarczające.
Dzięki płatnej wersji Screaming Frog SEO Spider możemy dokonać następujących analiz:
- wyszukiwanie pustych kategorii w sklepie internetowym,
- odnajdywanie kategorii/podstron bez opisu,
- analiza duplicate content,
- analiza powielających się meta tagów,
- znalezienie błędnych podstron,
- znalezienie błędnych przekierowań,
- analiza stron osieroconych,
- identyfikowanie podstron z dużą ilością linków wychodzących
i innych.
Google Search Console
Statystyki Google Search Console, dają możliwość weryfikacji, stron małowartościowych, które generują mało wyświetleń i znikomą liczbę kliknięć. Poniżej przedstawione są strony tagów — nie mają unikalnej treści, nie generują ruchu i wyświetleń.
W tym przypadku mamy do czynienia z podstronami, które wyświetlają się w Google, jednak nie generują kliknięć. Warto przyjrzeć się im bliżej, być może dobra optymalizacja przyczyni się do poprawy widoczności w Google i zwiększenia ruchu na stronie.
Copyscape i inne...
Dzięki tego typu narzędziom możesz sprawdzić, czy opublikowana treść nie została zduplikowana. Copyscape przeanalizuje sieć, wyszukując treści, które zostały skopiowane z Twojej strony internetowej, a także te, które w sposób niedopatrzenia opublikowane zostały u Ciebie.
Operatory wyszukiwania Google
Dzięki operatorom wyszukiwania Google jesteśmy w stanie zweryfikować treści zduplikowane. Oto poszczególne komendy, jakie możesz zastosować:
site:domena.pl
Po wpisaniu w wyszukiwarkę tej komendy otrzymasz 300 zaindeksowanych podstron w obrębie danej witryny. Metoda ta może jednak okazać się uciążliwa w przypadku sklepów internetowych a ręczne sprawdzanie poszczególnych adresów bardzo czasochłonne.
"fraza" site:domena.pl
W ten sposób ograniczamy zakres wyszukiwania tylko do jednej konkretnych frazy. W ten sposób Google wyświetli nam listę podstron, gdzie dane słowo kluczowe zostało zastosowane.
site:domena.pl intext "treść"
Ten operator pozwala nam na sprawdzenie, czy konkretny fragment treści został opublikowany w obrębie jednej witryny więcej niż jeden raz.
Jak wyeliminować Thin Content?
Przekierowanie 301
Koniecznie zapamiętaj, że https://www.strona-internetowa.pl i https://strona-internetowa.pl to dla robotów Google dwie różne strony, traktowane jako duplikaty. W takim przypadku należy zastosować przekierowanie 301, w ten sposób: www.strona-internetowa.pl -301-> strona-internetowa.pl lub odwrotnie. Przy tym, warto wyeliminować inne pojawiające się kopie.
Linki kanoniczne
Ważne, aby w przypadku sklepów internetowych (i nie tylko) ustawić adresy kanoniczne — rel="canonical". Działanie to jest szczególnie ważne w przypadku sortowania produktów w kategoriach. Zastosowanie tagu daje możliwość zasugerowania Google, który adres powinien traktować jako docelowy. Jeżeli tego nie zrobisz, Google wybierze za Ciebie lub uzna różne adresy za równorzędne, co może wywołać nieporządane efekty.
Meta Robots Noindex
Meta Robots Noindex pozwala nam zapobiec indeksowaniu zduplikowanego contentu przez wyszukiwarkę Google. Roboty Google, podczas indeksowania naszej strony internetowej napotkają wklejony przez nas tag i całkowicie wyeliminują daną podstronę z wyników wyszukiwania.
HTTP X-Robots-Tag
Za pomocą nagłówka HTTP X-Robots-Tag poinformujesz Google, aby nie indeksowało danego adresu URL. O tym, jak to zrobić dowiesz się z artykułu "Duplicate content, czym jest i jak go uniknąć".
Podsumowanie
Wartościowe i dobrze zoptymalizowane treści to podstawa rzetelnie realizowanych działań marketingowych. Należy w szczególności wystrzegać się nieodpowiednich praktyk, a każde działanie planować z głową tak, by nieumyślnie swojej stronie nie zaszkodzić. Thin content i duplicate content, to główni wrogowie stron internetowych, dlatego powinniśmy pozbyć się ich jak najszybciej.
Komentarze