Przeoptymalizowane treści na stronie internetowej a Google – co się zmieniło?
Dziś wiele osób wie, że content powinien być unikalny, rzetelny i odpowiadać na zapytanie użytkownika. Kiedyś jednak optymalizacja polegała na dodawaniu jak największej liczby słów kluczowych bez zwracania uwagi na ich intencje. Skutkowało to powstawaniem nieczytelnych dla zwykłego śmiertelnika publikacji. Były one za to zjadliwe dla robotów wyszukiwarek i wysoko umieszczane przez nie w wynikach. Do tego nikt nie sprawdzał, skąd pochodzą odnośniki do serwisów. Liczyła się ilość, nie jakość, a w internecie powstawały farmy linków. Takie działania są już niedopuszczalne i zaliczane są do tzw. Black Hat SEO. Teraz z przeoptymalizowaniem strony internetowej mamy najczęściej do czynienia, gdy na siłę chcemy upchnąć frazy w tekście. W samej treści, ale też w meta tagach, nagłówkach i anchor textach adresów URL.
Wprowadzenie nowych algorytmów Google bardzo zmieniło podejście do pozycjonowania i SEO. Teraz boty są w stanie wychwycić kontekst, rozróżniają odmianę słów kluczowych, a także potrafią skojarzyć ze sobą synonimy. Wyszukiwarka stale się rozwija i wprowadza zmiany do istniejących algorytmów. Przykładem tego może być Page Title Update z 2021 roku. Wdrożenie aktualizacji przyniosło zmiany w pokazywaniu tytułów stron w wyszukiwarce. Większość nazw pozostanie niezmieniona. Jeśli jednak tytuł będzie niepełny albo np. przesycony słowami kluczowymi, to zamiast niego wyszukiwarka sama zdecyduje, czy użyć tekstu z nagłówka, czy „kotwicę” odnośnika. Zapewne już niebawem czekają nas kolejne zmiany, które jeszcze bardziej przygotują crawlery do czytania tekstów.
Jedną z takich zmian jest aktualizacja Helpful Content. Wprowadziła ona nowy czynnik rankingowy, czyli tzw. przydatną treść. Celem aktualizacji była poprawa jakości wyników wyszukiwania i premiowanie stron, gdzie znajdują się oryginalne i wartościowe treści. Google cały czas pracuje nad swoim systemem, by wyszukiwarka lepiej rozumiała treści tworzone przez autorów i rozróżniała teksty pisane z osobistego lub eksperckiego punktu widzenia.
Warto też na wstępie dodać, że istnieje ponad 200 czynników rankingowych, które wpływają na pozycję witryny. Nie jest tak, że przez jeden przeoptymalizowany lub słabej jakości content od razu spada pozycja Twojej strony internetowej na łeb i szyję. Przyczynia się do tego zbiór różnych mniejszych lub większych mankamentów. Bardzo dobry stan techniczny serwisu może poprawiać jego widoczność nawet przy nieco gorszych treściach. Niżej poznasz kilka błędów, które mogą powodować przeoptymalizowanie strony.
Przesada przy słowach kluczowych
Nasycone do granic możliwości słowami kluczowymi teksty nie są już mile widziane przez Google. Wyobrażasz sobie czytać o tym, jak wymienić świece w aucie i w prawie każdym zdaniu mieć nieodmienione hasło „mechanik Wrocław”? No właśnie. Aktualnie tzw. keyword stuffing, czyli dodawanie dużej liczby fraz bez odpowiedniej formy podchodzi pod Black Hat SEO i może mieć negatywny wpływ na pozycjonowanie.
Na szczęście odpowiednio dobrane słowa kluczowe w tekstach dają ogromne korzyści dla rankingu i budowania widoczności strony. Co zrobić, aby nie przesadzić i nie przeoptymalizować treści na stronie internetowej?
- Zachowaj umiar przy frazach. Powinny się one znaleźć w ważnych pod kątem SEO miejscach, jak np. meta tagi, tytuł, nagłówki, atrybuty alt itd., a w tekście nie powinny wpływać na jego naturalność. To odbiór przez użytkownika jest teraz najważniejszy.
- Nie wpisuj wszędzie na stronie identycznego słowa kluczowego w niezmienionej formie. Zróżnicuj nieco elementy HTML pod względem fraz.
- Im więcej tekstu, tym więcej słów kluczowych możesz w nim umieścić.
- Wybierz 1-2 główne hasła, które będą łączyć się z tematyką publikacji.
- Odmieniaj i stosuj synonimy, aby nie pisać cały czas tego samego. Google zrozumie, o co Ci chodzi. Czytelnik tym bardziej.
- Optymalizowanie wszystkich treści w serwisie na jedno hasło również nie jest najlepszym rozwiązaniem. Zobacz, jak w jeszcze inny sposób internauci szukają wybranego przez Ciebie tematu.
Teksty na Twojej stronie muszą być przyjemne dla odbiorcy, a jednocześnie wspierać pozycjonowanie. Czytaj to, co napiszesz. Zastanów się, czy coś nie brzmi dziwnie, czy nie masz zbyt wielu rażących powtórzeń. Zachowaj zdrowy balans między długością a liczbą fraz. Pomoże Ci w tym np. Asystent Contentu, który na podstawie treści z konkurencyjnych stron wylicza optymalne parametry dla Twojej publikacji. Potrzebuje do tego tylko głównego słowa kluczowego.
Duplikowanie treści
Chodzi tutaj najczęściej o teksty (ale nie tylko), które w tej samej formie znajdują się na kilku stronach. Mogą być one stworzone w obrębie jednego serwisu lub na różnych zewnętrznych portalach. Najoczywistszym przykładem duplikatów są działania stosowane w branży e-commerce. Oddzielne karty z produktami o identycznych opisach lub powielony tekst od producenta na karcie towaru.
Ogólnie ciężko powiedzieć, żeby duplicate content miał pomagać w optymalizacji strony internetowej. Masz pokopiowane własne treści i liczysz, że większa liczba słów kluczowych w serwisie wesprze Twoje działania? Taki efekt raczej nie nastąpi. Prędzej Twoje podstrony będą walczyć ze sobą o pozycję w wynikach wyszukiwania i wystąpi tzw. kanibalizacja słów kluczowych.
Nie zadziała to też pozytywnie przy tekstach z zewnętrznych portali. Nie zakładaj z góry, że takim samym opisem zapewnisz sobie topowe miejsce w SERP-ach obok konkurentów. Będziesz walczyć z nimi na inne czynniki rankingowe.
Przykład dwóch stron, na których znajduje się identyczny tekst
https://www.boro-laser.com.pl/jak_dziala/o_grawerowaniu_drewna.htm
https://www.mbe-poznan.pl/grawerowanie-w-drewnie-poznan.html
Ukrywanie treści, czyli czego oczy nie widzą...
Tak zwany cloacking jest zaliczany do działań Black Hat SEO, czyli niezalecanych przez Google. Na czym polega? Ten mechanizm ma na celu oszukać roboty wyszukiwarki. Wyświetla im się treść strony zupełnie inna niż ta, którą widzi użytkownik.
Istnieje też nieco mniej przebiegły sposób ukrywania tresci, który może zostać wykorzystany, aby zamieścić na stronie nasycone słowami kluczowymi teksty niewidoczne dla internauty. Są one wprowadzane np. za pomocą niewielkiego rozmiaru czy fontu w kolorze tła.
Takie działanie może przyczynić się do przeoptymalizowania strony internetowej i spadku widoczności. Muszą to być jednak drastyczne i ciągłe naruszenia, które mają na celu manipulację wynikami wyszukiwania. W rzeczywistości kary i filtry od Google to rzadkość. John Mueller w jednym z komentarzy na twitterze sam przyznał, że systemy całkiem nieźle sobie radzą z rozpoznawaniem i ignorowaniem ukrytych treści w postaci białego tekstu na białym tle. Potrafią odróżnić treści merytoryczne ukryte (np. w zakładkach) od „schowanych” na stronie słów kluczowych.
Nieodpowiednie linkowanie
Strony www można wspierać na różne sposoby. Jednym z nich jest strategia linkbuildingowa. Pozyskiwanie linków to ważny czynnik rankingowy. Tutaj zasady też się jednak zmieniły z biegiem lat. Kiedyś efekty były widoczne nawet przy wrzucaniu odnośników na przeróżne fora niezwiązane tematycznie z serwisem czy do katalogów stron. Nikt nie przejmował się, czy witryna, na której znajduje się link, jest spamerska i nie niesie wartości.
Teraz linkbuilding trzeba robić rozważnie. Stąd też wiele osób już nie wie, które działania w tej strategii wywołują korzyści, a które przynoszą negatywne skutki dla strony. Przy setkach pozyskanych adresów URL do serwisów o wątpliwej reputacji pewniejsze jest przeoptymalizowanie strony internetowej niż pozytywny wpływ na SEO i pozycjonowanie. Sprawdzaj, czy witryny, z których pozyskujesz odnośniki, są tego warte i odpowiadają tematyką Twojej stronie.
Źle zbudowane linki wewnętrzne również mogą być podstępne. Nadmierne używanie w kotwicach identycznego tekstu jak w adresie URL czy tego samego słowa kluczowego też może w końcu doprowadzić do przeoptymalizowania strony internetowej. Nie mówimy tutaj oczywiście o pojedynczych zdarzeniach. Zbytnia przesada w używaniu fraz w kotwicach może jednak pogorszyć wygląd profilu linków.
Korzystaj więc z różnych sposobów na zamieszczanie odnośników, w tym na naturalne dodawanie ich w zdaniu. Nie odsyłaj tylko do strony głównej, postaraj się o linkowanie do głębszych miejsc w serwisie. O takim zróżnicowaniu, jak i podstawach strategii linkbuildingowej mówiły ekspertki SEO z agencji Fox Strategy podczas naszego webinaru:
Przeoptymalizowane treści na stronie internetowej, czyli ze skrajności w skrajność
Słynne stwierdzenie „Content is a king” czasami może doprowadzić nas do przesady. Jeśli poprawiasz swoje teksty, to musisz pamiętać o kilku rzeczach: analizie, monitorowaniu i umiarze w tym, co robisz.
Gdy Twoje treści nie przynoszą spodziewanych rezultatów, sprawdź najpierw, dlaczego tak się dzieje. Podczas korekty musisz wiedzieć, na jakie frazy już się pokazujesz, aby nie zrujnować poprzednich efektów Twoich działań content marketingowych. Pamiętaj, że istnieje też kanibalizacja słów kluczowych. Czyli przesadne dodawanie tych samych haseł na różnych podstronach serwisu, które prowadzi między nimi do walki o miejsce w SERP. Dobrym rozwiązaniem jest monitorowanie na bieżąco pozycji strony i wyciąganie wniosków ze zmian, jakie zachodzą. Takie kampanie dla wybranych słów kluczowych możesz zawsze ustawić sobie w SEMSTORM.
Mówi się, że to „dawka czyni truciznę” dlatego zachowaj rozsądek podczas planowania, tworzenia i optymalizacji treści pod kątem SEO. Minimalizuj ryzyko przeoptymalizowania strony internetowej, dbając o różne jej elementy zarówno od strony contentowej, jak i technicznej.
[Aktualizacja artykułu: 18.05.2023 r.]
Komentarze