Algorytmy wyszukiwania Google: Jak działają

szkolenie ads

Co to jest algorytm wyszukiwania? 

W erze cyfrowej większość z nas korzysta z wyszukiwarek internetowych, takich jak Google, by znaleźć odpowiedzi na pytania, które nas nurtują. Ale jak dokładnie działają algorytmy tej wyszukiwarki? Zajrzyjmy w głąb tajemniczej maszynerii.

Algorytm Google, to program, który na podstawie swoich ustalonych czynników sortuje i wyświetla strony internetowe w wyszukiwarkach wg ustalonej hierarchii. Takimi czynnikami może być np. unikalność opisów, szybkość wczytywania strony, spam wychodzący ze strony, linki przychodzące do strony itd.

Składniki Algorytmu Wyszukiwania Google

Google jest najpopularniejszą wyszukiwarką na świecie, a jej algorytm jest kluczem do jej sukcesu. W rzeczywistości algorytm Google jest niesamowicie złożony i składa się z setek, jeśli nie tysięcy czynników, które wspólnie decydują o tym, które strony pojawiają się na czele wyników wyszukiwania. Chociaż pełne szczegóły są tajemnicą handlową, możemy zrozumieć ogólny obraz, badając główne składniki algorytmu.

1. Ranking

Ranking jest sercem algorytmu Google. W skrócie, decyduje, które strony są najbardziej istotne dla danego zapytania.

  • Jakość treści: Google dąży do zapewnienia użytkownikom najbardziej wartościowych informacji. Aby to osiągnąć, ocenia jakość treści na stronie. Czynniki takie jak oryginalność, głębokość analizy i użyteczność treści są kluczowe.
  • Linki: Jak już wspomniano, Google korzystał pierwotnie z systemu PageRank, który opierał się na linkach. Chociaż algorytm ewoluował, linki wciąż odgrywają kluczową rolę. Wskaźniki, takie jak liczba linków prowadzących do strony oraz jakość tych linków, mają duży wpływ na ranking.
  • Historia przeglądania: Google uwzględnia również interakcje użytkownika z różnymi stronami. Jeśli użytkownik często odwiedza konkretną stronę lub spędza na niej dużo czasu, może to wpłynąć na ranking tej strony dla tego użytkownika.

2. Analiza zapytania

Kiedy użytkownik wpisuje zapytanie w Google, nie szuka tylko słów kluczowych. Szuka odpowiedzi. Dlatego Google analizuje zapytanie w kontekście, aby zrozumieć, czego użytkownik naprawdę szuka.

  • Słowa kluczowe: Algorytm ocenia, które słowa w zapytaniu są najważniejsze i jakie mają znaczenie w kontekście całego zapytania.
  • Intencja zapytania: Google stara się zrozumieć, czego użytkownik naprawdę chce. Czy szuka informacji? Czy chce coś kupić? A może chce odwiedzić konkretną stronę?

3. Filtrowanie i personalizacja

W dobie mediów społecznościowych i big data personalizacja stała się kluczem do sukcesu wielu platform online. Google nie jest wyjątkiem.

  • Historia przeglądania: Google analizuje Twoją historię przeglądania, aby dostosować wyniki wyszukiwania do Twoich indywidualnych zainteresowań.
  • Lokalizacja: Twoja lokalizacja może mieć ogromny wpływ na to, co pojawia się w wynikach wyszukiwania. Na przykład, jeśli szukasz „restauracji w pobliżu”, Google dostarczy Ci wyniki bazujące na Twojej obecnej lokalizacji.
  • Inne dane: Google może uwzględniać również inne dane, takie jak urządzenie, z którego korzystasz, czy też dane z innych usług Google, które używasz.

Aktualizacje Algorytmu Google: Ewolucja Wyszukiwania w Internecie

Algorytm Google to serce tej globalnej wyszukiwarki, a jego regularne aktualizacje odzwierciedlają ciągłe dążenie firmy do doskonałości w dostarczaniu najbardziej trafnych i użytecznych wyników użytkownikom. Oto przegląd najważniejszych aktualizacji, które wpłynęły na świat SEO i doświadczenia użytkowników.

1. Panda (2011)

Cel: Nagradzanie wysokiej jakości treści i karanie niskiej jakości.

Wprowadzenie aktualizacji Panda miało na celu karanie stron o niskiej jakości treści oraz „chudej” zawartości. Po tej aktualizacji strony, które generowały duże ilości niskiej jakości treści w celu zdobycia ruchu, zaczęły tracić w rankingach.

2. Penguin (2012)

Cel: Walka z nadmierną optymalizacją i sztucznymi linkami.

Penguin został wprowadzony, aby zidentyfikować i ukarać strony, które manipulowały rankingiem poprzez nieuczciwe techniki linkowania. Strony stosujące takie techniki jak zakup linków czy nadmierne linkowanie wewnętrzne były karane.

3. Hummingbird (2013)

Cel: Lepsze zrozumienie zapytań użytkowników.

Hummingbird skupił się na zrozumieniu intencji za zapytaniami, a nie tylko na dosłownych słowach kluczowych. Pozwoliło to Google na dostarczanie bardziej trafnych wyników, zwłaszcza w przypadku skomplikowanych zapytań.

4. Mobilegeddon (2015)

Cel: Poprawa doświadczenia użytkowników mobilnych.

W odpowiedzi na rosnącą liczbę użytkowników mobilnych, Google wprowadził aktualizację, która promowała strony zoptymalizowane pod kątem mobilności. Strony, które nie były przyjazne dla urządzeń mobilnych, miały obniżony ranking w wynikach wyszukiwania na smartfonach.

5. RankBrain (2015)

Cel: Zastosowanie sztucznej inteligencji w wyszukiwaniu.

RankBrain to system oparty na sztucznej inteligencji, który pomaga Google interpretować zapytania użytkowników i dostarczać bardziej trafne wyniki. Jest to kluczowy składnik algorytmu Google i jego rola stale rośnie.

6. BERT (2019)

Cel: Lepsze zrozumienie kontekstu zapytań.

BERT (Bidirectional Encoder Representations from Transformers) to technika przetwarzania języka naturalnego, która pozwala Google lepiej zrozumieć kontekst zapytania. Dzięki BERT, Google może lepiej rozumieć złożone zapytania i dostarczać bardziej trafne wyniki.

Duża szybkość zwracania użytkownikowi wyników wyszukiwania nie jest jedynym priorytetem wyszukiwarek. Niemniej istotną kwestią jest zapewnienie jak najwyższej jakości tych wyników. Nieodmiennie wiąże się to z większą satysfakcją użytkownika, kiedy ten znajduje dokładnie to czego potrzebował. Utrzymanie jakości jest możliwe dzięki zastosowaniu skomplikowanych i stale dostosowywanych algorytmów. Należy tu zaznaczyć, że działają one dwojako: nagradzają strony stosujące się do głównych wytycznych oraz karzą strony, które próbują w sztuczny sposób zwiększać swoją pozycję rankingową.
Obie sfery bardzo istotnie wpływają na miejsce wyświetlenia naszej strony w wynikach wyszukiwania. O ile jednak nagrody pomagają zwiększać trafność zwróconych wyników, o tyle kary pozwalają wyeliminować z nich niepożądane witryny.
Podstawą działania SEO jest zatem umiejętne wykorzystywanie możliwości jakie dają nagrody algorytmów i jednocześnie unikanie kar przez nie nakładanych. Bywa, że nałożona przez wyszukiwarkę kara w jednej chwili unicestwi wszelkie wysiłki włożone w działania SEO. Spadek ruchu sieciowego może być dramatyczny i spowodować nawet wykluczenie z rankingu – nasza strona praktycznie nie będzie się pojawiała w wynikach i nikt nowy na nią nie natrafi. Pamiętajmy, że kara nie jest nakładana tylko za celowe działanie. Może być nałożona także za działanie nieświadome, które koliduje z wytycznymi algorytmu. Mając tu na uwadze ciągłe zmiany algorytmów, w tym ich priorytetów, często okazuje się, że dotychczas „legalne” działania pozycjonujące stają się niedozwolone. Kara może zatem spaść na nas jak grom z jasnego nieba.

Wyróżnia się trzy podstawowe rodzaje kar od Google:

  • kary ręczne,
  • kary algorytmiczne,
  • kary rankingowe.
Jak zatem bronić się w sytuacji, gdy taka kara zostanie jednak nałożona na naszą witrynę?
Aby skutecznie walczyć, musimy najpierw poznać wroga. Przede wszystkim musimy dowiedzieć się, jaka kara i za co nas dotknęła. W tym celu należy regularnie przeglądać statystyki naszej witryny, na przykład w narzędziu Google Analytics. Wykrycie gwałtownego spadku liczby odwiedzin, lub tendencja spadkowa mogą być pierwszą oznaką nałożonej kary. Jest to szczególnie dotkliwa oznaka dla witryn, które większość dochodu generują z organicznego ruchu sieciowego. Spadek wartości przychodów szybko przełoży się tu a kondycję finansową całej firmy. Uwaga, spadek liczby odwiedzin nie musi wynikać z nałożonej kary! Może być też wynikiem nietrafionych działań, lub pogorszeniem się ogólnego poziomu witryny, co odpycha użytkowników. Aby upewnić się na temat źródła problemu, sprawdź zmiany w ilości odwiedzin pochodzących z poszczególnych przeglądarek. Jeżeli zmiana dotyczy tylko ruchu z np. Google’a – mamy „winnego”.
Drugim problemem jest ustalenie przyczyny ukarania.
Musisz się dokładnie dowiedzieć, które z twoich działań (lub brak działań) doprowadziły do przekroczenia norm algorytmu. Tylko w ten sposób będziesz w stanie usunąć problem i zwrócić się z prośbą o zniesienia ograniczenia. Może się okazać, że tutaj pójdzie ci łatwo – Google często powiadamia właściciela strony o samym nałożeniu kary oraz o jej przyczynie – sprawdź w Konsoli wyszukiwania! Taka informacja jest dobrym punktem wyjścia do kolejnych działań. Jeżeli takiej informacji nie otrzymałeś, będziesz musiał poświęcić nieco więcej wysiłku by ją jednak uzyskać.
Zacznij od skojarzenia daty spadku organicznego ruchu sieciowego z wprowadzanymi zmianami w algorytmach wyszukiwania. Dzięki temu dowiesz się, która modyfikacja spowodowała, że zostałeś ukarany. Szczegółowe listy update’ów są dostępne na przykład na stronie https://www.mariehaynes.com/algo-changes-and-more/. Aktualizacje są dokonywane dość często, lecz nie zawsze informacja o wprowadzonych zmianach jest pełna. Jeżeli nadal nie jesteś w stanie ustalić przyczyny spadku ruchu sieciowego na swojej witrynie, czeka cię albo samodzielne przekopywanie się przez całą architekturę strony, treści na niej zamieszczone i tak dalej, lub skonsultowanie się ze specjalistą SEO. W ostateczności zawsze warto skupić się na stosowaniu najlepszych praktyk SEO i przyjęcie ich za swoje.

Zmiany w algorytmach Google: Panda i Pingwin

Do najważniejszych obecnie stosowanych algorytmów Google należą Panda i Pingwin. Oczywiście nie są jedynymi. Wszystkie są stale aktualizowane, zmieniane i dostosowywane do bieżących warunków w sieci. Wszystkie te działania mają kierować rozwój internetu we właściwą stronę i zapewniać usługi wyszukiwania na coraz lepszym poziomie tak, by wyszukiwarka Google’a pozostawała konkurencyjna.
Śledząc historię zmian wspomnianych algorytmów, można odpowiednio wcześnie odkryć kierunek tych zmian i się do nich zawczasu przygotować. W ten sposób zapewnimy sobie komfort i bezpieczeństwo pozostawania z daleka od kar.

Historia zmian w Google

Prześledźmy najważniejsze zmiany na przestrzeni ostatnich kilku lat, by nabrać pojęcia o ich przyszłości:
  • 02.2011 Panda 1.0 – pierwsze wdrożenie algorytmu Panda. Kary nałożone na ogromną liczbę stron o bardzo słabej jakości;
  • 06.2011 Panda 2.2 – Google wypowiada wojnę automatycznie generowanym treściom. Zmiana o dużym wpływie;
  • 11.2011 Panda 3.1 – rozpoczęcie wprowadzania częstych aktualizacji i zmiana w algorytmie. Wszystko, by szybciej reagować na zmiany w sieci;
  • 01.2012 – tak zwany Top Heave Update. Walka ze zbyt dużą ilością reklam w okolicach początku strony. Algorytm karał za umieszczanie reklam (także w programie AdSense) w górnej części witryny. By ustrzec się przed konsekwencjami należało je ograniczyć, lub umieścić w innych, niestety nieco mniej eksponowanych, miejscach;
  • 02.2012 Panda 3.3 – zwiększenie precyzji oceny przez algorytm;
  • 03.2012 Panda 3.4 – zmiana w systemie ocen. Dotknięte zmianą 1,6% witryn;
  • 07.2012 Panda 3.9 – aktualizacja algorytmu Google, która spowodowała silne wahania wyników przez około tydzień. Zmiany według Google dotyczyły ok. 1% zapytań;
  • 08.2012 Update przeznaczony do walki z piractwem internetowym, czyli kradzieżą lub nielegalnym wykorzystywaniem cudzych treści. Surowe kary były wymierzane stronom, co do których napływały zgłoszenia od użytkowników o piractwie. Główne kontrowersje dotyczyły sytuacji, gdy właściciel konkurencyjnej strony zgłaszał złośliwie stronę rywala. Powodowało to przedłużanie się procesu weryfikacji stron i zawieszenie w rankingu;
  • 09.2012 – Zmiana wycelowana w zniwelowanie przewagi stron, których adres odpowiadał dokładnym wyszukiwaniom. Przykładowo strona PizzeriaBydgoszcz.pl odpowiada dokładnemu dopasowaniu do wyszukania „pizzeria Bydgoszcz” i bez względu na jakość tej strony uzyskiwała przewagę nad innymi stronami o tej tematyce. Sytuację tę poprawiono;
  • 12.2012 Panda Refresh – oficjalna zmiana update’u. 1,3% anglojęzycznych stron w obszarze zmian;
  • 05.2014 Panda 4.0 – kolejna duża zmiana zarówno algorytmu jak i danych wejściowych do niego. W zależności od języka siła odczuwalnych zmian jest różna, ale dla języka angielskiego jest to ok. 7,5%;
  • 09.2014 Panda 4.1 – podwyższenie wagi małych i średnich stron wyróżniających się dobrej jakości treścią. Możliwe się stało wybicie pomniejszych witryn przed duże marki. Około 4% stron objętych.
Należy dodać, że niektóre algorytmy wykorzystują dane osobiste użytkownika. Jest to bardzo istotna kwestia, gdyż zmienia jego pozycję w internecie. Wykorzystywane są przede wszystkim informacje z tzw. blocklist, czyli prywatnej dla użytkownika listy stron niepożądanych (użytkownik decyduje, których stron nie chce w przyszłości oglądać i są one wyłączane z jego wyników wyszukiwania). Łatwo sobie też wyobrazić preferowanie stron z listy zakładek użytkownika.
Wspomnieliśmy, że nie Google nie udostępnia pełnej dokumentacji algorytmu, przez co nie jest możliwe jego dokładnie przeanalizowanie. Wpływ większości zmian i ich rodzaj jest określany na podstawie licznych i szeroko zakrojonych badań dokonywanych przez duże firmy z branży SEO, ale też przez osoby prywatne i hobbystów. Na ich podstawie domniemywa się, czego dotyczyła dana zmiana, jaki ma wpływ na działanie wyszukiwarki i przede wszystkim – jaki wpływ mają wprowadzone zmiany na ruch na naszej witrynie.
Ponadto Google sporządził i udostępnił listę głównych zamierzeń algorytmu. Dzięki niej nawet bez przeprowadzania dodatkowych badań można się domyślić, czy nasza witryna będzie podlegać karze i jeśli tak, to w których obszarach powinniśmy reagować, by ich uniknąć.
Politykę algorytmu Panda można podsumować w następujących punktach:
  • Treść: wysokiej jakości, przydatna, unikalna, przejrzysta (brak przeładowania reklamami). Duża zawartość wiedzy fachowej, autorskich analiz, twórczych opracowań. Treść nie może być generowana maszynowo, kopiowana z innych witryn, nie może być krótka i „o niczym”. Treść musi wnosić coś nowego – nowy punkt widzenia na dany temat, lub twórcze zestawienie wielu punktów widzenia. Treści powinny być w miarę potrzeby aktualizowane – to także zwiększa ich przydatność.
  • Struktura strony: przydatność i autorytet strony potwierdzony licznymi linkami do niej zarówno zewnętrznymi jak i wewnętrznymi. Im więcej przekierowań z uznanej marki serwisów, tym lepiej. Pochlebne opinie z różnych źródeł – fora internetowe, serwisy o dużym zasięgu, komentarze, testy. Nagłówki, obrazy i inne multimedia muszą odpowiadać treściom na stronie.
  • Reklamy: nie przeszkadzające w przeglądaniu treści, niebanalne. Na stronie nie powinno się znajdować zbyt wiele słów kluczowych.
  • Podstawowe grzechy przeciwko Pandzie.
  • Algorytm Panda został wdrożony w celu poprawy zawartości internetu. Wymieńmy zatem podstawowe błędy przy zarządzaniu stronami internetowymi, które mogą powodować nakładanie przez Google kar i lub pogorszenie pozycji rankingowej:
  • Krótka treść – przykładowo strona z opisami książek, gdzie każdej z nich poświęcono po kilka zdań. Wkład informacyjny takiej strony jest mizerny i tak też będzie oceniana przez algorytm Panda.
  • Kopiowana treść – treści skopiowane, lub przeniesione z niewielkimi zmianami z innych serwisów. Z punktu widzenia wyszukiwarki nie ma potrzeby serwować użytkownikowi takiej strony, skoro można mu pokazać stronę z oryginalnymi tekstami – na pewno będzie to z większym pożytkiem dla wyszukującego.
  • Niska oryginalność treści – nawet jeśli zamieszczamy wykreowane przez nas samych treści, to wcale nie znaczy, że nasza strona znajdzie się na czołowych pozycjach w wynikach wyszukiwania. Google nisko ocenia kolejną stronę na temat „wałkowany” przez milion innych witryn. Nawet jeśli wnosi ona sporo nowego. Twórzmy dobre strony na tematy rzadkie, a na pewno odniesiemy rankingowy sukces.
  • Treść niskiej jakości – dbajmy o przestrzeganie zasad ortografii na naszych stronach, a także o brak literówek. Są to proste wskaźniki niskiej staranności twórcy i mogą świadczyć o niskim jej profesjonalizmie.
  • Farmy treści – strony zawierające mnóstwo podstron, ale na każdej z nich treści są bardzo zbliżone do siebie tematycznie. Google walczy z tworzeniem treści „o niczym”. Przykładem jest serwis publikujący informacje o traktorach, który zawiera podstrony o „przydatności traktorów”, „potrzebie traktorów”, „budowie traktorów”, „działaniu traktorów”, „wyższości traktorów nad stosowaniem koni” i tak dalej. Wszystko na praktycznie jeden temat, strona nastawiona na ruch sieciowy bez wkładu w tworzenie „dobrego” internetu.
  • Treść generowana automatycznie – opisy produktów w sklepie internetowym wygenerowane skryptowo. Treść mało unikalna, powtarzalna, bez wkładu człowieka.
Podsumowując: algorytm pomoże nam wypromować witrynę, jeśli będzie się ona wyróżniała wysokiej jakości contentem, będzie zwierała dużo wiedzy fachowej, będzie coraz lepsza (tendencja!) i będzie się cieszyć autorytetem w danej dziedzinie. Jest to jasno określona polityka w dążeniu do internetu dobrej jakości.

Różnorodność wyników

Bardzo istotną kwestią w działaniu wyszukiwarek jest zapewnienie użytkownikowi okazji do poszerzenia swoich zainteresowań. Proponuje się w tym celu użytkownikowi wyniki zapytania pochodzące w miarę możliwości także z innych (i to niekoniecznie pokrewnych) dziedzin. Sztandarowym przykładem jest tutaj wyszukanie hasła „zamek”. Słowo może się odnosić do budowli, części garderoby, elementu drzwi czy nawet miejscowego pubu, czy dzielnicy. Wyszukiwarka może użyć metod adaptacyjnych i użyć informacji pochodzących z sekwencji zapytań użytkownika („Malbork” –> „noclegi” –> „zamek”), by zbadać o co dokładnie internaucie chodzi. Nie powinna się jednak ograniczać tylko do noclegów okolicy zamku w Malborku. Według nowej polityki Google, warto podać także informacje o miejscowym zakładzie krawieckim, w którym podróżnik będzie mógł wszyć nowy zamek w kurtce. Wyszukiwarka podpowie także, gdzie i w jakiej cenie będzie mógł wymienić zacinający się zamek w drzwiach samochodu w okolicy. Google twierdzi, że dzięki różnorodności wyników zapewni sobie lepszy odbiór wyszukiwarki przez użytkownika, jako takiej, która dba o dostarczenie pełnej i wyczerpującej informacji na zadane jej pytanie.
trends
W ramach różnorodności wyników istotną kwestią jest też rozmieszczenie kategorii wyników. Nie chodzi przecież o pokazanie najpierw trzystu linków do stron opisujących sam zamek, by na trzysta pierwszej stronie pokazać zakład krawiecki. Użytkownik takiej różnorodności zupełnie by nie doświadczył.
Wyniki dotyczące różnych kategorii są zatem umiejętnie mieszane i prezentowane są „próbki” z każdej z nich.

Autorytet strony w rankingu

Załóżmy, że jesteś specjalistą do spraw SEO i reprezentujesz klienta, nie mając wpływu na tematykę treści. Niestety dla ciebie podstawowym słowem kluczowym opisującym te tę stronę jest słowo „buty” – blisko dziewiętnaście milionów stron wynikowych w wyszukiwarce. Znajdujesz się zatem w wielkim worku stron dotyczących tematu o skrajnie niskiej unikalności. Co możesz zrobić, by strona twojego klienta mimo wszystko była na szczycie tej ogromnej listy odnośników?
Kluczem jest zadbanie o jak najwyższą jakość witryny i zainwestowanie sporej pracy w poprawę jej pozycji. Jakość należy tu traktować wielorako. Liczą się zarówno same treści publikowane na stronie, jak i wysoka rozpoznawalność strony, autorytet wśród internautów i ogólnie pojęta reputacja. Jeśli przed zbliżającymi się świętami Wielkanocnymi zapytamy o „makowiec na Wielkanoc”, okaże się, że liczba wyników będzie astronomiczna. Naturalne jednak dla nas będzie to, że najwyżej na liście wyszukiwania znajdą się znane i uznane portale z przepisami, artykułami o tradycji świąt, zwyczajach. Słowem – renomie.

Wpływ jakości treści na pozycję strony

Budując pozycję zarządzanej przez nas witryny pamiętajmy, że będzie ona tak wysoka, jak pozycja najgorszej pod względem jakościowym podstrony. Uchybienie algorytmowi Panda na jednej stronie może pociągnąć do odpowiedzialności zbiorowej całą witrynę i skutecznie obniżyć jej pozycję w rankingu Google.
Zniesienie kary
Kiedy mimo wszelkich starań kara zostanie nałożona na twoją witrynę, czekać cię będzie długa droga do jej zniesienia. Przede wszystkim niezbędne jest dokładne przyjrzenie się stronie, jej zawartości, układowi, mechanice. Musisz to zrobić bardzo starannie i bardzo krytycznie. Szczególnie w przypadku, gdy powód nałożenia kary nie jest w stu procentach jasny i sprecyzowany. Niemal każdy aspekt działania strony może stać się przyczyną uchybienia wymaganiom algorytmu.
Samemu ciężko jest ocenić swoje własne dzieło w sposób rzetelny. Poproś osoby z zewnątrz twojej organizacji, lub wynajmij firmę zewnętrzną, by zrobiła to za ciebie. Istnieje spora szansa, że zrobią to szybciej i lepiej.
Metodologia naprawy błędu (błędów?) jest uniwersalna, a poziom jej trudności zależy od tego, na którym poziomie błędy popełniono. Wiadomo – im głębiej zaszyty jest problem, tym trudniej i kosztowniej go będzie usunąć. Jeśli zatem szwankuje wierzchnia warstwa witryny, np. za dużo reklam w górnej części strony, to wystarczy je tylko namierzyć i poprzenosić w inne jej miejsca, lub po prostu usunąć. Kiedy jednak błędnie została zaprojektowana struktura całej strony, np. wszystkie teksty są do siebie podobne, generowane maszynowo i do tego ubogie, to może się okazać, że droga do zniesienia kary będzie drogą przez mękę.
Aby wspomóc samo znajdowanie błędów możesz porównać się do rozwiązań konkurencji, podejrzeć ich sposób prowadzenia witryny itp. Tutaj uwaga: poświęć trochę czasu na upewnienie się, że konkurencyjna witryna, do której chcesz się porównywać też nie została obłożona sankcjami. Masz w końcu równać w górę, a nie pomnażać błędy.
Czasem może się okazać, że powrót na ścieżkę bez kar będzie wymagał podjęcia szeregu trudnych decyzji. Nie przeciwstawiaj się im, gdyż tylko one będą mogły uratować twój serwis. Nie warto za wszelką cenę trzymać się rozwiązań, które doprowadziły cię do tego miejsca. Zmieniaj wszystko co trzeba, choćby i sam model strony, by wrócić do gry i znów być konkurencyjnym. Skup się na tworzeniu dobrej jakości treści, strony, którą ludzie będą polecać, którą będą cenić. Twoja witryna musi stać się czymś unikalnym, ciekawym i godnym uwagi. Zadbaj zatem o przejrzystą strukturę i układ strony. Zrezygnuj ze zbyt nachalnych reklam (przynajmniej do czasu zdjęcia ograniczenia). Walcz o linkowania ze znanych serwisów, dobrze dobieraj frazy kluczowe. Równolegle stale monitoruj ruch organiczny. Któraś ze zmian spowoduje w końcu znaczne jego zwiększenie, co będzie oznaką odblokowania. Jednak nawet wtedy nie rezygnuj z dalszych prób ulepszania swojej strony. Skoro wróciłeś już do poziomu zero, walcz dalej o jego podniesienie. Ciągłość ulepszeń pozwoli zwiększać ranking witryny i odnieść sukces.

Kiepska treść? Działaj!

Badanie przyczyn nałożenia kary powinno objąć też, a może nawet przede wszystkim, weryfikację treści na wszystkich stronach należących do witryny. Wyłapuj strony o słabej treści i wykonaj jeden z następujących kroków:
Skoryguj tekst, lub napisz go na nowo, aby znowu przyciągał użytkowników i im służył. Treść powinna być bogata w autorskie analizy, opisy i zestawienia. Wzbogacaj ją grafikami i GIFami. Nie przesadzaj z plikami video. Przeczytaj kilka książek o tworzeniu atrakcyjnej treści i przepisz kiepskie teksty. Pamiętaj, że prowadząc stronę internetową, bez względu na jej charakter, twoim towarem jest właśnie treść.
Wyklucz stronę z indeksowania Google za pomocą atrybutu noindex. Spowoduje to, że dana strona nie będzie indeksowana, a więc tym samym nie będzie objęta działaniem algorytmu Panda.
Jeśli posiadasz inne strony o zdecydowanie lepszej jakości, strony słabe usuń i zastosuj przekierowanie do tych pierwszych. Usunięte teksty nie będą już zaniżać oceny, a użytkownik trafi na treść bardziej odpowiadającą jego oczekiwaniom.
Usuń słabe strony i w ich miejsce wyświetlaj kod statusu HTTP 410. Pokażesz w ten sposób wyszukiwarce, że dana strona nie jest już częścią witryny.
Możesz też usunąć taką stronę z indeksowania Google za pomocą dedykowanych do tego narzędzi, np. https://www.google.com/webmasters/tools/removals?pli=1. Musisz być tutaj bardzo ostrożny. Nie usuń przez przypadek indeksu dla całej swojej witryny!

Jak długo trwa zniesienie kary?

W przypadku kar ręcznych możesz ubiegać się o zniesienie nałożonej sankcji pisemnie. W pozostałych przypadkach musisz uzbroić się w cierpliwość i czekać na przejście kolejnej pętli algorytmu. W przypadku wdrożenia nowej zmiany, algorytm ponownie analizuje wszystkie strony pod kątem swoich kryteriów. Weryfikuje przy tym, czy twoja strona spełnia nowe wymagania – jeśli tak, ograniczenie zostanie zdjęte. Niestety, nie każda taka zmiana implikuje przeliczenie rankingu. Mówimy tutaj o setkach milionów stron. To wymaga zaangażowania znacznych zasobów sprzętowych i czasowych przez Google. Update’y też nie są znowu tak częste, by oczekiwać wyjścia z filtra już po 7 dniach. Wychodzenie może trwać nawet kilka miesięcy.
Czasem twoja interwencja nie przyniesie zamierzonych skutków. Powodów może być wiele. Nie poddawaj się. Być może niezbyt obiektywnie zweryfikowałeś treści na swoich stronach. Może niezbyt szczerze sam przed sobą przedstawiłeś problem. Możliwe też, że po prostu twoje zmiany zbyt słabo zostały ocenione przez użytkowników i Google ma zbyt mało pozytywny odzew na ich temat. To wystarczająca przesłanka, by utrzymać ograniczenia w mocy.
Walcz jednak cały czas. Traktuj cały problem jako szansę stworzenia strony – leadera w danej dziedzinie. Przeprowadzenie gruntownej przebudowy i poprawy treści z pewnością zaowocuje zniesieniem kary – musisz tylko dać sobie szansę i zdobyć się na ten wysiłek. Na pewno się opłaci.
Pamiętaj, żeby zmiany przeprowadzać do końca. Nie ograniczaj się tylko do tego co musisz zrobić teraz, by wyjść z filtra. Nałożenie kary potraktuj jako sposobność wniesienia nowej jakości na twoją witrynę. Nie przerywaj tego procesu. To, że w danym momencie twoja strona wróci do gry i znów zacznie pojawiać się w wynikach wyszukiwania, wcale nie oznacza, że przeprowadzone powierzchowne zmiany ustrzegą cię przed kolejną iteracją algorytmu Panda. Być może właściwie prześlizgnąłeś się tym razem tuż nad poprzeczką. Czy stać cię na to, by powiedzmy za miesiąc znowu wypaść z obiegu?
Włóż w naprawę strony dużo wysiłku i traktuj to jako szansę (przy okazji) ulepszenia witryny. Ciągłe zmiany algorytmu powodują, że nawet strony spełniające dotąd wszystkie zalecenia nie mogą czuć się bezpieczne. Kolejny przebieg indeksowania może zrzucić cię z piedestału za przewinienie, którego nie brałeś dotąd pod uwagę.
Wydaje się zatem, że jedyną sensowną polityką jest taka, która będzie zbieżna z założeniami algorytmu:
  • bogata, przydatna i wartościowa treść,
  • duży autorytet strony,
  • dobra o niej opinia użytkowników, internautów,
  • autorskie analizy i opracowania,
  • duży komfort przeglądania witryny,
  • jasny, czytelny układ strony, nie zaśmiecony reklamami,
  • brak wielokrotnie używanych fraz kluczowych.

Algorytm z południa – Pingwin

Drugim algorytmem jest Pingwin. Jego wdrożenie także nie obyło się bez kontrowersji. Podstawowym zadaniem tego zwierzaka jest obniżenie wartości serwisów linkowanych przez niskiej jakości strony, lub samo źródło pochodzenia tych linków nie jest jasne. Wszelkie próby automatycznego pozyskiwania odnośników prowadzących do witryny są dzięki algorytmowi Penguin karane.
Historia aktualizacji tego algorytmu jest krótsza niż Pandy, ze względu na krótszy żywot, jak i dużo rzadsze wdrażanie nowych wersji. Zła wiadomość dla webmasterów jest taka, że wyjście z filtra może być możliwe dopiero przy okazji kolejnego wdrożenia. Oto ważniejsze momenty z życia Pingwina:
  • Pingwin 1.0 – 24.04.2012 – narodziny Pingwina.
  • Pingwin 1.1 – 25.05.2012 – aktualizacja polegająca na wypowiedzeniu wojny stronom przejściowym (tak zwane door pages). Zmiany ominęły Polskę.
  • Pingwin #3 – 05.10.2012 – zmiana o niewielkim (około 0,3%) wpływie.
  • P ingwin 2.0 – 22.05.2013 – szumnie zapowiadana zmiana w rzeczywistości nie miała aż tak wielkiego wpływu na wyszukiwanie jaki jej wróżono. Intencją jej było jeszcze bardziej dokładne ocenianie profili linkowych. Zmiana rozpoczęła ocenianie na niższym poziomie struktury – z dokładnością do podstrony.
  • Pingwin 2.1 – 4.10.2013 – zapowiadany wpływ (poniżej 1% stron objętych) okazał się być znacznie większy. Google nie podał na czym dokładnie polegała ta modyfikacja.
  • Pingwin 3.0 – 17.10.2014 – nowa wersja algorytmu. Zrefaktorowano cały kod, główne funkcjonalności nie podlegały jednak większym zmianom. Przy okazji przepisania algorytmu poprawiono jego wydajność i pomniejsze błędy.
  • Pingwin 3.1 – 27.11.2014 – nie potwierdzona aktualizacja
  • Pingwin 3.2 – 02.12.2014 – niewielka zmiana o niewielkim wpływie, nie została potwierdzona przez Google.
  • Pingwin 3.3 – 05.12.2014 – mała modyfikacja, ale o zauważalnych skutkach.
  • Pingwin 3.4 – 06.12.2016 – kolejna niepotwierdzona oficjalnie zmiana.
  • Pingwin 4.0 – 23.09.2016 – dwa lata po ostatniej oficjalnie ogłoszonej aktualizacji, ta jest następna. Przede wszystkim algorytm stał się elementem głównego algorytmu, dzięki czemu nie trzeba czekać na jego odświeżenie, by odczuć jego wpływ na oceny. Działa teraz w czasie rzeczywistym (real-time). Wszystkie kolejne poprawki mają być wprowadzane sukcesywnie w miarę zaistnienia potrzeby, bez uprzedniego powiadamiania. Algorytm działa na jeszcze niższym poziomie struktury.
Jak widać, dopiero od ostatniej wersji webmaster nie musi się martwić czasem zniesienia kary. Do tego momentu jedną z największych wad Pingwina było opóźnienie między poprawą warunków nałożenia kary, a jej zdjęciem. Wymagało to na ogół oczekiwania na kolejny update algorytmu i jego przeliczenie. Wersja 4.0 zniosła to ograniczenie i obecnie wystarczy odczekanie kilku dni, by zauważyć zniesienie filtra.
Pilnie obserwuj zatem wahania ruchu sieciowego dla twojej witryny. Jeśli zaobserwujesz silny spadek w okolicach wymienionych dat, istnieje spora szansa, że to właśnie Pingwin nałożył karę na twoją stronę.

Priorytety algorytmu Penguin

W odróżnieniu od algorytmu Panda, Pingwin skupia się nie na treści a na nieprawidłowych linkach. Jest zatem algorytmem komplementarnym (współdziałającym, uzupełniającym). Przyjrzyjmy się poszczególnym kategoriom niechcianych linków, których obecność lub nadużywanie może pociągnąć za sobą nałożenie kary:
  • Article folder – strony linkowane przez tak zwane katalogi linków, których niemal jedyną zawartością są linki do innych stron będą brane pod lupę przez algorytm Pingwin. Na podstawie analizy zebranych danych Google uznało, że istnieje dość silna korelacja między linkowaniem z takich linkowych hubów, a kiepską treścią.
  • Yellow pages – linkowanie z katalogów stron może także nie być opłacalne. Należy wystrzegać się mało znanych i uznawanych katalogów, by nie zostać posądzonym przez Google o posiadanie linków niewiarygodnych. Tylko nieliczne katalogi cieszą się uznaniem Google. Są to między innymi Yahoo!, Business.com i nieliczne lokalne takie jak panoramafirm.pl, zumi.pl i tym podobne.
  • Frazy kluczowe – wielokrotne używanie tej samej frazy kluczowej prowadzącej do tej samej lokalizacji jest zdecydowanie podejrzana dla Pingwina. Algorytm może traktować taką praktykę jako spamowanie. Wystrzegaj się zatem nadużywania słów kluczowych, a już na pewno staraj się, by prowadziły w różne miejsca twojej witryny. Oczywiście może się zdarzyć, że będziesz chciał podlinkować pewną lokalizację w kilku miejscach, ale pilnuj, by nie weszło ci to w krew. Nałożenie kary przez algorytm Pingwin może być dużo bardziej dotkliwe niż Pandy, ze względu na czas jej zniesienia.
  • Linki z innych krajów – oficjalnie nie zostało potwierdzone, że linki pochodzące z serwisów znajdujących się daleko poza granicami kraju pochodzenia witryny naruszają zasady algorytmu Pingwin. Miej jednak na uwadze, że z punktu widzenia Google może to być uważane za spam. Istnieje bowiem niewielka szansa, że sprzedając buty zimowe, link ze strony z Urugwaju prowadzący na twoją witrynę jest wiarygodnym wyrażeniem użyteczności twojej strony w tamtym rejonie świata. W Urugwaju temperatura rzadko zbliża się do +10 stopni Celsjusza!
  • Spamowanie na forach – nadmierna ilość bezpośrednich linków na twoją stronę pochodzących z różnego rodzaju komentarzy, postów, forów dyskusyjnych może wskazywać na szeroko zakrojoną kampanię spamerską i wzmóc czujność algorytmu.
Z braku pełnej dokumentacji algorytmu nie sposób stwierdzić dokładnie, które linki są tolerowane, a które nie. Dużo też zależy od kontekstu strony, jej otoczenia, a także struktury. Takie same linki „przejdą” na jednej stronie, podczas gdy na drugiej spowodują nałożenie przez algorytm filtra.

Jest kara, nie ma kary

Jak wspomnieliśmy nieco wcześniej, wyjście z filtra jest czasochłonne. Musisz być tego zawsze świadomy i za wszelką cenę unikać sytuacji, które mogą zostać przez algorytm postrzegane jako niepożądane. Jeśli masz do wyboru pozostawienie wątpliwej jakości linku do twojej strony lub jego usunięcie – nie wahaj się, usuń go! Zniesienie sankcji może potrwać nawet kilka miesięcy lub rok. Spójrz na zamieszczoną listę update’ów i ich częstotliwość. Wyobraź sobie co się stanie, gdy mimo naprawienia swojej strony algorytm utrzyma sankcje. Nie pozostanie ci nic innego jak czekanie na kolejną pętlę i liczenie na przychylność.
Nie ma sensu zgłaszanie dokonanych zmian na witrynie do Google. Nie istnieją narzędzia pozwalające na jednostkowe interwencje. Nie jest możliwa jakakolwiek ręczna zmiana ustawień algorytmu dla pojedynczej strony. Dlatego jedyne co ci pozostaje to:
  • usunięcie niepożądanych linków,
  • uzbrojenie się w cierpliwość.
Dopiero po pozytywnej weryfikacji przez algorytm możesz być pewien, że dokonałeś właściwych wyborów przy naprawie.
Jedynie kary ręczne umożliwiają wyjście z opisanego harmonogramu i osobiste ubieganie się o wcześniejsze zniesienie kary. Ta sytuacja jest dużo bardziej komfortowa także z tego powodu, że na ogół nałożeniu kary ręcznej towarzyszy opis wykroczeń od Google. Dzięki niemu wiemy co i jak naprawić.
Kliknij, aby ocenić
[Total: 0 Średnio: 0]