Chroń swoich klientów – jak Google wykrywa zaplecze pozycjonerów

Radosław Kubera

Radek Kubera, właściciel w firmie Ad-Media przedstawił nowatorskie podejście do wykrywania stron wykonanych wyłącznie pod SEO. Tytuł prezentacji „Chroń siebie i swoich klientów – jak Google wykrywa zaplecze pozycjonerów” okazał się być bardzo trafny. Radek w ciekawy sposób rozwinął algorytm desynonimizacji tekstu na stronach, które wyłącznie służą do celów SEO. Nazwał je MFS – Made For SEO.


Festiwal SEO 2024


Właściwie to u Radka na jego blogu jest w całości artykuł poświęcony metodzie desynonimizacji tekstu. Radek nie został gołosłowny. Efektywne korzystanie z tezaurusa zawartego w OpenOffice, zaciągnięcie całej bazy słownikowej dla jeżyka polskiego i angielskiego oraz 230 linii kodu odpowiada za powstanie drugiej części do przedstawionej prezentacji. Druga część to działający algorytm desynonimizacji, z którego każdy może skorzystać. Wystarczy wkleić dwa teksty, które powstały na bazie synonimizacji, aby sprawdzić jakie jest podobieństwo treści.

Co ciekawe, w prywatnej rozmowie z Radkiem, okazuję się, że nie ujawnij wszystkich swoich metod wykrywania spamu przez Google na stronach zapleczowych. Niestety nie jestem upoważniony do wyjawiania tej informacji, jednak z rozmowy w zeszłym tygodniu podczas Search Marketing Day w Poznaniu, przy której było obecnych kilka osób mających pojęcie o zaawansowanym seo, wynika że ma Radek uzasadnioną racje. Wyniki jakie pokazał jednoznacznie o tym świadczyły, że Google ma kolejną metodę na wykrywanie zaplecza i zerowanie jego mocy. Może wkrótce na jego blogu, będziemy mogli o tym przeczytać.

The following two tabs change content below.

Artur Strzelecki

Niezależny specjalista SEM, który upowszechnia wiedzę o marketingu w wyszukiwarkach internetowych. W wolnych chwilach doradza jak odnaleźć własną ścieżkę w Google.

8 komentarzy do “Chroń swoich klientów – jak Google wykrywa zaplecze pozycjonerów

  1. Jak te pomysły Radka mają się do rzeczywistości? Jest jakieś wiarygodne źródło potwierdzające, że Google w taki sposób prowadzi m.in. desynonimizację?

  2. Bardzo szanuję Radka i podziwiam Radka, że z takim zapałem wali grochem o ścianę. Oczywiste jest poza synonimami jest wiele innych czynników „miażdżących” nie tylko polskie zaplecza SEO. Niestety wielu polskich „seowców” pędzi tylko za frazami i nie potrafi wyciągnąć prostych wniosków z lektury komentarzy, które pojawiają się po kolejnych zmianach w algorytmie.
    Na pewno gwoździem do trumny większości farm linków są miejsca docelowe, którym to mają „podnieść rank”. Zdecydowana większość „firm SEO” maksymalizuje zyski wrzucając wszystkich Klientów na wszystkie swoje zaplecza.
    Tak jak oczywiste jest, że Google potrafi rozpoznawać synonimiczny syf, tak samo oczywiste jest, że algorytm wyłapuje grupy witryn niskiej jakości linkujące w te same miejsca. I nie ma tu znaczenia czy gdzieś włączymy link do follow, czy zmienimy anchor.

    Pozdrowienia dla ekipy z Ad-Media 🙂

  3. myślę że czynników, które mają wpływ na wykrywanie spamu czy też zaplecza jest znacznie więcej niż opisał Radek, całe sztaby ludzi pracują nad tym w Google, desynomizacja to tylko wierzchołek góry lodowej, a jak wiadomo większa część zawsze jest pod wodą 🙂

  4. Wystarczy, że zastosujemy wielokrotne zagnieżdżanie synonimów, czyli losowanie całych zdań i po problemie. Problemu też nie mają spamerzy, którzy generują treści z taką ilością wariacji, że Google zupełnie sobie z tym nie radzi. Widać to doskonale dla fraz finansowych, gdzie w wynikach można natrafić generowane z automatu pozbawione jakiegokolwiek sensu treści, wypełnione linkami i sporą liczbą słów kluczowych. Nie dotyczy to jakiś super niszowych fraz ale bardzo konkurencyjnych jak : pożyczka na dowód. Opisane działania wykonywane przez algorytm Google przez pana Radka Kubera są sensowne ale kogo to dotknie? Domorosłych pozycjonerów piszących opisy z paroma synonimami, które zgłoszą do katalogów stron? Może duże agencje, które chcąc minimalizować koszta używają małej liczby synonimów z pojedynczym zagnieżdżaniem? Bo na pewno nie spamerów w których wystarczy uderzyć w zupełnie inny sposób, który będzie i skuteczniejszy i tańszy w realizacji.

  5. desynonimizacja? jasne, nie jest to niemożliwe ale na pewno nie na tym etapie jakim jest obecnie Google

  6. Czytałam artykuł Radka, szczególnie ważną informacją okazało się tak zwane flagowanie stron.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *