Jak wiadomo w styczniu na rynku seo miało miejsce wydarzenie które poruszyło wszystkich seowców. Po prostu pewnego dnia google nałożyło karę na większość porównywarek cen (nokaut, skąpiec, ceneo) na świstaka i ponoć na fotka.pl. Nagle większość tych stron spadła do 4 dziesiątki wyników google. Wyglądało to dość zabawnie bo po wpisaniu modelu aparatu (jakiś tam canon) na czwartej stronie SERPa wyświetlały się po kolei powyższe porównywarki – dwa wyniki z nokautu, dwa z ceneo i parę ze skąpca.

Oczywiście pojawiły się teorie spiskowe na temat tego że gugiel wprowadza swoja usługę i kosi konkurencję, że to filtr nałożony ręcznie itp. Jednak patrząc obiektywnie to wszystko swoje początki ma prawdopodobnie w banach regionalnych domen, mało wartosciowych precli i śmietników. Wszystko zaczęło się na początku grudnia gdzie nagle poleciał ban na domeny regionalne (waw.pl itp.) – czemu akurat na te? Nie da się ukryć że bardzo dużo stron typu webmini, dziwacznych precli stoi właśnie na tych domenach gdyż są one najtańsze. I dla pozycjonera który stawia na potęgę kopie ogólnodostępnych skryptów w ilości paruset kopii kupno takich domen to niesamowita oszczędność. No i trochę ich poleciało. Poczytałem pio i rozjaśnił mi się bardzo obraz tego wszystkiego. Są ludzie którzy na 10 domenach postawili po 1000 serwisów gdzie wszystkie były jedną wielką kopią (!!). Bez żadnych przeróbek, gdzie wjazd miały wszystkie dodawarki i jeszcze duplikowały treści na tych stronach. Do tego dziwne pomysły w rodzaju 100 subdomen w domenie regionalnej i mamy dobry przepis na seo klopsa.

Jako że wiele tych „serwisów” było dodawanych do SWLi nagle zaczęła spadać ilość domen w systemach rotacyjnych (gotlink, e-weblink):
Spadki w gotlinku

Spadki w e-weblink

Oczywiście znowu pojawiły się teorie spiskowe że strony dostają bana za to że mają podpięty system itp. Nie do końca jest to prawdą – wiem po sobie i pytałem paru osób i one na żadnych zapleczach gt i ew nie dostały banów itp. Jednak większość z tych osób tak jak ja robiła wszystko podobnym systemem:

1. Nigdy nie dobijali do chorych ilości wymaganych linków (1000 czy 500 BL) – kiedyś już o tym pisałem.

2. Strony były budowane tylko pod SWLe a nie pod inne przeznaczenie typu linkowanie do klientów

3. Nie bazowali na żadnych gotowych skryptach (jeżeli już to na mało w naszym kraju popularnych), nie mieli regionalek i maksymalnie kilkanaście subdomen w domenie

4. SWLa dodawali minimum po pół roku po postawieniu serwisu.

5. 3/4 domen miała i ma PR i są to jak na polskie zapleczowe warunki domeny bardzo stare – starsze niż 2 lata.

6. Strony generowały ruch z wyszukiwarek a nie z dodawarek 🙂

Wiadomo że jest cała masa czynników które też mogły mieć na to wpływ itp. ale te rzuciły mi się najbardziej.

No i z tych banów już niedaleko do całej reszty zdarzeń które nastąpiły 🙂 Czyli pojawiły się bany w statlinku gdzie ludzie by nabić BLe korzystali z rotacyjnych SWLi, scrapów i blastów. Jeżeli w ciągu miecha spadła połowa domen w GT i EW to spadła też (oczywiście upraszczając) ilość linków prowadzących do domen zarówno normalnych stron jak i innych zapleczówek w tym tych przeznaczonych do statlinka. Dla googla wychwycenie takiego nienaturalnego spadku linków na iluś tam domenach było znaczącym sygnałem że są linkowane w taki a nie inny sposób. O ile serwisy które używały rotacji w dość małej ilości nie odnotowały spadków to serwisy w których dzięki Gotlink API podlinkowana była każda z 5 mln podstron musiały ucierpieć. Widać to szczególnie przy serwisach które pobierały treści z innych stron a były bardzo wysoko na pozycjach co raczej byłoby nie możliwe bez wspierania się rotacją i jakimś sensownym API do SWLa.

Wiadomo też że teraz wszelkie spadki/wzrosty pozycji stron (nawet takich które nie były dotknięte SWLami) są wynikiem tego że jednak z indeksu chociażby z dwóch systemów rotacyjnych ubyło z 200 tyś domen. Nie wiadomo jeszcze ile innych stron spadło które nie były w systemach a były podobne do tych SWLowatych. Jednak spadek tylu domen musi się jakoś odbić na całym polskim google.

No i kończąc ten mega długi wywód (który pewnie przeczyta paru fanatyków z większą wiedzą niż ja) dochodzę do wniosku że ta cała sytuacja ma swoje początki jakieś kilkanaście miesięcy temu kiedy to systemy zaczęły wymagać BL do stron. Najpierw było to 100 linkusiów potem nagle 200, 500 i absurdalne 1000. Kolejne limity pojawiały się tak szybko że mało kto był w stanie to jakoś sensownie ogarnąć normalnymi narzędziami i wtedy w ruch poszły scrapeboxy, xrummery itp.
W tym momencie ciche zaplecze egzystujące w d…ie internetu zaczęło się wybijać i to jeszcze dzięki szemranym linkom z mega spamowatych stron. To musiało przykuć uwagę google który postanowił coś z tym zrobić.

Wiadomo że może to są błędne założenia i można by napisać o tym większy elaborat ale po prostu nie chce mi się 😀

Zachęcam też do poczytania fajnego artykułu na wp:
http://tech.wp.pl/kat,1009785,title,Ceneo-Nokaut-Skapiec-dlaczego-zniknely-z-Google,wid,14214856,wiadomosc.html

4 odpowiedzi na “Googla jazda po całości

  1. Bardzo ciekawe podsumowanie. Tylko „Oczywiście pojawiły się teorie spiskowe na temat tego (…) że to filtr nałożony ręcznie itp.”. W tym wypadku nie jest to chyba teoria spiskowa – świadczą o tym wpisy Kaspara Szymańskiego, powiadomienia w GWT o naruszeniu wskazówek dla webmasterów (za co można dostać filtr) i np. pozycje ceneo.pl na zapytanie „ceneo”.

    1. Zgadzam się aczkolwiek to co napisałem dotyczy tylko moich własnych obserwacji. Po prostu nie czytam Kasparów i innych ludków tylko patrze co się dzieje u mnie i na podstawie tego wyciągam wnioski.
      Jednak bardzo dziękuje za info – zacznę bardziej wnikliwie czytać opinie innych. Kurcze tylko Matt Cutts ostatnio do mnie mailował i nie pisał o tym że mam przestać korzystać z SWLi 😀

      A tak w ogóle nie szukacie pozycjonera ? 🙂

  2. Przemku, Michał nie zaprzecza że ten filtr był nałożony ręcznie.
    Teoria spiskowa o której wspomina Michał dotyczy podejrzenia, że Google zrobił to co zrobił, dlatego że chce wejść ze swoją porównywarką. Ludzie z Google’a uzyskali sygnały świadczące o tym, że określone serwisy stosują SWL-e. Analiza Michała wskazuje na prawdopodobne źródło tych sygnałów, a decyzję o filtrze z całą pewnością podjął na końcu człowiek. Nie wyklucza to również teorii o czyszczeniu pola pod nowy produkt Google’a.

Dodaj komentarz