Czy białe SEO działa?

Według Google TAK!

Nie będziemy się z nimi spierać.
Po prostu je robimy.

Aby zapytać o ofertę, wypełnij formularz:

Twój miesięczny budżet przeznaczony na kampanie:

Google nie odpuszcza, masowe filtrowanie domen!

Niedawno pisałem o kolejnych zmianach algorytmu Google, które uderzyła w najbardziej zaspamowane frazy. Można przyjąć że była to jedna z kolejnych poprawek algorytmu, która miała na celu poprawę jakości wyników wyszukiwania.

Od 3 lipca Google przystąpiło do frontalnego ataku na domeny, które używają lub używały w przeszłości automatycznych metod pozyskiwania linków. Efekt jest taki, że bardzo wiele domen zostało ukaranych ręcznym filtrem nałożonym przez pracowników SQT (Search Quality Team) Google, co znalazł swoje potwierdzenie w komunikatach widocznych w narzędziach dla webmasterów skojarzonych z tymi witrynami.
Bardziej widocznym symptomem jest gwałtowny spadek pozycji witryn na frazy, które były intensywnie linkowane.

Ciekawe są komentarze z branżowych forów poświęconych SEO. Wynika z nich, że filtr został nałożony nie tylko na aktualnie pozycjonowane strony, ale również na takie, które nie są pozycjonowane nawet od 2 lat! Wygląda więc na to, że Google sięgnęło głęboko do swojego archiwum aby ukarać nieetyczne działania właścicieli witryn.

Analizując poczynania Google można dojść do wniosku, że dokonało ono niesamowitej manipulacji, nakłaniając samych właścicieli witryn do zgłaszania spamerskich linków, co w efekcie pozwoliło Google opracować listy bezwartościowych domen stanowiących zaplecza pozycjonerskie. Mając takie listy, Google bez większego problemy odnalazło inne witryny korzystające z takiego zaplecza i ukarało również ich właścicieli kolejnymi filtrami.

Schemat działania wydaje się prosty (jest to tylko moja teoria):

  1. Pod koniec 2012 roku Google wprowadza do swoich algorytmów poprawkę "Pingwin"
  2. Na skutek odnalezionych przez algorytm nieprawidłowości w linkowaniu, potwierdzonych przez SQT wielu właścicieli witryn dostaje informacje o filtrze i o możliwości zgłaszania niechcianych linków
  3. Właściciele witryn masowo zgłaszają wypracowane wcześniej linki, grzebiąc całkowicie pracę pozycjonerów.
  4. Google analizuje zgłoszenia, przywraca część witryn, więc można przyjąć, że narzędzie zgłaszania niechcianych linków jest skuteczne.
  5. Jednocześnie Google buduje sobie bazę witryn z których pochodziły te niechciane linki.
  6. Mając taką wiedzę i wszystkie dostępne witryny w swojej bazie, Google analizuje, do jakich jeszcze witryn prowadzą linki z tych z "czarnej listy" i na nie również nakłada filtr o którym wspomniałem na początku.

Można przypuszczać, że na tym akcja „czyszczenia” się nie zakończy, a roboty Google „nakarmione” kolejną porcją niechcianych linków zgłoszonych przez użytkowników chcących wyciągnąć swoje strony z filtra tylko jeszcze bardziej zaciśnie pętlę.
 

Pytanie, które nasuwa się po analizie tego, co się dzieje brzmi: Co pozostanie w wynikach wyszukiwania, jeżeli Google będzie nakładać filtry na wszystkie strony, które choć trochę manipulują wynikami - czy będą to faktycznie wartościowe witryny, a może tylko kolejne wpisy z Wikipedii lub ceneo?
Zobaczymy, czas to z pewnością zweryfikuje. Aby nie kończyć w tak smutnym klimacie napiszę, że witryny, które pozycjonujemy tylko za pomocą tych „najbielszych” metod nie ucierpiały. Pozostaje mieć nadzieję, że to właśnie one zajmą te „zwolnione” pozycje, czego Wam wszystkim i sobie życzę.
 

P.S.
Jeżeli chcesz sprawdzić, czy Twoja strona nie dostała filtra, a nie masz jeszcze konta w narzędziach dla webmasterów, możesz je założyć na tej stronie
P.S.2
Jeżeli chcesz poczytać o ciężkich doświadczeniach pozycjonerów i ich teoriach, zapraszam na stronę forum poświęconego pozycjonowaniu i optymalizacji. TU masz link do konkretnego wątku związanego z ostatnią falą filtrów.
P.S.3
Napisz, proszę w komentarzu pod artykułem, co myślisz o strategii Google.
 


 Dodaj komentarz 
Nick:
Komentarz:
 
Wpisz kod z obrazka