skip to Main Content
+48 606 628 628 info@zgred.pl
Kara Od Google

Filtr algorytmiczny w Google – jak go rozpoznać, usunąć, co zrobić ?

Filtr algorytmiczny w Google to temat rzeka – niestety. Głównym problemem związanym z tego typu karą jest fakt, że jest ciężko postawić prawidłową diagnozę i znaleźć rozwiązanie. Według niektórych źródeł fitlr algorytmiczny to nie jest filtr i nie jest też kara tylko rekalkulacja wyników – ahc jakie to piękne stwierdzenie ;).

kara-od-google

Wiadomo, że dla filtr algorytmiczny nie jest ujawniany w panelu GWT (Google Webmaster Tools) w sekcji „Kara ręczna”. Filtr algorytmiczny to filtr nakładany automatycznie przez wyszukiwarki. Nie otrzymujemy żadnych powiadomień o takich działaniach. Możemy dostrzec jego skutki w statystykach strony i ogólnych odwiedzinach użytkowników. Poszukiwanie jest dość czasochłonne (przez nieustanne testy co jest źle, poprawianie różnych elementów mniej lub bardziej istotnych itede itepe…)

1. Linkowanie – odnośniki do serwisu na kilka fraz EM

Najczęstszą przyczyną filtra w Google jest linkowanie do serwisu – czyli nie jest to jeszcze kara ręczna ale witryna zaczyna się „ślizgać” z ruchem i pozycjamiw wyszukiwarce. Mariusz opisał na swojej stronie kilka objawów w tej kwestii: http://techformator.pl/google-jak-rozpoznac-filtr-algorytmiczny-reczny/ – a ja dodam kilka od siebie:

  • wszystkie frazy pozycjonowane otrzymuja karę
  • witryna otrzymuje „przycinkę”, która objawia się spdakiem ruchu

Zaobserowałem jeszcze taką możliwość, że mamy warianty mieszane czyli:

  • częściowy spadek pozycji fraz
  • częsciowy spadek ruchu
  • lub wszystko razem – spadek częściowy na frazy i ruch

Rysunek poniżej obrazuje frazę „lampy”. Serwis dostał kilka strzałów na kilka fraz (jakies drobne 4 sztuki) – ruch specjalnie nie zmalał. Podziękowania należą się automatom linkujących z różnych for RU na exact match ;)

algorytmiczny-lampy

Dla tego serwisu stwierdzono spadek ruchu rzędu kilku procent, konwersja sprzedażowa też troszkę (ale nie są to pojedyncze procenty).

Obecnie wykonano:

  • optymalizację tekstów (w trakcie przygotowania następne)
  • rozbudowa starych tekstów/opisów
  • dodanie nowych opisów do produktów według analizy BCG (matryca)
  • kilka dodatkowych sklepów (satelitarnych)
  • disavow dla wykrytych w GWT, MajesticSEO nowych linków -tutaj równiez uwzględniono dane znalezione przez CognitiveSEO
  • linki z tak zwanych „dobrych źródeł” ;)

Oczywistą oczywistością jest, że za linkowanie skupione wokół kilku fraz (słów kluczowych) filtr w Google będzie trzymał dopóki dopóty nie zostanie zmieniony profil linków – IMHO jednocześnie należy edytować stare linki zmieniając frazy na „jakieś inne” oraz zdobywac nowe linki w postaci adresów URL -głównie dzięki użytkownikom (WHS) lub samemu (nonWHS ;-) )

algorytmiczny-rozklad-anchorow

 

2. Linkowanie – odnośniki ze słabych jakościowo serwisów

Punkt 1 należy uzupełnić o przypadek kiedy pomimo różnych anchorów praktycznie większość linków (z doświadczenia z reguły ca 90% i więcej) była ze stron o niskiej lub bardzo niskiej jakości (z naciskiem na bardzo bardzo). Wtedy niewiele można zrobić ale trzeba się narobić i to w dośc długim okresie czasu. Zmiana profilu linków zajmie kilka miesięcy. Stąd tez czasem można zaporponowac klientowi zbudowanie drugiego serwisu ale do tego trzeba podejsc rozsądnie – nikt nie zbuduje kopii księgarni z 50 tysiącami pozycji w miesiąc ;)

Zdarzyło mi się dwa razy kiedy tego typu witryny poddały się (wzrost ruchu) gdy:

  • pozyskano linki z zaufanych źródeł
  • odcięto SWLe (szczególnie te rotacyjne)
  • wykonano disavow (niestety)
  • usunięto odnośniki ze słanych witryn (np precle)

Czyli praktycznie postępuje się jak przy filtrze ręcznym ale efekt jest widoczny po kilkunastu tygodniach :(

3. Kopie opisów w sklepie

To jest nagminny problem. Jest to także jeden z podstawowych problemów jakie napotyka się w sklepach typu: odżywki, suplementy, apteki i tak dalej – czyli wszędzie tam, gdzie nie wolno zmieniać opisów z uwagi na prawo (szczególnie widać to właśnie przy aptekach). Wszelkie audyty seo powinny zawierać również wskazanie o tym fakcie oraz sposób przynajmniej częściowego rozwiązania problemu:

  • przebudowa kategorii sklepu do takiej postaci aby można było wykonac optmalizację i „wsadzić tam” dobry i rozbudowany opis wraz ze zoptymalizowanymi słowami kluczowymi
  • optymalizacja kart produktowych plus jak najsilnieszje linkowanie wewnętrzne
  • budowa serwisów satelitarnych z opisem np biegania wyczynowego i jakich odżywek używać – budowa contentu
  • moga być tez ordynarne zaplecza „szybkiego sorty i krótkiego żywota” – ale to tylko dla „sezonowców” dobre rozwiazanie

Ostatnimi czasy nagminne staje się kopiowanie opisów ze stron klientów będących w top20 do opisów katalogów, precli, czy tez nawet na strony własnych klientów (kilku ubiłem poprzez DMCA, kilku skasowało opisy wskazane jako kopie).

4. Błędy skryptu – długi czas odpowiedzi

Rzadko spotykany ale dość łatwy do wychwycenia – błędy skryptu powodujące powstawanie błędów 50x, które odpowiadają za cza s odpowiedzi od serwera. Tutaj różnie mówią ale jeśli czas przekracza 2 sekundy zacząłbym siępoważnie zastanawiać. Mój blog czasami ma „przywieszki” spowodowane dość starym serwerem – zainstalowałem cache – pomogło.

Możliwe jest też złe ustawienie serwera ale to sporadyczne przypadki i z reguły zdarzają się tym dużym ;) hostingom.

5. „Dziurawy” skrypt

Ten element jest trudny do wychwycenia ponieważ jest dużo rzeczy do sprawdzenia. Jednakże nalezy się spodziewać, że w przypadku dziury będizmey mieli ostrzeżenie o szkodliwej witrynie bo istnieje wstrzyknięty trojan, wirus czy iframe… Więc reakcja jest dość prosta.

Warto też sprawdzać wszelki epliki javascript, kóre są popdinane pod np skórki do WordPressów, zakodowane stopki etc…

6. Programy stowarzyszeniowe – partnerskie

Filtr algorytmiczny można dostać jeszcze za uczestnictwo w programi partnerskim. W większości jest nakładany filtr ręczny z powiadomieniem o niskiej jakości natomiast nie zawsze. Na forum Google dla Webmasterów zdarzają się pytania i przypadki, kiedy ewidentnie filtr jest za program partnerski a nie ma „ręcznego”. Można to zaoberwować zarówno jako spadek na pozycjach dla pozycjonowanych fraz jaki i w ruchu. Algorytmiczny dotyka całej witryny (z resztą rzadko kiedy jest ona rozbudowana)

7. Upychanie słów kluczowych

Filtr można też otrzymać za upychanie słów kluczowych. Jeśli się „przegnie” przychodzi ręczne powiadomienie o naruszeniu wskazówek jakościowych na stronie. Uprzedzam, że nie ma jednoznacznego czynnika ile słów kluczowych może być na stronie i kiedy otrzyma się filtr czy też powiadomienie. Tekst i słowa należy dobierać rozsądnie. Z testów (kiedyś) stron finansowych 120 razy słowo kredyty dało filtra na jednej stronie, ale 50 razy też to samo jeszcze nie. Kwestia zapewne była długości artykułu oraz znacnzików Hx oraz boldowania.

 

 

Na koniec drobne podsumowanie o filtrze algorytmicznym:

  • związany jest z ruchem i/lub spadkiem fraz
  • nie ma komunikatu w panelu GWT
  • może istnieć kilka jego przyczyn jednocześnie
  • trudny do wychwycenia
  • długotrwały ze względu na reakcję algorytmu Google na wprowadzane zmiany

 

Zapraszam do dyskusji i rozwinięcia tematu :)

 

Uzupełnienie 22-04-2014 :)

Jak to zwykle bywa coś się przypomni po fakcie. Punkt 6 i 7 dodany.

 

potrzebujesz pomocy z filtrem ? Napisz do Nas

 

 

1 gwiazdka2 gwiazdki3 gwiazdki4 gwiazdki5 gwiazdek (14 głosów, średnia: 4,36 z 5)

Paweł Gontarek

Paweł Gontarek - Zgred - pasjonat SEO, staram się zrozumieć czym jest i jak działa SEM oraz UX.

Ten wpis ma 53 komentarzy
  1. Jeśli znajdziemy już przyczynę takiego filtru i dotyczą one zawartości serwisu, usuniemy wszystkie problemy, to ile czasu mija, nim filtr zostanie zdjęty? Jest jakaś reguła, czy totalna losowość?

    1. Nie ma reguły – widać to albo po wzrosci epozycji na frazy, albo po wzroście na ruchu, albo obie rzeczy jednocześnie. Czasem mija kilka dni i jest reakcja, czasem kilka tygodni i trzeba szukac dalej bo nie ma reakcji. Problematyczne są linki bo jeśli w nich się grzebie to bez zmiany sposobu i jakości linkowania może być ciężko zrobić cokolwiek :(

      1. Dziękuje za odpowiedź ;)

        Mam nadzieję, że moje zmiany zadziałają niedługo – od wprowadzenia minęło już prawie 2 tygodnie.

        Dodałbym jeszcze, że filtra można dostać, gdy ktoś za spamuje nam serwis (np. komentarzami) linkami do niepewnych stron, a są one dofollow.

  2. Chore jest dla mnie to, że nie ma komunikatu o filtrze. Dlaczego?
    A tak to człowiek musi analizowac, szukac itp żeby sprawdzić czy spadek ruchu to skutek filtru…

    1. A po co ma być skoro Google ani nie jest etyczne, ani nie dba o właścicieli witryn. Ta wyleci to będą inne…

  3. Jak strona nie reaguje na optymalizację i dobre linkowanie wzrostem pozycji to po miesiącu starań spokojnie można zakładać, że ma algorytmiczny filtr. Najlepsze rozwiązanie to ciągle poprawianie i rozbudowa on-site SEO, zdobywanie linków z najlepszych źródeł oraz co ważne usuwanie spamu do strony, gdyż w przeciwnym razie zdjęcie filtra może trwać wieczność. Co ważne zdjęcie filtra algorytmicznego jest prostsze jak strona ma go już od roku lub dłużej, wtedy spam do strony „obumarł” na tyle, że filtr może puścić samodzielnie, bez pomocy pozycjonera.

  4. Reklama internetowa dynamicznie rozwija się wraz z rozwojem internetu i coraz większe miliardy firmy tu kierują. Google doskonale to widzi i podejmuje wiele działań aby te środki trafiały do ich kasy a nie do kas innych firm. Mamy więc coraz więcej reklam w różnej postaci pod szyldem Googla. Aby firmy szybciej po nie sięgnęły są zniechęcane do finansowania w działania seo. Jednym z tych działań jest również filtr algorytmiczny a za chwile pojawi się kolejna odmiana pingwina.

  5. Mam jedną tak zafiltrowaną stronę od lat i po walkach o odfiltrowanie stwierdzam, że nie warto się męczyć. Najlepiej postawić stronę pod nową domeną.

    1. I co dalej? Linkować po staremu i za jakiś czas kolejna zmiana? Jak się nie dba o markę i nie zależy na domenie to jest dobre i tanie wyjście.

  6. Wychodzenie z filtrów to dobry zarobek, bo najczęściej zależy na tym mocnym graczom rynku. Wiadomo, że nagminne karanie ma na celu przejście na ppc.

  7. Na chwilę obecna sporo tych zastrzeżeń a pewnie lista będzie się rozwijać w miarę jak pojawią się nowe niechciane przez google „kwiatki” prawda?

  8. Posiadam taki filtr od paru miesięcy na jedną frazę jednego dnia jest na 12 miejscu drugiego nie ma jej wcale, profil linków zmieniony, cos można jeszcze robić?

    1. Przede wszystkim nie spamowac mi komentarzy ;)

      1. Przestać ją linkować
      2. Zoptymalizowac stronę pod tę frazę
      3. Możliwe, ze trzeba zmienić sposób zdobywania linków.

  9. Takie gadanie, co to znaczy slaby jakosciowo link ze slabej jakosciowo strony? Mam prosbe wskaz mi o to palcem ktory to jest slaby a ktory jest dobry hehe oprocz strony glownej onetu?:)

  10. Czy przy algorytmicznym w przypadku zgłaszania śmieciowych linków należy listę udostępnić pracownikowi G. (w Google docs) czy wystarczy samo przesłanie listy?

    1. W przypadku filtra algorytmicznego nie masz możliwości wysłania żądania ponownego rozpatrzenia. Więc tylko dla Siebie tworzysz taki dokument i wgrywasz go jako DISAVOW – jeśli uważasz, że te linki są śmieciowe i nie możesz ich usunąć.

  11. Największy problem w sklepach to kopiowana treść od hurtownika. A wystarczy ją tylko przeredagować by już mieć lepsze wyniki nawet bez pozycjonowania. I tak jak mówisz oferty z aukcji to niemal pewna kara. Jaka cena takie efekty (przynajmniej te super oferty za 10zł).

  12. Mam stronę od 4 lat i raczej wszystko było stabilnie, powoli się pięła ku górze. Z rok temu jedna fraza którą obserwowałem zaczęła tańce jakieś pozycje 11-4-out-40-7-out i tak z miesiąc trwało w końcu wyleciała >100

    A dzisiaj rano na trzech stronach które obserwuję totalna masakra, po ok. 10 fraz na każdej poleciało w dół, a niektóre >100 kilka o 10-30 miejsc.

    O ile w przypadku pierwszym mógł by to być filtr, chociaż nie wiem czemu, bo właściwie w ogóle nie walczyłem o tę frazę, to przypadek dzisiejszy to chyba jakieś zawirowania Google, bo filtry jednego dnia na 3 stronach nie związanych ze sobą (budowlanka, zespół muzyczny i motoryzacja) to chyba był by straszny zbieg okoliczności

    1. Odczekałbym kilka dni bo może jakaś rekalkulacja wyników jest. Trzeba też mieć na względzie, że G nie gwarantuje wyników, jak również są inne przyczyny np konkurencja, źle wykonan aoptymalizacja, błędy na stronie i w skrypcie etc… Stąd fluktuacje.

  13. Mam stronę która od jakiegoś ma filtr na daną frazę jednego dnia jest na pierwszej stronie drugiego nie ma jej wcale i tak codziennie linki śmieciowe usunięte. Co robić podlinkować ja czy zostawić na jakiś czas?

      1. dzięki za odp, a jeśli chodzi o optymalizacje podstrony to robimy również nagłówki h1,h2,h3,h4?? i robić to według wskazówek np seoptimer??

  14. Coś się dzieje w G, o 9:00 część fraz wróciła na swoje miejsce, a nawet awansowały (22–>8, 38–>4), a o 12:00 część znowu poleciała.

  15. Niedobrze, oj niedobrze. Od tygodnia 2 frazy poleciały .>100 niestety. Wcale mi się to nie podoba. Nie wiem czy już zacząć grzebać w linkach w GWT ?

  16. Witam serdecznie, mam pytanie. Znajomy prowadził sklep na dwóch adresach (oczywiście kopia 1:1 ). Jeden ze sklepów pozycjonowany ten drugi nie. Miesiąc temu wyłączył „duplikat” . Jednak dalej siedzi w indeksie(ponad 5 tys stron.)
    Dzisiaj najprawdopodobniej złapał filtr algorytmiczny (brak info o ręcznych działaniach, duże spadki (30+ miejsc w dół).

    Czy może to być wynikiem duplikacji serwisów ?

    1. Jeżeli wyłączył kopię miesiąc temu to może coś źle wyłączył ??? Jednakże jesli to aż po miesiącu podjerzewałnym proces pozycjonowania jako niewłaściwie przeprowadzony niż karę za kopię.

      1. Strona odziedziczona pół roku temu po „dużej” firmie z Krakowa. W spadku zostawili spam w seokatalogach. Od pół roku wysyłaliśmy prośby u usuwanie wpisów i strona była dodawana do katalogów typu onet, wp, interia (z listy VIP). Pozycje szły w górę, linkowana praktycznie na frazy brandowe.

        Serwis ma problem z linkami wewnętrznymi. Skrypt generuje kilkaset linków ze strony głównej, z czego spora część jest na taki sam anchor(np. 70x baterie) i ten link prowadzi do wygenerowanych na podstawie menu nagłówków h1- też zduplikowanych. Doprowadza to również, do przesycenia tym słowem kluczowym na każdej podstronie (7-8%).

        Jeśli wina nie leży po stronie zduplikowanych serwisów, to zostaje kwestia kiepskiej optymalizacji, pozostałości po starej firmie SEO sprzed pół roku lub niedawne dodanie do katalogu gooru.pl (lub wszystko naraz)

        1. Jesli jest jak piszesz to usiadłbym do optymalizacji bezwzględnie. Potem i tak poczyscił troszkeprofil linków (jeśli seoki to napewno jes to grupa lub własciciel esą do namierzenia – problemem mogą być tylko seoki wielokrotnie przenoszone co własnie przerabiam).

          Jak chcesz mogę rzucić oczkiem ;)

  17. Dziękuję za dużą porcję praktycznej wiedzy odnośnie zdejmowania filtra z witryny – niestety właśnie to przerabiam i sprawdzę w praktyce powyższe zalecenia. Zastanawiam się czy czekać na informację z Narzędzi Google o zdjęciu filtra czy działać już w temacie pozyskiwania „wartościowych” odnośników – nie zmarnuje się taka praca? Dużo linków poleciało w związku z czyszczeniem profilu BL ;S

  18. Z tego co ostatni się dowiedziałem, podobne objawy jak filtr algorytmiczny, czyli znaczny spadek pozycji, może wystąpić również przy niestabilnym serwerze na którym mamy stronę.

  19. Zgłosił się do mnie klient, do strony prowadzi ok 8-9k linków i prawdopodobnie dostała filtr algorytmiczny. Po przepuszczeniu przez odkurzacz połowa odpadła (domeny z banem, errory stron, brak linka), łącznie zostało 3500 linków. Po dalszej weryfikacji wyszło, że ok 100 można warunkowo przepuścić (linki z profili na forach, niestety nawet nie powiązanych z tematyką strony), reszta to meeega słabe precelki itp. Najsłabsze rejony internetu z najsłabszych. I zastanawiam się, czy warto bawić się w wyciąganie strony z filtra (tak przypuszczam, bo stronka poleciała w dół dość mocno) czy zasugerować przeniesienie na nową domenę? Swoją drogą dla klienta byłaby to już kolejna przeprowadzka, po firma po której stronę przejąłem już przenosiła z powodu filtra…. i sama ją do niego wprowadziła :) Do strony nie prowadzą tak naprawdę żadne sensowne linki…. Usunięcie linków nie powinno być problemem – zakładam, że większość to zaplecze poprzedniej firmy. Tylko czy stronka wróci do normy, jeżeli na start dostanie:
    – oczyszczenie ze słabych linków
    – konkretną optymalizację
    – linkowanie na najmocniejsze katalogi
    – trochę szeptanki na forach tematycznych?

    To działania na start, ale pewien budżet pochłoną i nie wiem, czy nie będą to pieniądze wywalone w błoto….

    1. Wróci … ale naj..sz się sporo i czasu stracisz. Sądzę, że efekty będzie można zoabczyć po kilku miesiącach do roku czasu. Wcześniej się nie uda bo raz że zrobisz to delikatnie a dwa skoro delikatnie to szybko nie nalezy :)

      1. Czyli co, bawić się, a ruch na stronie uzupełnić AdWordsem oraz wspomnianymi wcześniej linkowaniami i cierpliwie czekać, czy przenieść wszystko na nową domenę, która od początku będzie miała WHS robione. Bo naprawdę mam dylemat. Jedyną zaleta w tym linkowaniu jest to, że było ono robione na polskich stronach, prawdopodobnie w zapleczu, więc ok. połowę da się spokojnie usunąć i to dość szybko (przynajmniej taką mam nadzieję)

  20. Filtr ręczny i prośba o ponowne rozpatrzenie to wielka ściema pracowników nieomylnego G.
    Uzasadnienie proste:

    Test 50 domen w ręcznym:
    25 – DNS przekierowany na rejestratora domeny
    10 – DNS przekierowany na domenę w filtrze ręcznym!
    10 – bez zmian / dodatkowo disavow link
    5 – nie aktywnych – no live

    Teraz tak – zero tłumaczenia i próśb o wyjście – tekst typu „poprawiono”
    W ciągu 7 dni rozpatrzono 34 domen.
    W tym 31 pozytywnie, 2 negatywnie, 1 negatywna ale z uzasadnieniem.
    I tu nasuwają się proste wnioski jak rozpatrywana jest domena.
    Gdzie algorytm a gdzie faktycznie human
    Domeny zawieszone powyżej 2m „wyszły” pierwsze

  21. Na bank właśnie mam taki filtr ale chyba tylko na kilka fraz . webmaster tools pokazuje mi w analityce wyszukiwania dla strony frazę gogolin i miejsce 7,9 a w wynikach nie ma nawet w pierwszej setce . Inne frazy pasują miejsca do wyników.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Back To Top
Przeczytaj poprzedni wpis:
Moje spotkanie z Temidą czyli o tym jak broniłem audyt doboru słów kluczowych w Sądzie

Wysoka Sprawiedliwości (której nie ma bo jest Wysoki Sąd) wezwała Mnie do Poznania jako świadka. Zostałem przesłuchany na okoliczność sporządzonego...

Jak nie kijem go to pałką – czyli o wykorzystaniu SWL rotacyjnego i nie tylko :)

Nie od dziś wiadomo, że wszelkie zdobywanie linków za pomocą systemów wymiany linków kończą się jako tako źle. Oczywiście nie...

Zamknij