skip to Main Content
+48 606 628 628 info@zgred.pl
SEO Audit On Red Puzzle.

Audyt SEO witryny internetowej od środka

Klienci często pytają Mnie „co tak naprawdę dostaję w audycie SEO”. Moi sympatyczni konkurenci (czytaj: koleżanki i koledzy z branży) też wielokrotnie pytają co i jak ma się znaleźć w takim dokumencie. Zbierając wszystko razem postaram się to w kilku „krótkich” słowach opisać krok po kroku co może znaleźć się w audycie. Na pewno nie wyczerpię wszystkiego ponieważ audyt SEO powstaje indywidualnie dla każdej witryny z tego powodu, że każda jest inaczej zbudowana. Ale cechy wspólne na pewno są.

Audyt SEO – Przygotowanie do audytu

Jak siadasz do audytu to lepiej od razu wstań… nie warto rzucać się od razu do wykonania analizy. Najpierw należy zacząć od ….

Wskazówki dla webmasterów według Google … aaaaale żarcik ;)

Obejrzyj i poklikaj w serwisie

Zanim tak naprawdę zaczniesz audyty seo i rozpoczniesz szukanie błędów w serwisie najpierw należy „poużywać” go jako zwykły użytkownik wchodząc we wszystkie linki, wyszukując rożnych rzeczy (o ile jest wyszukiwarka – najczęściej w sklepach i dużych serwisach). Należy obejrzeć czy serwis działa szybko, czy wolno, jak się ładują strony, czy jest wygodna nawigacja (o której pewnie tutaj nie napiszę bo to SEO a nie marketing), posprawdzać czy serwis ma zaimplementowane przekierowania, poprawnie zwraca strony z błędami (404) czy się zawiesza dając error500 ? Można też przynajmniej wzrokowo popatrzeć czy serwis ma teksty wytłuszczone, powiększone (tutaj podejrzenie pada na H1, H2, H3)…

Pewnego rodzaju udogodnieniami są narzedzia dostępne na rynku… sam korzystam z kilku: opisywanego juz na blogu Seoptimer oraz od jakiegoś czasu Screaming Frog SEO Spider Tool (bardzo fajne narzędzie – wersja darmowa daje możliwość analizy kilku podstawowych czynników – polecam). Screaming Frog szczególnie przydaje się do wyłapywania pustych stron, stron z błędami – czyli tego co Google nie lubi przy indeksacji.

Co dać robotom …

… do indeksacji. Tutaj można spotkać wiele różnych opinii. Dla Mnie istotna kwestia jest:

  • jakie roboty wpuścić, jakie zablokować
  • co im dać do indeksowania

De facto wpuszczać należy Google ;) a blokować wszystko co zżera transfer (np: Yandexa, Baidu i inne robociki uznane popularnie za pazerne).

W kwestii co blokować do indeksacji to należy zablokować: skrypty javascriptów, css, obrazki (jeśli tego wymaga sytuacja), ciasteczka, zablokować indeksowanie znacznika sesji (powoduje duplikację stron).

Spójrz do Webmaster Tools oraz statystyk

Jeśli klienta strona jest podłączona do Google Webmaster Tools należy poprosić o dostęp i sprawdzić co tam piszczy. Niejednokrotnie ułatwia Mi to życie oraz analizę – widać od razu co jest do poprawienia (błędy HTML, błędy indeksacji), jakie słowa kluczowe są wysoko, jakie nisko, skąd pochodzą linki …i tak dalej. Dobrze jest też zerknąć do statystyk (np Google Analytics). Audyt SEO bez dostępu do panelu narzędzi jest możliwy ale dobrze tam zerknąć.

 

Co analizujemy przy audycie SEO

Właściwa analiza składa się z pięciu sekcji, które należy sprawdzić i opisać:

  1. Dostępność
  2. Indeksacja
  3. Czynniki na stronie (on-site factors)
  4. Czynniki poza serwisem (off-site factors)
  5. Analiza konkurencyjności (rzadko wykonywana ponieważ jest kosztowna i klienci się na nią nie decydują)

Dostępność

Jeśli chodzi o dostępność to analizie podleagają następujące sprawy:

Plik robots.txt

Plik robots.txt jest używany do sterowania zachowaniem się robotów indeksujących nasz serwis. Możemy zabronić albo zezwolić na indeksację poszczególnych elementów serwisu. Ze swej strony powiem tylko, iż często spotykam się z problemami poprawnej konfiguracji tego pliku.

META Tagi dla robotów

Jest to bardzo istotny tag META – pozwala sterować indeksacją poszczególnych podstron serwisu. Szczególnie przydatny w sklepach internetowych gdzie powstaje sporo podstron, których indeksacja jest niepotrzebna (np. regulaminy, koszyk, rejestracja klientów, logowanie…).

404, 500 …

Należy odszukać i poprawić zachowanie serwisu dla błędów zwracanych wyszukiwarkom – błędy 404 (brak strony) powinny pokazywać konkretną informację wraz z odnośnikami do kilku podstron serwisu. Jeśli serwis działa niepoprawnie zwracać może błąd 500 o niedostępności – wyszukiwarki tego nie lubią i potrafią „otagować” serwis jako sprawiający kłopoty i przesunąć go w wynikach wyszukania na dalsze pozycje.

XML Sitemap

Jest to dokument, dzięki któremu robociki wiedzą co, gdzie indeksować. Jednocześnie dzięki temu plikowi indeksacja następuje dużo szybciej. Brak tego pliku „prawie” uniemożliwia robotom śledzenie zmian w sklepie.

Ten plik podlega pewnym prawom:

  • czy jest prawidłowo zbudowany – trzeba to sprawdzić gdyż zdarza się, że składnia jest niewłaściwa i np Google potrafi taki plik wtedy pominąć
  • sitemap’ę należy dodać w centrach Webmatser Tools aby wskazać wyszukiwarcę, ze taki plik istnieje i aby podążała najpierw do niego w celu lepszej indeksacji serwisu
  • zawsze plik nalezy aktualizować po dodaniu nowej strony czy tez produktu – klienci (zwłaszcza właściciele sklepów) nie przywiązują do tego wagi
  • jeśli usuwamy jakieś produkty czy stronę – taka podstrona serwisu MUSI zniknąć z pliku sitemap

Osobiście dla swoich katalogów (z racji ich wielkości) staram się aby plik sitemap był aktualizowany raz na 2-3 tygodnie.

Architektura serwisu

Wbrew pozorom jest do bardzo istotny czynnik. Szczególnie ważne jest to przy sklepach internetowych oraz dużych, rozbudowanych serwisach.

Łatwiej jest zapanowac nad strukturą płaską:

niż nad rozbudowaną:

Wpływa to na prędkość indeksacji, łatwość pozycjonowania (im „głębszy” serwis tym gorzej może się go pozycjonować), wyszukiwarki nie lubia tez indeksować długich adresów URL. Przykładem mogą być katalogi stron, których zagłębienie kategorii może być bardzo duże. Naprawdę nie warto budować takiej struktury. Choć nie ukrywam, że czasem nei ma od tego ucieczki.

Flash i Javascript

Proszę unikać stron wykonanych w całości bądź w większej ilości we flashu. Oczywiście bardzo ładnie to wygląda ale pozycjonowanie i indeksacja flash’a jest „praktycznie” niemożliwa. Podobnie sprawa ma się z Javascript’em – widziałem ostatnio stronę, która w całości była wykonana w tym „czymś” – po wyłączeniu w przeglądarce obsługi javascriptu strona stała się nieczytelna. W związku z tym uczulam: mało TAK, dużo NIE !!!

Wydajność strony

Tutaj sprawa jest prosta: im dłuzej strona się ładuje tym bardziej „wnerfionego” klienta masz przed ekranem i tym szybciej ucieknie z Twojego serwisu.

Google Page Speed pozwala CI sprawdzić wydajność, prędkość ładowania Twojej strony – sprawdzenie swojego serwisu jest szybkie – dostaniesz konkretne wskazówki co i jak poprawić.

Indeksacja serwisu

Trzeba rozejrzeć się w wyszukiwarkach jak jest zaindeksowany serwis. Wiadomo, że najważniejszy jest Google więc sprawdźmy:

  •  zaglądamy do Google Webmaster Tools i sprawdzamy co i jak jest zaindeksowane – idealnie jest gdy mamy równa sobie liczbę linków zgłoszonych do zaindeksowanych

poziom indeksacji

I tutaj mamy dwa scenariusze:

  • jeśli liczba linków zaindeksowanych jest DUŻO większa niz prawdziwa liczba linków w serwisie to może (podkreślam może) oznaczać, że cos jest źle – czyli mamy duplicate content w obrębie witryny np poprzez zmiennie dynamiczne zmienaine TITLE (jedna z firm seo to stosuje … witki opadają)
  • jeśli liczba linków zaindeksowanych jest DUŻO mniejsza od liczby linków w serwisie to może (podkreślam może) oznaczać, że podstrony tego serwisu są słabo, źle albo wcale podlinkowane lub zawierają takie błędy, ze trafiły do supplementala

Sprawdzić należy też czy są zaindeksowane wyniki wyszukania – jeśli tak – zablokować. Pisałem o tym tutaj.

Filtry, kary od Google

Tutaj to jest temat rzeka. Klient zgłaszający się po audyt z reguły już ma jakąś nałożona karę. To co można sprawdzić to:

linki – jakość, sposób pozyskiwania, działanie konkurencji, SWL-e

zawartość – czy są zduplikowane artykuły w i poza serwisem, czy produkty są dodane do porównywarek

i tak dalej – nie będę się rozwodził ale na fakt kar i dzięki wywiadowi od klienta możemy podjąć działania , które pomogą nakreślić kolejne etapy działania z witryną.

Czynniki na stronie (on-site factors) – ważny aspekt audytu SEO

Do tej pory, mamy analizie dostępności i poziomu indeksacji witryny. Teraz nadszedł czas, aby zwrócić uwagę na charakterystykę stron witryny, które wpływają na jej ranking w wyszukiwarkach.

Ogólnie rzecz biorąc, analiza strony jest przydatna do identyfikacji konkretnych przykładów możliwości optymalizacji i analiza na poziomie domeny pozwala określić jak nakład pracy jest niezbędny do dokonania korekty całego serwisu

 Adresy URL

  • Czy adres URL jest krótki i przyjazny dla wyszukiwarki ? Długość adresu max. 115 znaków
  • Czy adres URL zawiera interesujące nas słowa kluczowe ? Jest to ważne aby słowo/słowa kluczowe znajdujące się w adresie URL odpowiadały i były związane z tekstem na stronie
  • Czy adresy są oparte na strukturze poddomenowej czy podkatalogowej (foldery) ? Zgodnie z zaleceniami Google podkatalogi (foldery) stosuje się wtedy kiedy wszystkie części serwisu są ze sobą zbieżne tematycznie. Jeśli nie – stosujemy poddomeny.
  • Czy URL zawiera jakieś zbędne znaki, parametry czy inne „podjerzane” elementy mogące wpływac negatywnie na SEO ? Najlepiej unikać wszelkich zbędnych ozdobników, parametryzacji, przekazywania sesji, sortowania i tak dalej …. Parametry i inne rzeczy można zablokować w Google Webmaster Tools.
  • Czy adresy URL używają jakichkolwiek znaków do oddzielenia słów kluczowych ? Tutaj mamy dwie szkoły: podkreślenie i myślniki. Osobiście nie mam nic przeciwko podkreślnikom ale myślniki (minusy) lepiej wyglądają i łatwiej się je czyta.

Zawartość czyli treść

Tak naprawdę powinno się „przebadać” cały serwis jednakże niejednokrotnie wystarczy „rzut oka” i sprawdzenie kilku podstron aby wiedzieć czy i jakie błędy zostały popełnione.
  • Czy treść jest wystarczająca ? Tak naprawdę nie ma minimalnej i maksymalnej długości treści co do której wyszukiwarka podejmie decyzję czy i na ile jest on wartościowy. Wiadomo, że ma być pod użytkownika (hehehe) … no ale wiadomo, że im dłuższy tym lepszy bo można przekazać więcej informacji ;)
  • Czy tekst jest wartościowy dla użytkownika, który odwiedza stronę ? Tutaj wiadomo, ma to być artykuł dzięki któremu zainteresujemy czytającego … W sklepach jest to opis produktu, więc opis musi być zrozumiały (jeśli techniczny) zwięzły i czytelny. Nie może to być papka słów, bo stracimy potencjalnego klienta na zakupy.
  • Czy opis, artykuł zawiera słowa kluczowe, które są pozycjonowane ? Czy te słowa pojawiają się w tak zwanej zajawce ? Majac serwis z artykułami skonstruować tekst z zajawkami jest łatwo. Niestety przy sklepach jest to prawie niemożliwe. Stąd tutaj de facto należy się skupić na fakcie aby słowo/fraza była w opisie produktu.
  • Spam w artykule, opisie (np., keyword stuffing)? Upychanie słów nie służy i to bez względu gdzie to nagromadzenie słów się znajduje.
  • Profesjonalizm w opisie – czy jest? Opis nie powinien zawierać błędów i być dostosowanym do prezentowanego produktu. Tutaj wskażę jedną ciekawostkę – użytkownicy dodający komentarze często popełniają błędy i przestawiają literki – nie poprawiać tego ponieważ daje to efekt „naturalności” w komentarzach (nic nie podpowiadam po co to napisałem ;) ).
  • Czy zawartość strony jest czytelna ? Wiadomo, że nieciekawy i niezbyt dobrze widoczny artykuł powoduje „ucieczkę” klienta – dobre rozmieszczenie tekstów na stronie (czyli dobry projekt strony) to podstawa.
W tym artykule [klik] podałem odnośnik do opisu jak zbudować stronę produktu … jest to bardzo istotny element budowy każdej strony internetowej bez względu na jej wielkość. Dobrze jest aby po wdrożeniu sprawdzić jak zachowują się użytkownicy na stronie, w co klikają, gdzie przechodzą – aby podstawić im taką zawartość wskutek czego dojdzie do np sprzedaży.

HTML … czyli co w trawie tak naprawdę piszczy ?

Jasnym jest, że każdy serwis powinien spełniać „jakieś tam” standardy – piję tutaj do W3C. Sporo osób twierdzi, że poprawna budowa strony i wykonanie jej zgodnie ze standardami powoduje jej lepsze postrzeganie przez wyszukiwarki. A guzik prawda … jest wiele witryn, które są wysoko i nie są zgodne z W3C. Jeśli chodzi o SEO zgodność z W3C to tylko mały dodateczek ;)

Tytuł – TITLE

  • Czy tytuł jest zwięzły ? Tytuł strony powinien maksymalnie składać się z 70 znaków. I nie należy tej granicy przekraczać bo potem serwis „dziwnie” jest zaindeksowany.
  • Czy tytuł właściwie opisuje zawartość strony ?
  • Czy tytuł zawiera pozycjonowane słowo kluczowe oraz czy znajduje się na początku ? Tytuł strony MUSI (a przynajmniej powinien) zawierać pozycjonowane słowo kluczowe.

META DESCRIPTION, KEYWORDS

Te parametry są pomijane w procesie pozycjonowanie ale tutaj pojawia się jedno ALE !!! W przypadku gdy wyszukiwarka wychwyci SPAM w tych polach na witrynę nakładana jest kara. Najczęstszym błędem jest upychanie słów kluczowych… I niestety użytkownikom zwłaszcza sklepów bardzo ciężko jest wytłumaczyć, że takie zabiegi są złe „no bo przecież są wysoko”…

Obrazki – czyli ALT

Najczęściej sprawdzam, czy obrazki mają właściwie zbudowane pole ALT odpowiedzialne za opis tegoż obrazka. Bardzo rzadko zdarza się, aby obrazki miały nazwy (w sklepach) związane z artykułem czy produktem – a jest to bardzo istotne i zawsze dodaje kilka punktów do SEO.
Pole ALT również podlega badaniu na okoliczność spamu, który ponownie objawai się najczęstszym błędem tj upychaniem słów kluczowych.

Linki wychodzące

Z tym elementem zawsze są problemy: a to linki są w stopce, a to w panelach, poukrywane, sprzedawane, z SWLi czy innego serwisu. Mam zdrowe podejście – im mniej linków wychodzących tym lepiej :) Audyt SEO przynajmniej jednozdaniowo powinien odnieść się do linków wychodzących.
I tutaj od razu podam:
– linki w stopkach (według najnowszych doniesień) są pomijane przez algorytm Google
– można linkować do swoich serwisów tak jak to robi np gazeta czy inne duże firmy (ale tutaj nie znam wytycznych ile i jak muszą być opisane)
– do linków wychodzących jednak najlepiej używać nofollow
– linkując na zewnątrz do „zaufanych źródeł” podnosi się ranking własnej strony
  • Czy linkujesz do wartościowych stron ? Nie powinno się linkować do stron, które potencjalnie mogą być uznane za spamerskie.
  • Czy linkujesz do strony zbieżnej tematycznie ? Tutaj oczywiście poruszony jest temat rzeka i praktyka wielu szkół – czy należy linkować tematycznie ?
  • Czy anchor zawiera tekst i jeśli tak to czy zawiera słowa kluczowe związane ze stroną docelową oraz czy dany anchor znajduje się na stronie docelowej w postaci tegoż słowa ?  STaramy się unikać Google bombing czyli pozycjonowania słów, które nie występują na stronie docelowej
  • Czy strony docelowe są aktywne ? Jeśli strony docelowe zwracają błąd 4xx lub 5xx powinno się je zdejmować. nic tak nie wkurza klienta, gdy strona docelowa nie działa – wtedy naszje strony nie postrzega jako wartościową (podobnie jak wyszukiwarka)
  • Czy strony docelowe używają przekierowań ? Jeśli linki wewnętrzne (podkreślam wewnętrzne) używają przekierowań należy zadbać aby były one poprawnie wykonane i kierowały do właściwych podstron.
  • Czy używasz nofollow ? Nie muszę tego chyba tłumaczyć.

Inne czynniki sprawdzane na stronie

Przy audycie należy sprawdzić formatowanie tekstu, wytłuszczenia (bold versus strong), częstotliwość i sposób użycia tagów Hx, czy strona jest przeładowana reklamami …. Do tego celu można wykorzystać wiele narzędzi online np Seoptimer.
Przykład możliwy do zastosowania:

Audyt SEO – Czynniki poza serwisem (off site factors)

To co najczęściej sprawdzam w trakcie audytu SEO to:
  • czy strona posiada ruch ? Jakiego on jest typu ? Skąd ? – dobrze w tym momencie jest poprosić właściciela o dostęp do statystyk
  • jaka jest tematyka strony i co zawiera ? Dla przykładu jeśli trafia mi się strona „warezowa” do audytu należy uwzględnić potencjalne ryzyko zainfekowania takiej strony wirusami (nigdy nie wiadomo, co użytkownik potrafi zostawić na forum w poście) – taka strona otrzymuje tez odpowiednie rankingi w różnego rodzaju serwisach odpowiedzialnych za informowanie o „zaufaniu” do serwisu
  • cloaking, doorway’e obniżają ranking strony – więc to też trzeba wychwycić
  • profil linków zwrotnych – o ile występują a jeśli tak skąd są – trafiają się klienci, których profile linków wskazują jednoznacznie na używanie XR, SB i SWL …
  • czy strona jest zaangażowana w życie „społecznościowe” np twituje, ma profil na FB czy też na G+. Wskazane jest również sprawdzenie czy firma klienta występuje w Google Maps
Mam nadzieję, że ten artykuł będzie Wam przydatny. Najdłuższy audyt jaki wykonałem miał blisko 80 stron, średnio audyt ma 12-16 stron. Koszt sporządzenia audytu zależy od wielu czynników i jest ustalany indywidualnie dla każdej strony.
Źródło natchnienia: How to perform SEO Audit

Drobny spamik: audyt seo, audyt seo strony internetowej, audyt seo serwisu www

Zapytaj o bezpłatną wycenę audytu SEO

1 gwiazdka2 gwiazdki3 gwiazdki4 gwiazdki5 gwiazdek (42 głosów, średnia: 4,29 z 5)

Paweł Gontarek

Paweł Gontarek - Zgred - pasjonat SEO, staram się zrozumieć czym jest i jak działa SEM oraz UX.

Ten wpis ma 39 komentarzy
  1. Bardzo cie proszę o info skąd wiesz o:
    – nie liczeniu linków w stopkach
    – o tym, że linkujac do wiki podnosimy swój ranking

    Moze byc link, itp. mam niezla baze rss z naszymi i zagranicznymi i z tym stwierdzieniem pierwszym nigdzie sie nie spotkalem

    1. @Hicarian: o nieliczeniu linków w stopkach od Kaspara (wypowiedział się w kontekście linków z szablonów WordPressa), co do wiki – nie podałem tego bezpośrednio w tekście, że chodzi o dowolne wiki – moim zdaniem linkowanie do Wikipedii będzie korzystne.

  2. Ale ładnie wszystko opisałeś, konkretny wpis. Co tu można dodać… przydałoby się rozwinięcie kilku kwestii, ale byłby to wtedy już gotowiec do bezpośredniego wykorzystania. Dzięki za wpis.

  3. Przydatny artykuł, dzięki.
    Mam pytanie jak zobaczyć liczbę zaindeksowanych grafik w zawartości map witryny w G webmasters? Nie widzę tego u siebie mam jedynie zaindeksowane strony.

    1. @Jan: używam wtyczek seo z Yoast.com dzięki czemu wszystko samo się indeksuje :) sprawdź czy przypadkiem nie masz blokady na indeksowanie grafik ?

      1. All in One SEO zastąpiłem SEO Yoast i zauważyłem, że nowe wpisy zdecydowanie dłużej się indeksują (do kilku dni), wcześniej do kilku minut. Przypadek? Czy może zła konfiguracja? Ogólnie wszystko wygląda poprawnie.. Zgred jak to u Ciebie wygląda, miałeś taki problem?

      2. Czy byłbyś na tyle uprzejmy aby udostępnić swoje ustawienia wordpress seo yoast np. z tego bloga ? „Eksport i import ustawień SEO”.

  4. Wtyczki by Yoast są fajne, niestety „wordpres seo by yoast” gryzie mi się z inną świetną wtyczką pod seo „Easy WP SEO”.

    Zgredzie wyśle Ci dzisiaj maila co tam z działałem. I będziemy się wiązać :P Umową oczywiście ;)

  5. Co rozumiesz przez „stronę w całości wykonaną w javascript”, bo nie za bardzo potrafię sobie wyobrazić sytuację, gdzie js nie jest używany tylko do ajaxa, albo bajeranckiego ostylowania strony (np strony scrollowane) a tu w obu przypadkach zaindeksować stronę się da elegancko. Z flashem jest o tyle problem, że jeśli ktoś nieumiejętnie zrobi stronę na początku to już nam nic nie pomoże (chyba, że stworzenie strony pod stroną), jeśli jednak robimy dla kogoś stronę od podstaw to można to jak najbardziej pod seo ładnie zrobić.

  6. Nic tylko ikonografikę z tego zrobić. To takie popularne ostatnio : ) Faktycznie dobre podstawy dla specjalistów SEO, którzy pytają „co umieścić w audycie”.

  7. Co do linków w stopce to mam inne doświadczenia. W narzędziach google pokazuje linki z jednego z moich serwisów, a są to linki w stopce.

  8. Ech, źle to napisałem, nie chciałem zdradzać swojej największej tajemnicy ;-)
    Ja kilkoma serwisami i linkami z ich stopek wbiłem frazę do top10.
    Udowodnione !

  9. Cezzy ostatnio pisał, że title już nie koniecznie jest liczone „na znaki” i nie musi to być 70 znaków. Może być mniej, może być więcej w zależności od jego szerokości w serpach (512px)

    Przykład, 107 znaków w title:
    google.pl/search?q=In+thi+till+trill+little+litter+fill!+|+Is+it+illicitly+lil’+lilli!+|+If+I+fill+ill+jill+I’ll+frill+thrill!

  10. A czy sitemapy nie lepiej generować automatycznie i za każdym razem jak się coś pojawi to puścić pinga? Można od biedy ustawić crona by pingował co jakiś czas.

      1. Życie trzeba sobie ułatwiać, sitemapa generuje się sama, cron sam pinguje i zapominasz o problemie :). A tak musisz pamiętać, chyba, że masz dużo czasu.

  11. @Hardy: tak … ale powiedz mi po co Ci tak długi title ???

    Bardziej miałem na myśli to, że 70 znaków też nie zawsze się zmieści. Ale masz rację, to pierdoła.

  12. Warto wspomnieć by na czas przeglądania strony wyłączyć JS, cookie, flasha i zmienić agenta na google i sprawdzić stronę oczami robota :)

  13. Świetny artykuł… Nie jestem co prawda aż tak obeznana w tym ale małymi kroczkami udało mi się przeanalizować pewne części mojego serwisu i taki malutki raporcik z tego wyszedł :)

    Teraz tylko wprowadzić poprawki i czekać na efekty :)

  14. Coraz dłuższe te Twoje wpisy :)

    Pomiąłeś description, ale pewnie w audytach dla sklepów konstruujesz odpowiedni opis do kategorii, podkategorii, stron produktowych? Moim zdanie jest to ważne w wynikach wyszukiwania. Szczególnie w sklepie.

    Tutaj też dodatkowo rich snippety dla stron produktowych i kategorii jeśli jest taka możliwość.

    W grafikach oprócz ALT’ów i nazw plików, warto moim zdaniem wspomnieć o mapie plików graficznych, jakie chcemy indeksować.
    Ja się w ogóle spotkałem, z czymś takim, że klient miał zablokowaną indeksację grafik w robots.txt, a ma b.duży sklep w którym grafiki też odgrywają sporą rolę (wyszukiwarka img).

    Pisz, pisz więcej, bo konkretne rzeczy piszesz :)

    A pisałeś kiedyś o projektowaniu kategorii/filtrów w dużym sklepie?

  15. Przeczytałam tekst i potwierdził on moje przymuszenia, że nie jest dobrze: „jeśli liczba linków zaindeksowanych jest DUŻO mniejsza od liczby linków w serwisie to może (podkreślam może) oznaczać, że podstrony tego serwisu są słabo, źle albo wcale podlinkowane lub zawierają takie błędy, ze trafiły do supplementala” – właśnie to przerabiam – zmieniłam Sote 4,0 na Sote 6,0 i zaczęły się kłopoty – wcześniej indeksacja przebiegała co do linku – ile przesłanych tyle zaindeksowanych teraz z przesłanych indeksuje się 1/4. Strona ma meta tagi , description produktów, unikalne treści – i google nie chce indeksować. Jak np. sprawdzić – podlinkowanie w produkcie Sote?

  16. Co do słów w adresie url, to też bym dywagował, mam kilka które nei mają przyjaznych linków a mimo to ładnie weszły do topów i tam siedzą, a są to nowe strony.

  17. Sprawdziłem swoją stronę haliskaband.republika.pl SEOoptimer’em i pokazuje mi
    Words and Chars 0
    Text / HTML Ratio 0,08 %
    Podczas gdy SEOquake pokazuje Text/HTML ratio 53.77%

    Co może być przyczyną takiej rozbieżności ?

  18. SEOoptimer na początku pokazał że z treścią wszystko OK, ale wychwycił kilka innych błędów (głównie ALT przy grafice, i IFRAME) Na szybko w notatniku pozmieniałem i wszystko było OK (poza IFRAME z odtwarzacza YT) ale zniknęła treść. Wygląd strony się nie zmienił, nadal wszystko było OK.
    Wróciłem do stanu początkowego, poprawiłem jeszcze raz i teraz widzi wszystko.
    Niestety nie zachowałem wersji gdzie nie widział treści i nie wiem co na to wpłynęło. SEOquake nie miał problemu z żadną wersją, zawsze wszystko było dobrze.

  19. Tekst bardzo przydatny, udało się uzupełnić kilka rzeczy których nie wiedziałem. Czy jest jakiś poradnik jak ustawić dobrze plik robots.txt?

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Back To Top
Przeczytaj poprzedni wpis:
Screaming Frog SEO Spider Tool – narzędzie pomocne w optymalizacji witryny

Chciałbym Waszą uwagę zwrócić na narzędzie, które (obok Seoptimer.com) pomaga mi w analizie serwisów internetowych - jest to Screaming Frog. Jest...

Jak podłączyć RSS do FaceBooka ?

Ostatnimi czasy męczyło Mnie jak podłączyć kanał RSS do Facebooka. Kiedyś było to możliwe ale obecnie już nie... Na tym blogu używam...

Zamknij