[Narzędzia] Website Auditor

Krzysztof Marzec
Krzysztof Marzec
Archiwum 11.2015
 

Na warsztat dobrego audytora składa się wiele narzędzi i choć praca powinna odbywać się na żywym organizmie, często przy użyciu konsoli programisty to wielu rzeczy nie da się sprawdzić bez dobrego crawlera.

Prawda jest taka, że im więcej programów tego typu uruchomimy tym większa szansa na wykrycie błędów. Dodatkowo dobry crawler pozwala na własne testy, dla przykładu zbadanie strony pod kątem obecności kodu Google Analytics na każdej stronie czy wykryciu stron z konkretną treścią. Dla stron o ogromnej liczbie podstron (>100.000) skanowanie jakimkolwiek narzędziem online nie wchodzi w grę, większość narzędzi sobie albo nie radzi albo cena za stałe używanie takiego narzędzia jest odstraszająca. Tu liczy się szybka i sprawdzona aplikacja desktopowa, a taką właśnie jest WebsiteAuditor z pakietu Link-Assistant.com.

skanowanie

Aby uruchomić projekt musimy podać adres naszej strony. System radzi sobie ze stronami ukrytymi za hasłem serwera. Podczas skanowania możemy sami zdefiniować jego zakres i np.: pominąć czynniki zewnętrzne i media społecznościowe co skróci czas pracy narzędzia.

 

podsumowanie

Nie mogło tu zabraknąć typowego nic nie wnoszącego raportu, ale nie na tym będziemy się skupiać. Raporty szczegółowe są bardzo sensowne:

 

detale-bledw

Jak widać mamy mnóstwo gotowych testów i elementów, za które można się zabrać. Część informacji to tylko ostrzeżenia, ale twórcy narzędzia zastosowali odpowiedni podział za pomocą ikon. Stąd najważniejsze kwestie są od razu wyróżnione. Pojawiają się tu też małe nieścisłości typu sprawdzanie błędów W3C albo informacje o ramkach, przy czym wprawny specjalista SEO będzie wiedział co ignorować a co dokładniej sprawdzić.

 

raport-szczwgolowy

 

W każdym z raportów możemy podglądnąć szczegóły i pobrać dodatkowe informacje do każdego pobranego adresu URL. Tak zbudujemy raporty szczegółowe.

 

szczegoly-bledu

 

Pełna lista stron z niedziałającymi linkami. Nie chcemy ich z dwóch powodów, jeden to Googlebot sypiący błędami w Search Console a drugi to zagubieni użytkownicy.

zduplikowane-meta

Dla przykładu kolejny raport – zduplikowane description to nie jest wielki problem, ale raport pokazuje gdzie moglibyśmy bardziej wykorzystać potencjał tego tagu. Choć nie wpływa na pozycje sam w sobie, to można jego budową delikatnie podnosić CTR wyników organicznych.

menu
Na koniec prezentacja opcji programu – od API wyszukiwarek i MOZ po ustawienia proxy. Pojawią się tu też takie ustawienia, które pozwalają na bardzo zaawansowaną modyfikację założeń projektu. Jeśli chcemy ze skanów wykluczyć pozorne błędy lub wyszukać coś, co nie zostało typowo zdefiniowane w programie, pomogą nam m.in filtry wyszukiwania. Narzędzie potrafi wygenerować również mapę XML na potrzeby Google.


Podsumowując WebSite Auditor to zaawansowany crawler, narzędzie, które porusza się po naszej stronie wzorem robotów wyszukiwarek. Potrafi w bardzo prosty i szybki sposób wygenerować zestawienie błędów i ich detale. To obowiązkowe narzędzie w warsztacie osoby audytującej strony pod względem SEO.

 

Krzysztof Marzec
CEO, Co-Founder. Specjalista SEM, Certyfikowany Trener Google Ads oraz Certyfikowany Specjalista Ads i Analytics. Przygodę z SEO zaczął w 2005 roku. Kieruje DevaGroup, stworzył i był wieloletnim szefem działu SEO Interia.pl. Prowadzi szkolenia i wykłady m.in. w Akademii Google Partners czy na Uniwersytecie Jagiellońskim. W wolnych chwilach.. moment, mam 3-kę małych dzieci, nie mam wolnych chwil. Czemu piszę tę notkę w 3ciej osobie? Ktoś to w ogóle czyta?...

Podobał Ci się artykuł? Wystaw 5!
słabyprzeciętnydobrybardzo dobrywspaniały (1 głosów, średnia: 5,00 / 5)
Loading...
Przewiń do góry