Na co dzień specjaliści od SEO, analitycy internetowi i marketerzy korzystają z wielu narzędzi, które pomagają w zrozumieniu zachowania robotów wyszukiwarek, crawlujących strony internetowe. Jednak aby jak najdokładniej przeanalizować zachowanie botów na naszej stronie internetowej warto przyjrzeć się logom serwera. Analiza logów pozwoli dostrzec problemy, które mają negatywny wpływ na SEO witryny, a których nie zobaczymy w żadnym innym narzędziu.
Co to są logi serwera?
Logi serwera (inaczej plik dziennika) to zdarzenia dotyczące strony internetowej, które zostały automatycznie zarejestrowane i zapisane w plikach lub bazie danych. Pozwalają one na prześledzenie każdej aktywności użytkowników i botów w witrynie. We wspomnianych plikach, mających rozszerzenie .txt, każde zdarzenie zapisuje się w formie wiersza danych, zawierającego między innymi informacje o: nazwie i IP użytkownika, dacie i godzinie zdarzenia, odwiedzonym adresie URL, pobieranych plikach, rodzaju czynności czy też kodzie odpowiedzi serwera. Dostęp do takich danych może być bardzo przydatny, jeśli np. podejrzewamy atak hakerski na naszą stronę, choć analiza logów serwera niesie za sobą także dużo innych korzyści, które mogą okazać się niezbędne w pracy specjalisty SEO.
WAŻNE: Samodzielnym wyciąganiem plików logów serwera powinna zajmować się doświadczona osoba, administrator strony lub dostawca hostingu.
Jakiego narzędzia używać do analizy logów serwera?
Do analizy logów serwera powinniśmy skorzystać z dedykowanego narzędzia. Można co prawda analizować je w arkuszu Excela, ale nie warto tego robić jeśli posiadamy dużą witrynę lub bardzo dużo plików z logami (nieraz takie pliki mogą zająć nawet kilka gigabajtów danych). Dlatego, aby dokonać skutecznej analizy logów, warto skorzystać z specjalnie stworzonych do tego celu narzędzi lub programów, takich jak np.: Screaming Frog Log File Analyser, które pozwala szybko przeanalizować logi z punktu widzenia SEO. Warto wiedzieć, że z narzędzia możemy skorzystać za darmo, ale tylko do analizy tysiąca logów, natomiast aby korzystać z pełnej wersji należy uiścić opłatę £99.00 rocznie.
Źródło: https://www.screamingfrog.co.uk/log-file-analyser/
Logi serwera a SEO
Jak zatem analiza logów serwera może pomóc Specjalistom SEO w codziennej pracy? Z logów przede wszystkim możemy odczytać, które strony i z jaką częstotliwością są odwiedzane przez boty Google. Dzięki takiej informacji jesteśmy w stanie bardzo szybko wyłapać ewentualne problemy z indeksacją serwisu. Dużą zaletą jest też to, że dane w logach możemy sprawdzić od razu, a nie tak jak w przypadku narzędzi, z których korzystamy na co dzień – dopiero po odczekaniu kilku godzin lub dni. Połączenie informacji udostępnianych w logach i próba szukania zależności pomiędzy nimi daje nam szerokie pole do analiz, korzystnych dla procesu pozycjonowania strony. Poniżej klika przykładów.
Potrzebujesz pomocy specjalistów SEO?
Marnowanie budżetu crawlowania
Google przypisuje budżet crawlowania do każdej witryny na podstawie wielu czynników. Jeżeli podczas analizy logów zauważymy, że nic nieznaczący adres URL z jakiegoś powodu jest odwiedzany przez bota Google znacznie częściej niż inne podstrony w witrynie, to warto sprawdzić co jest powodem tak marnowanego crawl budgetu. Być może wynika to z tego, że w kodzie takiej podstrony znajdują się skrypty, które dynamicznie zmieniają swoją zwartość, przez co Google powraca na tą podstronę ponieważ za każdym razem pojawia się tam „coś nowego”. Tego typu analizy mogą pomóc nam w podejmowaniu ważnych decyzji dotyczących struktury strony internetowej.
Błędy 404
W logach można obserwować czy coś niepokojącego nie dzieje się w witrynie, np. nagły skok błędów 404. Jeżeli strony zwracające błąd 404 pojawiają się w logach serwera w dużej ilości to warto się tym zainteresować i sprawdzić czy nie są one efektem jakiegoś systematycznego błędu lub czy z zewnętrznych serwisów nie prowadzą do naszej witryny jakieś błędne linki.
Określenie istotnych podstron w witrynie
Aby w pełni korzystać z wskazówek jakie mogą dostarczyć nam logi serwera warto dołączyć do analizy dodatkowe dane, takie jak np. lista wszystkich adresów URL, liczba linków wewnętrznych umieszczonych na poszczególnych podstronach witryny, czy też informacja o głębokości strony. Dzięki temu możemy np. zidentyfikować adresy URL, które bardzo często są odwiedzane przez roboty Google, ale nie wychodzą z nich żadne linki wewnętrzne. Na takich podstronach warto linkować np. nowe artykuły.
W logach serwera mamy możliwość sprawdzenia, które adresy URL przyciągają najwięcej lub najmniej uwagi. Może okazać się tak, że Google będzie ignorować ważną z naszego punktu widzenia podstronę witryny. Problemem może być niewłaściwe umieszczenie tej podstrony w strukturze witryny – np. w katalogu bardzo rzadko odwiedzanym przez Google. Dlatego właśnie wraz z logami warto analizować głębokość adresów URL.
Spam lub nieuczciwa konkurencja
W logach serwera możemy sprawdzić nie tylko odwiedziny znanych wyszukiwarek, ale tez narzędzi (np. do analiz SEO) które posiadają swoje boty. Nadmiarowe działania niektórych narzędzi może być inwazyjne, tzn. obniżać wydajność strony i zużywać zasoby serwera. Może zdarzyć się tak, że zbyt duża częstotliwość takich odwiedzin spowoduje błąd po stronie serwera i pojawi się komunikat 503. Taka sytuacja nie tylko zniechęci użytkownika internetu do ponownego odwiedzenia strony, ale także samego bota Google, który być może akurat w tym czasie będzie chciał odwiedzić stronę. Bot wyszukiwarki może stwierdzić, że to jego odwiedziny tak bardzo obciążają stronę, przez co zdecyduje o obniżeniu crawl budgetu.
Pomoc przy migracji strony
Logi serwera warto analizować także podczas migracji strony na inną domenę. Możemy szybko i na bieżąco weryfikować, które adresy URL nowej domeny zostały już odwiedzone przez boty. Strony, których Google jeszcze nie zauważył można wspomóc linkowaniem.
Podsumowanie
Na koniec jeszcze warto dodać, że tylko odpowiednia ilość danych pozwoli nam na miarodajne wyniki analiz. Im mniejszą stronę internetową posiadamy, tym większy zakres danych powinniśmy przejrzeć.
Analiza logów daje nam bardzo dużą ilość przydatnych informacji, jakich nie dostarczy nam żadne inne narzędzie. Google Search Console, czy też narzędzia do crawlowania witryny nie dadzą nam pełnego obrazu zachowań Googlebota i innych wyszukiwarek w witrynie.