Szybkość ładowania to jeden z kluczowych czynników mających wpływ na pozycję strony w wynikach wyszukiwania. Tym niemniej sprowadzenie tego zagadnienia do prostej eliminacji zbędnego kodu strony, a tym samym przyspieszenia jej działania, jest zdecydowanie zbyt daleko idącym uproszczeniem. Optymalizacja czasu ładowania strony jest wbrew pozorom dość skomplikowanym procesem, którego w zasadzie nie sposób prawidłowo wykonać bez pomocy profesjonalistów. Albo bez niemałej wiedzy o SEO i web developingu.
Czym w ogóle jest szybkość ładowania strony?
Zacznijmy jednak od podstaw. Termin „szybkość ładowania strony” rozumiemy jako czas pomiędzy wysłaniem przez klienta (na przykład przeglądarkę) zapytania do serwera a tzw. Time to Interactive. TTI to moment, w którym widoczna zawartość strony (grafiki, teksty, linki itp.) wyświetla się powyżej linii przewijania w sposób umożliwiający użytkownikowi korzystanie z jej zasobów. Nie jest to jednoznaczne z wyświetlaniem całej zawartości strony. Przykładem niech będą portale informacyjne czy serwisy społecznościowe, które na bieżąco doczytują linki, grafiki lub filmy podczas przewijania w dół. Wczytywanie całej zawartości za każdym razem, gdy jakiś użytkownik wchodzi na stronę, wiązałoby się z ogromnym obciążeniem serwerów. Załadowanie tylko widocznej treści strony jest w tym przypadku optymalnym rozwiązaniem.
Zostańmy jeszcze na moment przy „widocznej zawartości strony„. Pomiędzy jej wczytaniem a reakcją użytkownika może minąć na przykład sekunda lub dwie. To wystarczająco dużo czasu, aby w tle załadowały się chociażby skrypty reklamowe czy monitorujące aktywność użytkownika. Zazwyczaj ich obecność nie jest konieczna do tego, żeby móc korzystać z zasobów danej witryny, tym niemniej są one obecnie na stronie. Zresztą o skryptach napiszemy więcej pod koniec tekstu.
Dlaczego szybkość strony jest tak ważnym czynnikiem?
Zanim jednak skupimy się na Time to Interactive oraz wpływie niechcianych skryptów na ten aspekt działania witryny, zastanówmy się nad tym, dlaczego w ogóle prędkość wczytywania strony jest tak ważna.
- Na początek oczywistość: zbyt wolne działanie strony jest po prostu frustrujące dla użytkownika. Dotyczy to szczególnie sytuacji, w której przeglądamy internet na urządzeniach mobilnych. Są one zazwyczaj słabsze od laptopów czy komputerów stacjonarnych, na których większość stron działa w zadowalający sposób. Długi czas ładowania może w tym przypadku zostać pomylony chociażby z zawieszeniem się przeglądarki lub awarią systemu. Poza tym nie lubimy marnować czasu na bezsensowne naszym zdaniem czekanie. A patrzenie w pusty ekran telefonu tak właśnie jest postrzegane.
- Zbyt wolne działanie witryny ma negatywny wpływ na wizerunek marki. Mechanizm jest bardzo prosty – jeżeli strona jakiejś firmy, instytucji, organizacji czy osoby prywatnej ma notoryczne problemy z szybkością wczytywania, to raczej nie wzbudza zaufania u użytkownika. Szczególnie w sytuacji, gdy użytkownik chce lub musi dokonać na stronie jakiejś interakcji – coś kupić, wypełnić formularz, napisać wiadomość itd. Pozostawienie jakichkolwiek danych na takiej witrynie może być postrzegane jako ryzykowne czy wręcz niebezpieczne.
- Zbyt długi czas ładowania witryny jest mocno związany z wysokim współczynnikiem odrzuceń i jednocześnie niskim współczynnikiem konwersji. Zależność jest prosta – im dłużej czekamy na pojawienie się zawartości strony głównej lub poszczególnych podstron, tym większe prawdopodobieństwo, że w ogóle niczego zobaczymy, bo przejdziemy na witrynę konkurencji. Jeżeli tego rodzaju problemy pojawiają się zbyt często, roboty Google’a mogą uznać, że strona nie wzbudza zaufania, jest rzadko używana, a treści, które się na niej znajdują, są niskiej jakości. A stąd krótka droga do spadku pozycji w wynikach wyszukiwania.
Na koniec warto wspomnieć, że tzw. page speed, czyli szybkość strony, jest jednym z czynników rankingowych Google, które wpływają na pozycjonowanie. Poświęćmy temu zagadnieniu nieco więcej miejsca.

Potrzebujesz technicznego wsparcia na stronie?
Jakiego narzędzia używać, aby mierzyć szybkość witryny?
Jak napisaliśmy we wstępie, szybkość ładowania rozumiemy jako czas, w którym strona osiąga stan „Time to Interactive”. Czyli można zacząć swobodnie z niej korzystać, a w tle doczytują się pozostałe widoczne lub niewidoczne elementy danej witryny. Co jednak musi się stać, aby treść na stronie stała się widoczna dla użytkownika? I jak zmierzyć czas wszystkich tych operacji? Z pomocą przychodzi nam Google Pagespeed Insights.
Jest to darmowe narzędzie, dzięki któremu możemy sprawdzić działanie naszej strony w kontekście czasu ładowania jej poszczególnych elementów. Nie jest zbytnio rozbudowane, tym niemniej dość trafnie pokazuje, co można usprawnić, aby poprawić szeroko rozumianą szybkość działania witryny. Jego działanie jest bardzo proste – po prostu wklejamy adres strony w polu przeznaczonym do tego celu i klikamy „Analizuj”. Naszym oczom powinien się ukazać prosty kołowy wykres z wpisaną w nim konkretną wartością liczbową od 0 do 100. Jest to wynik testu prędkości strony wykonanego w oparciu o konkretne kryteria związane z pozycjonowaniem. Im jest wyższy, tym nasza strona jest lepiej zoptymalizowana pod kątem czasu jej ładowania.
Oczywiście nie oznacza to, że niskie wartości są w tym przypadku jednoznaczne z niskimi pozycjami w wyszukiwarce. Wyniki dużych portali informacyjnych czy sklepów internetowych często są dalekie od optymalnych. A jednak ich pozycje są bardzo zadowalające. Dlatego pamiętajmy, że page speed jest zaledwie jednym z wielu czynników mających wpływ na pozycję strony w organicznych i płatnych wynikach wyszukiwania. Łatwo sobie wyobrazić sytuację, gdy strona działa bardzo szybko, ale na przykład nie ma na niej żadnego wartościowego contentu, jest nieumiejętnie zaprojektowana, a linki przychodzące są niskiej jakości. Pomimo doskonałego wskaźnika page speed, jej pozycja w SERP-ie raczej nie będzie przesadnie wysoka.
Prędkość strony – uwagi ogólne
Zanim jednak zajmiemy się najważniejszymi parametrami wpływającymi na ostateczną szybkość ładowania strony, warto uporządkować pewne kwestie.
- Szybkość działania strony nie jest wartością subiektywną. Jest to bardzo ważne uściślenie. Strona, która będzie działać wolno na kilkunastoletnim laptopie i której czasy ładowania będą na tym sprzęcie wynosiły po kilkanaście sekund, wcale nie musi być uznana przez algorytmy Google’a za wolną. Kwestie sprzętowe po stronie użytkownika powinny być w tym przypadku dość mocno marginalizowane, a przynajmniej Google tak to przedstawia. Rzeczywistość jest niestety odrobinę inna, ale o tym napiszemy zdecydowanie więcej w dalszej części tego artykułu.
- To, że strona wyświetla się na ekranie urządzenia, nie oznacza, że się wczytała na tyle, aby można było z niej korzystać. Dlatego tak duży nacisk kładziemy na termin „Time to Interactive„, o którym kilkukrotnie wspomnieliśmy. Wyobraźmy sobie hipotetyczną sytuację: widzimy na ekranie tekst lub grafikę. Jednak przez kilka sekund strona nie odpowiada do tego stopnia, że nie możemy jej przewinąć, a linki wydają się być nieaktywne. Oznacza to po prostu, że strona zbyt wolno się wczytuje, a prędkość jej działania pozostawia wiele do życzenia. Dotyczy to również kwestii związanych z nawigacją po danej witrynie. Szybkie wczytanie strony głównej i jednocześnie słaba responsywność podczas jej przeglądania także mogą nie mieć dobrego przełożenia na wskaźnik page speed.
Jak zatem mierzy się prędkość ładowania strony? Co składa się na ten wskaźnik?
Prędkość strony – najważniejsze składowe
Wróćmy do Google Pagespeed Insights.
Zdecydowanie największą zaletą tego narzędzia jest fakt, że wystarczy od kilku do kilkunastu testów, aby dość trafnie wskazać źródła problemów ze zbyt długim czasem ładowania strony. Niestety, nie jest to narzędzie bez wad. Istnieje duża szansa, że zostaną one usunięte w przyszłości, tym niemniej obecnie warto mieć świadomość ich występowania.
Jak wspomniano wcześniej, aby przeprowadzić test, należy wkleić URL w polu adresu i kliknąć „Analizuj”. Okazuje się jednak, że wbrew zapewnieniom Google’a, wyniki dla tej samej witryny mogą się różnić w zależności od łącza czy urządzenia, na którym przeprowadza się test. Na domiar złego to właśnie ten wynik jest uznawany za jeden z najważniejszych czynników rankingowych. I chociaż jego wysokość jest w pewien sposób zależna od ogólnego stanu witryny, tak traktowanie go jak najważniejszy parametr SEO nie jest dobrym pomysłem. Wie o tym każdy doświadczony specjalista od pozycjonowania. Dlatego wcześniej wspomnieliśmy o tym, że duże serwisy czy sklepy często mają niezbyt imponujące wyniki testu prędkości, a jednak doskonale sobie radzą w sieci. Chociaż teoretycznie nie powinny.
Najważniejsze, aby pamiętać, że wynik liczbowy analizy prędkości strony bazuje na danych laboratoryjnych. W dużym uproszczeniu jest to swego rodzaju symulacja statystycznego użytkownika strony, wykonywana w kontrolowanym środowisku. Z tego względu ostateczny wynik testu laboratoryjnego zależy od bardzo konkretnych czynników, takich jak:
- First Contentful Paint
Czas wyrenderowania przez przeglądarkę pierwszej treści. Może to być tekst, obraz (w tym także grafika wektorowa) – generalnie konkretny element znajdujący się na stronie, który nie jest na przykład kolorem tła, pojedynczym pikselem itp.
- Time to Interactive
Wielokrotnie wspominany czas, po którym strona staje się w pełni interaktywna i można wykonywać na niej wszystkie najważniejsze działania.
- Speed Index
Wskaźnik informujący o tym, jak szybko na stronie pojawia się jej cała widoczna zawartość. Od TTI wskaźnik ten różni się faktem, że nie obejmuje chociażby czasu uruchomienia skryptów – tylko konkretne elementy, które możemy zobaczyć na stronie.
- Total Blocking Time
W największym uproszczeniu Total Blocking Time wskazuje czas pomiędzy First Contentful Paint a Time to Interactive. Należy jednak uściślić, że czas jest zliczany tylko dla tzw. Long Tasks, czyli skryptów napisanych w języku programowania JavaScript, które uruchamiają się przez ponad 50 milisekund, niejako „zawieszając” stronę w tym okresie. W praktyce polega to na tym, że jeżeli na stronie uruchamia się 2 skrypty typu Long Task i obydwa potrzebują do osiągnięcia pełnej sprawności po 60 milisekund, TBT wyniesie w tym przypadku 20 milisekund (2 x 60 ms – 2 x 50 ms).
- Largest Contentful Paint
Czas, w którym największy obraz lub największe pole tekstowe pojawia się na stronie.
- Cumulative Layout Shift
Bardzo ciekawy wskaźnik, mający dużo wspólnego z dobrymi praktykami w tworzeniu stron internetowych. Określa, jak bardzo przesuwają się poszczególne elementy strony – na przykład ramki, linki, grafiki itp. – w sytuacji, gdy na bieżąco doczytują się jej poszczególne elementy. Można to niekiedy zaobserwować podczas pojawiania się niechcianych reklam na ekranie urządzenia. Chcemy kliknąć w jakiś obiekt, a tu nagle pod naszym kursorem pojawia się ramka z reklamą, w którą niechcący klikamy. Cumulative Layout Shift sygnalizuje, jak duże było przesunięcie treści, która nas interesowała. Oczywiście im jest ono mniejsze, a tym samym im mniej denerwujących pop-upów na stronie, tym lepiej.
No dobrze, ale przecież nikt nie korzysta z internetu w warunkach laboratoryjnych, łącza i urządzenia poszczególnych użytkowników bardzo różnią się od siebie. Czy to oznacza, że omawiane narzędzie jest generalnie bezużyteczne? Odpowiedź jest oczywista – informacje zdobyte dzięki Google Pagespeed Insights absolutnie nie są bezużyteczne! Dzieje się tak z przynajmniej trzech powodów:
- Liczbowy wynik testu prędkości nie jest oderwany od rzeczywistości. Jeżeli po kilku pomiarach na różnych urządzeniach ciągle jest niski, to nie dzieje się tak bez przyczyny.
- Poza liczbowym rezultatem, Google Pagespeed Insights pokazuje również rezultaty, które dla specjalisty są bez porównania ważniejsze. Mowa oczywiście o sekcjach Możliwości (Opportunities) oraz Diagnostyka (Diagnostics), które znajdują się poniżej wykresów.
- Wykresy sekcji „Zgromadzone dane„, razem z rozwijanym podsumowaniem znajdującym się poniżej, powstają w oparciu o dane terenowe zebrane z realnego ruchu na stronie, a nie laboratoryjnej symulacji.
Zostańmy jeszcze chwilę przy tej kwestii.
„Zgromadzone dane„, zwane również danymi terenowymi lub field data, zawierają informacje o czasach ładowania zebrane na podstawie doświadczenia użytkowników przebywających na analizowanej stronie. Nie są to rzecz jasna dane od wszystkich użytkowników, poza tym są one mocno subiektywne. Wpływ na nie mają chociażby takie czynniki, jak jakość połączenia internetowego czy moc obliczeniowa urządzenia, na którym wyświetla się strona. Tym niemniej jeżeli chcemy chociaż częściowo przyjrzeć się czasom ładowania danej witryny z punktu widzenia jej użytkowników, sekcja „Zgromadzone dane” może być pomocna. Także dlatego, że zawiera jeden z dodatkowych wskaźników, zwany „First Input Delay„.
FID to w ogromnym uproszczeniu czas pomiędzy wykonaniem interakcji (na przykład kliknięciem czy przewinięciem strony) a reakcją przeglądarki na to działanie. Uwaga – FID nie jest bezpośrednio zależny od czasu reakcji serwera. Owszem, szybka odpowiedź serwera jest jak najbardziej wskazana. Tym niemniej jeżeli przeglądarka działa wolno, na przykład na wysłużonym urządzeniu, szybki czas reakcji zewnętrznych systemów niewiele tutaj pomoże.
Dlaczego zatem „First Input Delay” jest w ogóle brany pod uwagę? Odpowiedź jest bardzo prosta: przeglądarka może działać wolno także dlatego, że jest za bardzo obciążona przez stronę. Dzięki temu parametrowi możemy stwierdzić, które skrypty czy elementy najbardziej obciążają przeglądarkę, tym samym uniemożliwiając komfortowe korzystanie z zasobów danej witryny.
Na koniec należy wspomnieć, że Google Pagespeed Insights nie jest jedynym narzędziem, dzięki któremu można zbadać prędkość strony. Innymi są chociażby GTmetrix (https://gtmetrix.com/) czy WebPage Test (https://webpagetest.org/). Ciekawe dane można także znaleźć w Search Console czy raportach Google Analytics. Tym niemniej sprawdzenie prędkości witryny warto rozpocząć właśnie od narzędzia Google’a – jest proste i zarozumiałe, doskonałe na początek.

Potrzebujesz pomocy w poprawie szybkości strony?
Szybkość strony internetowej – jak ją poprawić? Konkretne porady
Działania, na których należy się skupić, aby strona działała szybciej, można podsumować w trzech punktach:
- Stabilny hosting na szybkim serwerze.
- Optymalizacja obrazów.
- Zmniejszenie ilości kodu na stronie.
Problem polega na tym, że takie ujęcie problemu nie jest w żaden sposób pomocne. Dlatego postanowiliśmy wskazać kilka konkretnych rozwiązań, którymi warto się zainteresować przed optymalizacją strony. Zalecamy jednak wykonanie tych działań po konsultacji ze specjalistami, chociaż najlepszą opcją jest po prostu zlecenie prac optymalizacyjnych wykwalifikowanym profesjonalistom. Szczególnie w sytuacji, gdy jedynym znanym nam sposobem na poprawienie działania strony jest skorzystanie z darmowych plug-inów i aplikacji.
Oto kilka podstawowych sposobów na poprawienie ogólnej wydajności strony.
Sprawnie działający hosting
Podstawowa zasada brzmi: jeżeli nie jesteśmy zadowoleni z usług hostingowych, najwyższy czas zmienić dostawcę. Jest to dość brutalne podejście, tym niemniej zdecydowanie najbardziej skuteczne; nadmierna lojalność nie jest w tym przypadku dobrym rozwiązaniem. To, że pięć lat temu nasza strona działała dobrze na hostingu współdzielonym czy VPS-ie, nie oznacza, że obecnie jest tak samo. Być może rozbudowaliśmy ją o nowe funkcjonalności. Być może dostawca udostępnia swoje serwery zdecydowanie zbyt dużej liczbie klientów, przez co wszystkie strony działają wolno. Już w przypadku zwykłego, domowego one-page’a, taka sytuacja może być sporą niedogodnością. Gdy jednak mamy sklep internetowy i on również korzysta ze współdzielonego hostingu lub niezbyt uczciwego VPS-u (wirtualny serwer prywatny), to jakiekolwiek opóźnienia na łączach mogą się przekładać na niską konwersję i zbyt wysoki współczynnik odrzuceń. A tym samym na mniejszy zysk z działalności.
Optymalnym rozwiązaniem w takim przypadku jest rzecz jasna hosting dedykowany. Jeżeli planujemy otwarcie sklepu w internecie, dużej strony z możliwością zakładania kont przez użytkowników czy serwisu (informacyjnego, społecznościowego itp.), własny serwer jest w zasadzie jedynym sensownym rozwiązaniem.
Do tego warto też pamiętać o CDN, czyli Content Delivery Network. Usługa ta polega na korzystaniu z globalnej sieci centrów danych przechowujących naszą stronę na swoich serwerach. Jako że kopii jest wiele, strona jest zabezpieczona przed atakami z zewnątrz. Co więcej, szybkość jej działania również znacznie ulega poprawie. Geograficzna lokalizacja użytkownika nie ma w tym przypadku znaczenia. Poza tym jeżeli na przykład polskie serwery są zbytnio obciążone, to nic nie stoi na przeszkodzie, aby strona, która wyświetli się w przeglądarce, została załadowana z serwera niemieckiego. To naprawdę doskonałe narzędzie, szczególnie ważne w przypadku większych serwisów czy sklepów internetowych.
Zmniejszenie wagi obrazów na stronie
Zbyt duża objętość obrazów, które znajdują się na stronie, to zaskakująco częsty problem nawet na dużych witrynach, którymi opiekują się wyspecjalizowane zespoły IT. Podobnie jest chociażby w niektórych sklepach czy księgarniach. A przecież każdy taki obraz, zanim wyświetli się w oknie przeglądarki, musi zostać przez nią pobrany. Jeżeli w zwykłym sliderze na górze strony znajdują się zdjęcia zajmujące łącznie 20 MB, a niewiele mniej zajmują miniaturki, to nic dziwnego, że strona działa wolno i zbyt długo się ładuje.
Aby grafiki nie były zbyt dużym obciążeniem dla strony, należy zastanowić się nad ich rozmiarem. Jeżeli szerokość ramki, sekcji lub jakiegokolwiek innego elementu strony wynosi na przykład 800 pikseli, to w ogromnej większości przypadków nie ma sensu umieszczać tam grafiki o szerokości 3000 pikseli. Owszem, jeżeli po kliknięciu zdjęcie powinno się powiększyć, chociażby po to, żeby zaprezentować jakiś produkt, wówczas nie warto oszczędzać na jego jakości. Jeżeli jednak jest to zwykła infografika, miniaturka lub po prostu ilustracja do tekstu, wtedy można sobie pozwolić na mniejszy rozmiar fotografii lub grafiki. A tym samym przyspieszyć działanie strony.
Poza odpowiednim skalowaniem warto zedytować zdjęcia – zmniejszyć ich rozdzielczość, a także zapisać je w odpowiednim formacie czy usunąć metadane. Bez większych problemów można w ten sposób zmniejszyć wagę pliku graficznego o kilkadziesiąt procent, i to bez znacznej utraty jakości.
Wspomnieliśmy wyżej o formacie. Najpopularniejszymi obecnie są:
- JPEG – jakościowo nie jest to może najwyższa półka, co szczególnie widać, gdy kompresja obrazu będzie zbyt silna. Rekompensowane jest to jednak bardzo niską wagą takiej grafiki – po usunięciu metadanych zdjęcie może zajmować zaledwie kilkadziesiąt kilobajtów. Poza tym JPG-i można bardzo łatwo edytować nawet w popularnym Paincie czy darmowych aplikacjach do przeglądania zdjęć.
- GIF – idealny do niewielkich animacji lub animowanych ikonek. Raczej nie powinno się używać tego rodzaju plików do statycznych zdjęć.
- PNG – lepsza jakość niż JPG, poza tym taki obraz może być przezroczysty. Wadą jest odrobinę większe obciążenie zasobów sprzętowych przy wyświetlaniu takiego obrazu. Tym niemniej jeden lub dwa takie pliki można na stronie umieścić, na przykład na winiecie.
- WebP – format bardzo mocno rozwijany i wykorzystywany przez Google. Obecnie korzysta z niego coraz więcej stron, także dlatego, że zdjęcia WebP mają najlepszy stosunek jakości obrazu do jego wagi. A jako że jest to format Google’a, to być może za jakiś czas będzie on koniecznym do tego, żeby osiągać dobre pozycje w wynikach wyszukiwania.
Poza tym warto pamiętać o tzw. lazy load. Jest to mechanizm, który sprawia, że zdjęcia nie ładują się w tym samym czasie, ale stopniowo, podczas przewijania strony.
Optymalizacja obrazów pod kątem zmniejszenia czasu ich ładowania jest zdecydowanie najprostszym sposobem na poprawę czasu wczytywania się strony. Optymalizacja kodu jest bez porównania trudniejsza. Samodzielne przeprowadzenie tego rodzaju operacji zalecamy wyłącznie tym osobom, które mają pojęcie o tworzeniu i budowie stron internetowych.
Zmniejszenie ilości kodu na stronie
Zajmiemy się teraz podstawowymi sposobami na przyspieszenie strony poprzez rezygnację ze zbędnego kodu. Niech Was to jednak nie zmyli – w rzeczywistości jest to zagadnienie, któremu można poświęcić osobny tekst na kilkadziesiąt tysięcy znaków. W tym miejscu w zasadzie jedynie zasygnalizujemy najważniejsze aspekty tego problemu.
Rozwiązania z zakresu AMP
AMP, czyli przyspieszone strony mobilne, to doskonały przykład stron tworzonych z myślą o szybkim i bezproblemowym działaniu nawet na wysłużonych urządzeniach mobilnych z internetem o niezbyt wysokiej przepustowości. Przeniesienie tego standardu na desktopy jest mało realne, chociażby ze względu na znaczne ograniczenia w wyświetlaniu grafik czy działaniu zbędnych skryptów. Tym niemniej jeżeli nasza strona na smartfonie nie działa zbyt sprawnie, zdecydowanie warto stworzyć jej wersję mobilną.
Buforowanie po stronie serwera i przeglądarki
W tym przypadku opcja buforowania to po prostu przechowywanie informacji o stronie w pamięci podręcznej przeglądarki i serwera. Aby taka sytuacja była możliwa, kod strony musi zostać odpowiednio zmodyfikowany. Można to zrobić za pomocą specjalnych wtyczek, można także ręcznie zmodyfikować kod, na przykład zmieniając zawartość pliku .htaccess. Druga opcja jest zdecydowanie lepszym rozwiązaniem, dlatego jeżeli ktoś nie posiada dostatecznej wiedzy, warto wspomnieć o konieczności uruchomienia buforowania specjalistom od pozycjonowania. Z zastrzeżeniem, żeby – jeśli tylko istnieje taka możliwość i nie ma żadnych przeciwwskazań natury technicznej – zrobić to ręcznie, w kodzie strony, a nie przez wtyczkę.
Rezygnacja z niepotrzebnych wtyczek
Wtyczki same w sobie nie są złe. Niektóre z nich, na przykład wyżej wspomniane pluginy umożliwiające cache’owanie w pamięci podręcznej serwera oraz przeglądarki, rzeczywiście mogą skrócić czasy ładowania. Tym niemniej obecnie wiele nowych stron działa w zasadzie tylko dlatego, że poszczególne pluginy się nie konfliktują. Problem polega na tym, że sporej części z nich w ogóle nie trzeba by było instalować, gdyby twórca strony zadał sobie odrobinę trudu i zamiast dobieraniem pluginów, zajął się pisaniem kodu. Przecież stylowanie można wykonać w arkuszu stylów. Slidery, tabele czy poszczególne sekcje (na przykład „Kontakt”), także można ręcznie stworzyć i ostylować. Do optymalizacji SEO nie trzeba instalować kilku dodatków – wystarczy zedytować kod w odpowiednich miejscach. Zazwyczaj nie potrzebujemy również kilku narzędzi analitycznych – w ogromnej większości przypadków wystarczą te darmowe, a także Google Search Console oraz Google Analytics.
Poza tym wtyczki, jak wcześniej wspomniano, mają tendencję do konfliktowania się między sobą, szczególnie podczas aktualizacji. Dlatego bardzo mocno zalecamy, aby w miarę możliwości rezygnować z ich stosowania. Albo odinstalować je zaraz po tym, jak spełnią swoją rolę, na przykład pomogą w optymalizacji kodu.
Ograniczenie liczby skryptów do koniecznego minimum
W naszych wcześniejszych tekstach wielokrotnie wspominaliśmy, że stworzenie strony www jeszcze nigdy nie było tak łatwe, jak obecnie. Wystarczy użyć któregoś z kreatorów stron internetowych, aby stworzyć wymarzoną witrynę. Ewentualnie zrobić witrynę w WordPressie, z pomocą wtyczek oraz gotowego kodu, który można znaleźć w internecie. Kłopot polega na tym, że wiele tego rodzaju modułów posiada własne skrypty śledzące, badające telemetrię oraz ruch na stronie, personalizujące reklamy, tworzące heatmapy, mierzące kliknięcia itp. To wszystko waży, a na dodatek zajmuje łącza – przecież informacje zebrane na stronie muszą gdzieś później trafiać.
I nagle okazuje się, że czas wczytywania strony głównej jest bardzo wydłużony, ponieważ aby w ogóle dało się z niej korzystać, dane są pobierane z kilkunastu różnych adresów z całego świata. A co, jeżeli tego rodzaju operacje przeprowadzane są dla każdej podstrony, a nie tylko strony głównej? Nawet zwykły skrypt czatu, jeżeli pochodzi z zewnątrz, to rejestruje każdą aktywność użytkowników wchodzących w interakcję z oknem czatu. Podobnie jest chociażby z widgetami z social mediów. Strona zostaje spowolniona do tego stopnia, że nawet asynchroniczne ładowanie skryptów niezbyt pomaga.
Co zrobić w takiej sytuacji? Najlepiej poprosić o pomoc specjalistów od pozycjonowania, którzy mają doświadczenie nie tylko w optymalizacji stron internetowych, lecz także w optymalizacji kodu. Usuwanie lub blokowanie niechcianych skryptów w sytuacji, gdy nie do końca wiemy, do czego one służą, może być niezbyt dobrym pomysłem. Warto także pamiętać o bardzo ciekawym atrybucie defer. Jego zadaniem jest – w dużym uproszczeniu – wykonywanie skryptów dopiero wtedy, gdy wskazana zawartość strony zostanie całkowicie załadowana. Innymi słowy odpowiada on za opóźnione ładowanie skryptów, na przykład już po tym, jak w oknie przeglądarki pojawią się grafiki, teksty oraz hiperłącza.
Minifikacja kodu
Pod tą nazwą kryje się usunięcie z kodu strony (HTML, CSS, JavaScript itp.) zbędnych spacji i znaków końca linii. Może się wydawać, że zaoszczędzimy w ten sposób niewiele miejsca, jest to jednak błędne przeświadczenie. Czysty kod strony po minifikacji może ważyć nawet o połowę mniej, niż przed przeprowadzeniem tej operacji.
Zanim jednak usuniemy zbędne spacje, warto dokładniej przyjrzeć się kodowi. Być może korzysta ona z kilku plików .css oraz .js zamiast z jednego? Jeżeli tak, to spróbujmy umieścić stylowanie w jednym pliku, a skrypty w drugim. Co więcej, sam kod również można optymalizować, na przykład usuwając z niego instrukcje i polecenia dotyczące elementów, których na stronie już nie ma. Jest to zadanie dla zaawansowanych użytkowników, tym niemniej warto co jakiś czas uruchomić jakieś narzędzie, które prześledzi witrynę w poszukiwaniu zbędnego kodu.
Ograniczenie przekierowań
Im na stronie mniej przekierowań, tym lepiej. Jeżeli jednak już jakieś występują, to najlepiej niech będą to krótkie przekierowania z jednego adresu na drugi. Dłuższe, angażujące w jednym łańcuchu 3 lub 4 różne URL-e, są z definicji bardzo obciążające dla prędkości strony.
Szybkość ładowania strony internetowej – podsumowanie
Wszystko, co zostało powyżej napisane o optymalizacji strony w kontekście czasu jej ładowania, to w zasadzie wstęp do tego zagadnienia. Temat ten jest bez porównania bardziej złożony. Dzieje się tak chociażby ze względu na fakt, że aby w widoczny sposób zwiększyć szybkość wczytywania strony i jednocześnie niczego nie zepsuć, trzeba mieć niemałą wiedzę o web developmencie, szczególnie z zakresu frontendu. Dlatego jeżeli planujecie poprawić szybkość ładowania się strony – swojej lub czyjejś – gorąco zalecamy najpierw zająć się optymalizacją grafik i przypomnieniem sobie najważniejszych informacji o kodowaniu w HTML, CSS, PHP oraz JavaScript. A jeżeli takiej wiedzy nie posiadacie, to po prostu zlećcie wykonanie tego zadania dobrym i sprawdzonym pozycjonerom.
