Podczas warszawskiego barcampu prelegenci poruszyli także tematy analityczne. Anna Moczulska podzieliła się, z jakich źródeł danych korzystać, a także jak i gdzie je ze sobą połączyć, aby zawsze trzymać rękę na pulsie – od zbierania leadów, przez efektywność kampanii marketingowych, po wydolność aplikacji internetowych. Konkretna prezentacja i przejrzyście przekazana wiedza sprawiły, że uczestnicy wybrali tę właśnie prezentację jako drugą najlepszą spośród wszystkich tego wieczora!
Czy BigQuery coś mnie będzie kosztowało przy powiedzmy 10k sesji miesięcznie?
- Anna Moczulska
To zależy od 2 czynników:
- ilości danych, które będziesz w sumie przechowywać na serwerze – pierwsze 10 GB jest darmowe. Trudno jest jednak estymować ilość danych na podstawie samych sesji. GA4 to narzędzie oparte o zdarzenia – a zdarzeń, nawet tylko tych automatycznych, jest zawsze dużo, dużo więcej niż samych sesji, bo to składowe pojedynczej wizyty w serwisie, czyli sesji właśnie. Aby sprawdzić, ile masz zdarzeń w miesiącu, przejdź do kolekcji Cykl życia, potem do folderu Zaangażowanie, a potem raportu dotyczącego Zdarzeń. 10k zdarzeń to ok. 0,02 GB danych. To, jakie zdarzenia będziesz przechowywać w BQ, zależy od Ciebie. Po wykorzystaniu darmowego limitu cena za przechowywanie danych zależna jest od tego, jak często po nie sięgasz.
- ilości zapytań do bazy. Tu strefa bezpłatna to 1 TB danych procesowych w zapytaniach. No i tu już ciężej z estymacją kosztów, bo wszystko zależy do tego, jak często będziesz wysyłać zapytania do bazy i jak skomplikowane one będą (czyli ile danych będzie procesowanych w zapytaniu). Po wykorzystaniu limitów będziemy płacić 5$ za 1 TB danych.
W internecie znajdziesz kilka kalkulatorów kosztów BQ, z których możesz skorzystać. Pamiętaj też, że przy estymacji uwzględnić należy również inne źródła danych, jak chociażby Facebook, Google Ads czy CRM.
Czy nad takim projektem analitycznym (zależnie od jego skali) z wieloma źródłami danych pracuje konkretny analityk czy więcej osób?
- Anna Moczulska
To zależy od całkiem sporej liczby czynników :)
Po pierwsze, od wielkości projektu. I tu przez wielkość rozumiem wypadkową między ilością pracy a czasem, w którym powinna być wykonana.
Po drugie, od złożoności projektu. Jeśli w ramach współpracy robimy przykładowo: wdrożenie Server Side, zarządzanie BigQuery i wizualizację danych, to każdym z tych zadań może zająć się inna osoba, która specjalizuje się w danym obszarze.
Po trzecie, od poziomu zaawansowania wdrożenia analityki. Jeśli nie robisz szalonych rzeczy w GA4, BQ czy GTM-ie, to prawdopodobnie wszystko da radę zrobić jeden specjalista na poziomie mid. Ale jeśli chcesz wdrażać od zera Adobe Analytics, to lepiej znajdź dobrego eksperta od tego narzędzia, który dodatkowo dobrze umie w cjs.
Po czwarte, od modelu, w którym stworzysz swój zespół analityczny. Możesz mieć w organizacji jednego specjalistę od analizy danych, a tematy wdrożeniowe zlecać freelancerowi albo agencji. Jeśli natomiast pracujesz w agencji – to zależy od tego, w jakim systemie pracujecie.
Dużo agencji stawia na specjalizacje – jest team od wdrożeń, team od wizualizacji, team od analizy etc. i klient, za pomocą PM-a albo Account Managera, przekierowywany jest do zespołów przy realizacji poszczególnych zadań. W mniejszych zespołach bardzo często wszyscy robią wszystko.
A na przykład my w Conversion pracujemy w małych zespołach, zawierających PM-a i analityków z różnymi umiejętnościami i na różnym poziomie eksperctwa. Każdy klient ma swojego analityka głównego, który jest jego głównym opiekunem, a zadania rozdzielamy w zależności od potrzeb. Dzięki temu senior może zlecić prostsze zadania juniorowi (bo dla niego będą one rozwojowe), a mid seniorowi ze specjalizacją (jeśli nie jest jeszcze gotów) albo poprosić go o wsparcie, jeśli potrzebuje. No i wszyscy w teamie mniej więcej znają swoje projekty nawzajem, a wiedza dość naturalnie przepływa między ludźmi.
Jak więc widzisz – ile osób, tyle podejść :) Na początek warto zacząć z jedną osobą, dobrze wdrożyć ją w organizację, a potem stopniowo rozwijać zespół.
Czy korzystasz z nowej wersji Looker Studio Pro? I czy warto w porównaniu z darmową wersją Looker Studio?
- Anna Moczulska
Looker Pro, dzięki funkcjonalnościom takim jak obszary robocze, skierowany jest raczej do dużych organizacji, które bardzo często, ze względu na swoje duże potrzeby związane z wizualizacją, korzystają z nieco innych narzędzi jak np. PowerBI.
Jeśli chcesz lepiej wykorzystywać Lookera, postaw raczej na inwestycję w BQ, bo dzięki temu rozwiążesz dwa duże problemy: ograniczenie w ilości tokenów przetwarzanych przez Lookera przy bezpośrednim pobieraniu danych z GA4 oraz trudności z blendowaniem danych, nawet jeśli pochodzą z jednego źródła, bezpośrednio w Lookerze.
Czy warto instalować BigQuery dla małego sklepu internetowego, np. 100 produktów w feedzie? I jakie to są mniej więcej roczne koszty?
- Anna Moczulska
Jak pisałam w pierwszym pytaniu, koszt BQ zależy od ilości danych i zapytań do bazy. Nawet w sklepie, w którym jest 5 produktów na krzyż, jak np. iDream, ruch może być ogromny. Generowanych jest więc dużo zdarzeń, które końcowo kończą jako GB w naszej bazie danych.
To, czy warto korzystać z BQ, zależy od tego, jak bardzo opierasz się na danych przy podejmowaniu decyzji i jak bardzo skomplikowanych analiz potrzebujesz. No i od tego, czy masz w zespole kogoś, kto będzie miał czas w BQ pracować albo chociaż opiekować je za pomocą zewnętrznego podmiotu.
Jakie są alternatywy / równie rozbudowane narzędzia podobne do BigQuery?
- Anna Moczulska
BQ to tylko narzędzie do pracy na danych w bazie danych, czyli w przypadku BQ – Google Clouda. To, jak będziesz „obrabiać” dane, zależy od bazy, z której korzystasz. A tych na rynku jest wiele.
Jak radzisz sobie z brakiem danych analitycznych, np. przez Consent Mode? Wówczas mimo obejścia próbkowania dzięki BigQuery dalej pracujesz na niepewności analitycznej.
- Anna Moczulska
Danych, które zbieramy o naszych użytkownikach, jest i będzie coraz mniej. Ale, ale! Tu nie chodzi o ilość, a o jakość danych. Skrajny przypadek, na którym pracowałam, to serwis, w którym widzieliśmy w GA jakieś 40% ruchu. Jednak nawet na tak małej próbce danych byliśmy w stanie zdiagnozować słaby punkt w formularzu leadowym, a dzięki temu klient go naprawił, a konwersja na formularzu wzrosła o ok. 30% (wybaczcie, przez NDA nie mogę powiedzieć, co to był za serwis). Analityka digitalowa nie polega na badaniu dokładnych, precyzyjnych danych – to nie bank ani giełda! Tu liczą się trendy i umiejętność wspomagania się danymi z różnych źródeł.
Czy próg wejścia do obsługi BigQuery jest wysoki?
- Anna Moczulska
O kosztach już pisałam, więc umiejętności. Do BQ nie wchodzi się „z ulicy”. Na początku trzeba zacząć „czuć” dane. W ścieżce analityka digitalowego dzieje się to naturalnie, przez wdrożenia różnych narzędzi – od GA, przez Pixel Facebooka, po CMP. Potem, przez analizę danych – bezpośrednio w narzędziach, a potem w Lookerze czy Excelu. Potem trzeba do tego tylko dorzucić SQLa i można działać!
Ania odpowiedziała na wszystkie pytania uczestników naprawdę wyczerpująco. Mamy nadzieję, że skorzystacie z wiedzy, którą podzieliła się nie tylko na scenie Campusu Google, ale też w wywiadzie po barcampie! Już teraz zapraszamy Was na kolejną rozmowę, w której to Wy zadajecie pytania naszym prelegentom – już za kilka dni na blogu.
Przeczytaj wywiad po semWAW
z Dominikiem Fajferkiem