Podczas panelu dyskusyjnego rozmawialiśmy m.in. o tym, w jakich sytuacjach zastosowanie sztucznej inteligencji się nie sprawdzi, a wiele pytań ze strony publiczności dotyczyło przyszłości i kwestii finansowych. Poznaliśmy już perspektywę Mariusza Michalczuka – teraz czas na odpowiedzi Anny Tratnerskiej. Miłej lektury!
OpenAI nie zarabia i wg prognoz nie będzie przynosić zysku do 2029. Ostatnio wnioskowali do rządu o dofinansowanie. Czy bańka AI pęknie?
Anna TratnerskaFaktycznie, najnowsze dane pokazują, że OpenAI spodziewa się bardzo wysokiego spalania gotówki – około 115 miliardów dolarów do 2029 r. – i nie zakłada rentowności w najbliższych latach. To twardy sygnał, że rozwój modeli AI w tej skali jest ekstremalnie kapitałochłonny.
Nie byłby to zresztą pierwszy przypadek, kiedy firma technologiczna latami generuje straty, a później staje się dominującym graczem na rynku:
– Amazon 20 lat operował na granicy opłacalności i celowo reinwestował wszystkie zyski,
– Tesla dopiero w 2020 r. osiągnęła pierwszy roczny zysk po 17 latach istnienia, – Spotify mimo globalnej dominacji dopiero w 2024 r. osiągnęło zysk (~€1,14 mld netto).
Czy to oznacza pęknięcie bańki AI? Raczej nie – pokazuje pęknięcie bańki oczekiwań i hype’u. W technologii taki cykl powtarza się regularnie. W fazach przełomu technologicznego dominują wysokie koszty infrastruktury i R&D, a zyski przychodzą dopiero wtedy, gdy technologia staje się dojrzała i powszechna.
Tak samo będzie z AI. Hype opadnie, a sztuczna inteligencja stanie się po prostu kolejną warstwą infrastruktury, jak kiedyś cloud, VR, blockchain, voice assistants albo mobile.
AI przejdzie ten sam etap: z „magii” do infrastruktury. W ciągu najbliższych lat:
– spadną koszty inference, – modele staną się bardziej wyspecjalizowane i tańsze, – unormuje się prawo dotyczące wykorzystania AI, – AI przestanie być „projektem innowacyjnym”, a stanie się po prostu modułem każdego systemu marketingowego, CRM-u czy ERP-u.
Tu pojawia się najważniejsza rzecz dla firm: dzisiaj trzeba przygotować się na dwa równoległe scenariusze.
Pierwszy: że AI będzie dalej rosnąć wykładniczo, a wtedy przewagę będą mieć ci, którzy zbudują dane, procesy i realne automatyzacje.
Drugi: że rynek spowolni i dojdzie do selekcji projektów – wtedy wygrywają ci, którzy wdrożą technologie z policzonym ROI, a nie dlatego, że „wszyscy tak robią”.
Jedno jest pewne – AI nie zniknie. Zniknie jedynie złudzenie, że wszystko, co ma w nazwie AI, musi przynosić natychmiastowy zysk.
Wg jednego z raportów 95% firm nie widzi zwrotu z inwestycji w AI. Skąd tak słaby wynik?
Anna TratnerskaStatystyka bywa uproszczona. Różne raporty przytaczają wartości z zakresu 60-90%, ale zależy to od definicji zwrotu. Pojawia się on rzadziej niż częściej z prostego powodu: AI wdrażane jest jak modny gadżet, a nie jako projekt technologiczny.
Jeśli firma:
– nie ma czystych danych,
– nie ma zdefiniowanych mierników,
– nie ma baseline'u,
– nie ma procesów, w których AI faktycznie coś odciąża,
– nie policzyła kosztów operacyjnych (np. inference, ludzi, integracji),
to jeżeli AI zepnie się finansowo, będzie to tylko szczęśliwy przypadek.
AI – jak każdy software – trzeba policzyć PRZED wdrożeniem, a nie po. Bez tego powstaje wdrożeniowy “dryf”: narzędzie istnieje, ale nikt nie potrafi udowodnić, po co.
Mieliśmy Vibe Coding, czy czeka nas Vibe Marketing?
Anna TratnerskaTak – pewne elementy Vibe Marketingu już mamy. AI potrafi dziś w minutę zrobić kreacje, nagłówki, hasła, storyboardy, listy słów kluczowych, posty i artykuły, analizy. Tylko że Vibe Coding pokazał nam też drugą stronę: to, co powstaje szybko, często wymaga później pięć razy więcej poprawek, utrzymania i kontroli. AI jest świetne do generowania, ale nadal słabe w utrzymaniu spójności, brand tone of voice czy faktycznego zrozumienia kontekstu, szczególnie biznesowego.
Jeśli marketerzy uwierzą, że wystarczy dać AI prompt „zrób kampanię w Google Ads, mówiącą o naszych przewagach względem firmy X”, to grozi to tym samym, co w Vibe Codingu – szybki prototyp, ale słaba stabilność, brak głębokiego zrozumienia odbiorcy, brak kontekstowej przewagi rynkowej i potencjalnie błędy komunikacyjne. Przykłady z Vibe Codingu pokazują, że kod łatwo powstaje, ale trudniej go utrzymać, zrozumieć i zabezpieczyć.
Nie wierzę w pełny Vibe Marketing, ale wierzę w marketing przyspieszony przez vibe i stabilizowany przez proces. Czyli: AI robi szybkie szkice i prototypy, a marketer odpowiada za kierunek, priorytety, insighty i to, czy kampania ma sens strategiczny.
Możemy więc mieć vibe kreacje, vibe prototypy, vibe pomysły, ale nie końcową vibe strategię. Tak samo, jak w Vibe Codingu – można napisać kod z promptu, ale architektura, decyzje, logika i odpowiedzialność nadal są po stronie człowieka.
Jakich zadań marketingowych NIE DA SIĘ outsource'ować do AI?
Anna Tratnerska1. Priorytetyzacja celów biznesowych i podejmowanie decyzji o budżetach. AI nie podejmie ryzyka finansowego w Twoim imieniu. A przynajmniej nie powinno.
2. Strategia i wybór kierunku rozwoju produktu. To decyzje oparte o rynek, politykę, partnerów, konkurencję, regulacje prawne, technologię itd.
3. Wykorzystywanie insightów społecznych, kulturowych i politycznych.
AI nie ma doświadczenia życiowego – baza danych ≠ intuicja kulturowa. Trafione insighty nadal będą wytwarzane przez ludzi.
4. Zarządzanie kryzysem. AI nie może wziąć na siebie odpowiedzialności prawnej ani wizerunkowej, choć może pomóc w tworzeniu strategii zarządzania kryzysowego czy treści oświadczeń. Nawet przy rozwiewaniu obiekcji klienta każdy mail warto przepuścić przez czat AI przed wysłaniem. Mój ulubiony prompt w tym obszarze: „sprawdź odpowiedź i popraw zgodnie z zasadami NVC i PR-u, ale zachowując biznesową asertywność i tone of voice naszej firmy (z wgranego pliku)”.
5. Relacje: sprzedaż B2B, partnerstwa, PR ekspercki. Ludzie ufają ludziom. Reszta – produkcja, analiza, egzekucja – będzie coraz mocniej automatyzowana.
Czy LLM-y rozumieją znaczenie słów? Wg mnie jest to tylko model statystyczny częstotliwości występowania określonych słów obok siebie, stąd te halucynacje itp.
Anna TratnerskaBardzo dobrze, że ktoś to napisał!
Najkrócej: nie rozumieją. Modelują zależności statystyczne. Autor(ka) pytania ma rację – ich „wiedza” wynika z predykcji tokenów, a nie z semantyki. Model zawsze musi odpowiedzieć. Jeśli nie ma danych, to generuje najbardziej prawdopodobną kontynuację. Jednak halucynacje nie wynikają tylko z „niewiedzy” semantycznej, ale też z architektury.
Dzisiejsze modele nie są już wyłącznie predyktorami kolejnego słowa. Nowoczesne LLM-y łączą wektory semantyczne, mechanizmy uwagi, dane multimodalne, kontekst globalny, narzędzia zewnętrzne (retrieval / RAG, agentowe wykonanie zadań). One symulują zrozumienie i robią to tak dobrze, że w wielu zastosowaniach praktycznie to wystarcza.
W nauce korzysta się z wewnętrznych baz danych i RAG-ów, dzięki czemu w pełni wyklucza się halucynacje. Niedawno byłam na meetupie “LLM-y w e-commerce i analizie danych”, gdzie Marzena Halama z Institute of Theoretical and Applied Informatics opowiadała o tak zaawansowanych, naukowych modelach AI, że dopiero wtedy zrozumiałam, jak wiele jeszcze nie wiem na ten temat.
My, póki co, możemy wykluczyć halucynacje, ograniczając czat AI do wykorzystania tylko naszych materiałów, jak np. w NotebookLM.
Jak rozpocząć budowę „bazy wiedzy” dla AI dotyczącej organizacji, systemu pracy i procesów? Jak ograniczyć się do kluczowych danych, co zawrzeć, a czego nie?
Anna TratnerskaTo jedno z najczęściej źle realizowanych zadań. Firmy wrzucają wszystko, co mają, a potem model halucynuje, bo dane są niespójne. Fundamentem skuteczności są struktura, selekcja danych, jasna intencja i unikanie chaosu informacyjnego.
Krok 1: Audyt wiedzy, nie kopiowanie plików
Wpierw warto ustalić, które informacje są:
– stabilne (procesy, zasady, polityki),
– powtarzalne (FAQ, instrukcje),
– wysokiej jakości (zatwierdzone treści),
– potrzebne w codziennej pracy.
Krok 2: Wersjonowanie i unifikacja
Jeden dokument = jedno źródło prawdy. AI nie poradzi sobie, jeśli w dwóch plikach znajdzie np. dwie sprzeczne definicje ICP.
Krok 3: Podzielenie danych na moduły (tak jak architektura informacji w UX)
Struktura powinna przypominać projektowanie stron: procesy, polityki, standardy jakości, szablony, strategie, materiały szkoleniowe, wyjątki i edge cases.
Krok 4: Dokumenty krótkie, jednoznaczne, pozbawione „kreatywnego pisania”
AI lepiej przetwarza:
– checklisty,
– instrukcje krok po kroku,
– zbiory zasad,
– definicje pojęć,
– schematy decyzyjne,
– procedury.
Krok 5: Regularny „knowledge refresh” Jeśli proces jest nieaktualny, AI będzie powielać błędy.
Czego NIE wrzucać?
– Rozmów zespołowych,
– szkiców,
– prezentacji z wstępnej fazy strategicznej,
– materiałów niezatwierdzonych,
– sprzecznych wersji dokumentów.
Na końcu powstaje nie „baza wiedzy”, tylko system wiedzy: modularny, iterowalny, z wersjonowaniem, spójny semantycznie, powiązany z procesami. Dzięki temu AI będzie działało jak realne wsparcie, a nie generator halucynacji.
Aniu, dziękujemy za ciekawe i interesujące odpowiedzi! Temat współpracy z AI nie ucichnie jeszcze przez długi czas, dlatego warto mieć świadomość zarówno na temat wykorzystania, jak i sytuacji, w których oddawanie zadań sztucznej inteligencji nie jest najlepszym pomysłem. Mamy nadzieję, że wskazówki i insighty od Ani pomogą Ci w tej podróży!

Przeczytaj wywiad z Pawłem Gontarkiem
Dowiedz się więcej o SEO w czasach AI





















