Jako ostatni prelegent podczas semKRK#14 wystąpił Co-founder Surfer SEO – Michał Suski. „Incepcja optymalizacji. Jak głęboko zaglądać w dane” to praktyczna prelekcja dotycząca optymalizacji treści, oceniania swoich szans, zwrócenia uwagi na ważne w SEO czynniki oraz praktyczne case study. Zapraszamy na krótki wywiad z Michałem, który zgodził się odpowiedzieć na parę pytań (zarówno naszych, jak i tych, które zadawali podczas konferencji uczestnicy). Polecamy również odwiedzić strony: https://surferseo.com/ oraz https://ks.pl/ .
Twoja prezentacja skupiała się na różnicach pomiędzy tym, jak SEO wygląda w teorii, a jak różni się od tych założeń w praktyce. Jak myślisz, skąd takie rozbieżności w tym temacie?
Łatwo snuć teorie, trudniej wcielić je w życie. Wynika to z faktu, że każdy SERP różni się pod wieloma względami, coraz większa dywersyfikacja sprawia, że teoria działa tylko w idealnym świecie. Takich idealnych przypadków można znaleźć bardzo niewiele. Codzienna praca weryfikuje teorie, które ciągle trzeba naginać, by dopasować się do realiów konkretnego SERPa. Kiedyś o te teorie było łatwiej, bo wszystko robiło się na jedno kopyto.
Jak możemy łatwo sprawdzić, czy nasza domena jest wystarczająco mocna?
Ruch najlepiej odzwierciedla moc. Jeśli Google stwierdzi, że strona jest wartościowa, to wpuszcza na nią ruch organiczny. Im lepsza domena, tym więcej tego ruchu. Jeśli jesteśmy na początku naszej drogi i pozycjonujemy świeżą domenę bez ruchu i treści – warto porównywać profil linków. Pomoże on określić moc domeny, która jeszcze nie ma contentu.
Każdy chce być jak najwyżej w wynikach wyszukiwania. Jak to osiągnąć?
Sumienną pracą i nie chodzeniem na skróty. Określenie swoich szans na interesujące nas słowa kluczowe powinno sprowadzić nas “na ziemię”. Zacznijmy od tego, co jest dla nas osiągalne na dzisiaj i powoli wspinajmy się po drabinie.
Jakimi narzędziami najlepiej monitorować pozycje Twojej konkurencji?
W agencji KS.pl używaliśmy SEOStation i był to najlepszy monitoring z którym mieliśmy do czynienia.
SEO to branża, która ciągle się zmienia. Lubisz te ciągłe zmiany? Jakie masz sposoby, żeby za nimi nadążać?
Mam sporo czasu na edukację. To część mojej pracy, aby być na bieżąco. Dużo słucham, czytam i rozmawiam ze specjalistami z całego świata. Aktualnie praktyczną wiedzę czerpię od klientów Surfera, którzy przychodzą do mnie ze swoimi problemami i sukcesami.
Pytania od naszych uczestników:
Jakie elementy optymalizacji fraz i tworzenia treści są ważne w perspektywie aktualizacji BERT?
Intencja użytkownika jest kluczowa. Google teraz lepiej rozumie zapytanie i wie, czego potencjalny użytkownik szuka. Często spadki po BERCIE dotyczyły fraz na które strony rankowały niejako przypadkowo, nie dostarczając realnej wartości odwiedzającym. W zasadzie dalej to mamy na naszym podwórku (kiedy transmisja skoków), zdecydowanie lepiej widać różnice na rynkach anglojęzycznych. Skoro już przy tym jesteśmy – warto przyjrzeć się Google NLP API, które zwraca Entities, czyli słowa/frazy które są znaczące dla contentu. Warto wykorzystać je w swoich tekstach. Google obsługuje na razie kilka języków, niestety nie ma tam języka polskiego.
Które 3 kryteria są dla ciebie najważniejsze przy podjęciu decyzji czy brać się za optymalizację danej strony pod daną frazę, w danym otoczeniu konkurencji w SERP?
Aktualna pozycja, ruch organiczny oraz objętość tekstu. Jeśli rankuję na 99 pozycji, to zapewne mam nikłe szanse albo treść jest niezwykle kiepska. Nikłe szanse mogą wynikać z faktu, że moja domena jest słaba. To można sprawdzić porównując mój ruch organiczny i profil linków do konkurencji. Trzecim czynnikiem jest długość tekstu. Mając 400 słów, gdzie konkurencja ma 4000, czeka mnie dużo pracy. Wolałbym zacząć od słowa kluczowego, przy którym nie muszę tyle klepać. Te 4000 to oczywiście umowna wartość i reprezentuję intencję użytkownika szukającego obszernego tekstu na dany temat, podczas gdy ja posiadam tylko krótką definicję.
Co wybierasz do walki z mocną konkurencją? Duże rozbudowane treści o szerokiej tematyce czy krótkie konkretne teksty, czyli mięso?
Inne słowo kluczowe. Nie ma co walczyć z wiatrakami. Zbuduj autorytet na mniejsze słowa kluczowe, linkuj wewnętrznie i w końcu to Ty będziesz mocną konkurencją.
Jak tworzyć treści pod update EAT?
Sporo specjalistów śmieje się z ludzi panicznie wdrażających autorów artykułów wraz z bio i tytułem naukowym. Czy strony się podniosły? W dużej mierze nie. Myślę, że bardziej chodzi tutaj o czynnik ludzki i to użytkowników trzeba przekonać, że nasza strona jest wiarygodna np. solidnym designem, nie przytłaczającą ilością reklam/promocji, czy w końcu naturalnym przedstawieniem autora, który istnieje i faktycznie tworzy teksty.
Czy twoim zdaniem ważniejsza jest długość czy jakość contentu?
Zdecydowanie jakość, ale warto pamiętać, że za jakością idzie długość. Jeśli temat wymaga długiego tekstu, to tylko tekst o odpowiedniej długości będzie mógł nosić miano treści wysokiej jakości. Lanie wody na 3000 słów nie pomoże. No chyba, że będzie semantycznie poprawne, na dostatecznie mocnej domenie i “z jajem”, czyli czymś co sprawi że użytkownicy będą zaangażowani mimo braku konkretnej wartości. Polecam wyszukać w Google “pozycjonowanie śląsk” i przejście na stronę Szymona Słowika. Widzicie? Tak to się robi – już wpadł kolejny mention, kto wie, może uda mu się pozyskać tu link?
Jakie najciekawsze pomysły na zastosowanie danych z Surfera w optymalizacji widziałeś?
Wspomnę tutaj Rafała Pietraszka, który przesłał mi kiedyś zdjęcie od jednego ze swoich copywriterów, który wypisał common phrases na kartkę i wykreślał długopisem już użyte frazy. To był jeden z bodźców który popchnął nas do stworzenia Content Editora.
Jak surfer radzi sobie ze stronami jsowymi, albo z dużą ilością js (infinite scroll itd)?
Renderujemy strony z wykorzystaniem JS, w taki sam sposób jak Google Bot. Można założyć że tam, gdzie sobie nie radzimy, nie radzi sobie też robot. Wspomniany infinite scroll czasem sprawia problemy ;).
Prezentacja Michała: