Czego dowiesz się z tego wywiadu:
Początki budowania platformy Marketplace w Superpharm
Dane i źródła w fazie Discovery
Platforma Miracle: Zalety i perspektywa danych
Wzrost, jakość i strategiczne podejście do marketplace
Kluczowe wskaźniki (KPI) i codzienne rutyny
DNA marki i zachowanie klienta
Ewolucja handlu i trendy w wykorzystaniu danych
Podsumowanie: Główne wnioski z rozmowy
Mariusz Michalczuk: Witam Cię w kolejnym odcinku z serii Date with Data Talks, czyli podcastu od praktyków danych do praktyków wykorzystania danych i vice versa. Dzisiaj twoim i moim gościem jest Michał Trosiński. Michale, jakbyś mógł kilka słów o sobie powiedzieć i przejdziemy do rozmowy.
Michał Trosiński: Cześć Mariusz, witajcie słuchacze. Nazywam się Michał, w Superpharmie odpowiadam za nowy projekt, jakim jest własna platforma partnerska. Przed pracą w Superpharmie pracowałem w branży beauty w koncernach takich jak L’Oreal czy Coty. Z rynkiem e-commerce z kolei mam doświadczenia pracując w firmach takich jak Allegro oraz Xiaomi, gdzie zarządzałem kanałem e-commerce.
Mariusz Michalczuk: Super. A mógłbyś opowiedzieć, jak w ogóle wyglądał Twój start w Superpharmie jako Marketplace Manager? Jakie były pierwsze kroki w budowaniu tej platformy od zera? Z tego co rozmawialiśmy, to jest bardzo świeży, aczkolwiek intensywnie rozwijający się projekt. Mógłbyś trochę nas w meandry wprowadzić biznesowo?
Michał Trosiński: Jasne. Początki ja przynajmniej miałem takie podejście, że czułem się jak konsultant, gdzie efektem mojej pracy było przygotowanie biznes case’u i PNL. Gdy wszedłem do organizacji, to co zastałem, to była decyzja, że firma chce inwestować w platformę oraz był wybrany wstępnie partner technologiczny – firma Miracle. Cała reszta to była pewnego rodzaju tabula rasa. To znaczy, jaką chcemy być platformą, z jakimi merchantami chcemy pracować, z jakim asortymentem – tego typu decyzje były jeszcze przed nami.
Nazwaliśmy tę pierwszą fazę “Discovery”, gdzie moją rolą było przygotowanie rekomendacji i sprzedanie ich w organizacji. To był również etap edukacji organizacji, czym są platformy. Wiele osób korzysta z Allegro czy innych platform Marketplace, natomiast później, wchodząc w szczegóły i rozmawiając z odpowiednimi członkami zespołu, każdy miał nieco inną wizję tego, czym są te Marketplace. Tak wyglądały te początki.
Mariusz Michalczuk: Super. Tutaj nie mógłbym nie zapytać o dane na tak wczesnym etapie. Jak tworzyłeś tego biznes case’a, mógłbyś opowiedzieć z jakich źródeł danych korzystałeś, na jakiej podstawie ten biznes case wyglądał? Na tym kanale mówimy o podejmowaniu decyzji na podstawie danych. Wiem, że na początku jest bardzo trudno o własne dane, bo jak z czymś zaczynamy, to ich nie mamy. Jak to wyglądało? Jakbyś mógł zdradzić, jakie były te dane w takim biznes case’ie?
Michał Trosiński: Starałem się pozyskać jak najwięcej danych rynkowych. Gemius był tutaj bardzo pomocny, ponieważ jak sprawdzisz top 10 polskich e-commerce’ów, to 9 z nich to platformy marketplace. Chyba tylko Rossmann póki co nie jest w tej dziesiątce. Korzystałem też z danych dostępnych na Allegro, bo można powiedzieć, że w pewnych kategoriach Allegro jest barometrem e-commerce’u.
Miracle również pomagał nam w pozyskaniu danych i best practices, dzięki czemu mogliśmy ocenić, jakie rozwiązania dostępne na rynku są wartościowe, opłacalne i mogą się sprawdzić. Pracowaliśmy też z naszą centralą, która wdrożyła platformę Marketplace w 2020 roku. Oni poszli w nieco inny model niż my i mieli inną sytuację rynkową. Czasami te doświadczenia z centrali były wyzwaniem, żeby pójść w innym kierunku, natomiast to też było na pewno źródło bardzo ciekawych danych, do których możemy się porównywać.
i bądź na bieżąco z nowościami ze świata analityki internetowej!
Mariusz Michalczuk: Super. Kilka razy padł już ten Miracle jako platforma do marketplace’u. Czy mógłbyś trochę naświetlić, co jest takiego fajnego w tym Miracle? Abstrahując, dlaczego Miracle, chociaż jeżeli możesz, to też możesz się podzielić. Bardziej mnie interesuje w kontekście danych – co takiego fajnego w tym Miracle’u jest z punktu widzenia tego, jakie informacje, pewnie na trzy grupy można podzielić: użytkowników kupujących, merchantów, i może jeszcze inna. Jak to wygląda?
Michał Trosiński: Myślę, że powodem, dla którego wybraliśmy Miracle’a, były bardzo dobre doświadczenia Centrali. Nawet bez tego, patrząc na polski rynek, platformy można podzielić na dwie grupy: takie, które bazują na własnych rozwiązaniach, na przykład Allegro, Amazon czy chińskie platformy, oraz takie, które korzystają z gotowych rozwiązań. Zdecydowana większość firm budujących marketplace korzysta właśnie z tych gotowych rozwiązań. Miracle wydaje się być tutaj praktycznie monopolistą, bo poza rozwiązaniem InPost Fresh, który bazuje na konkurencji, i naszą bezpośrednią konkurencją jak Hebe, wszystkie pozostałe platformy korzystają z rozwiązania Miracle. Pewnie z czegoś to wynika. Wydaje się, że po prostu to rozwiązanie jest dobre i skuteczne. Z naszej perspektywy nasi partnerzy, nasi merchanci, też duża większość z nich zna tę platformę i z ich punktu widzenia na pewno łatwiej się wdrożyć w nowy kanał sprzedaży, który znają.
Odnośnie danych, bardzo chwalę sobie współpracę z Miracle właśnie pod tym kątem, że mają bardzo dużą bazę danych z własnych rozwiązań, z polskiego rynku czy innych rynków, ale z naszej branży, na których mogliśmy bazować. To był też pewnego rodzaju sparing partner. Przygotowując biznes case’a, na przykład, gdy przygotowywałem estymację ilości partnerów, ilości asortymentów, wartości GMV, mogłem challenge’ować nasze wyliczenia i nasze podejście, czasami zgadzając się na sugestie konsultantów z Miracle’a, czasami nie. Porównanie z branżą czy innymi platformami na pewno było bardziej pomocne niż przygotowanie biznes case’u bez tego typu danych.
Mariusz Michalczuk: Super. Tak się zastanawiam, skoro to jest taka platforma, która ma mnóstwo tych danych, pewnie pozwala Wam przekrojowo też popatrzeć, tak jak mówisz, challenge’ować Wasze KPI. A jak to wygląda z punktu widzenia tego, co daje merchantowi? Bo to też jest istotne, że merchant wchodzi z Wami do współpracy po to, wiadomo, żeby rosnąć. To z punktu widzenia takiego merchanta, jakie dane daje ten Miracle, które są istotne z punktu widzenia marketplace’u, jak to wygląda?
Michał Trosiński: Merchant widzi, oczywiście to zależy od tego, jak merchant wykorzystuje strategię multichannel, strategię marketplace’u. To, co widzi partner, to co widzi merchant, to są oczywiście dane sprzedażowe. Widzi tam, co sprzedaje, kto kupuje. To, co z naszej perspektywy jest na pewno pomocne, to praca na takich wskaźnikach jakościowych. Możemy zdefiniować zmienne jak czas akceptacji, czas wysyłki, takie właśnie dane jakościowe, którymi na koniec dnia kupujący się kieruje. Chcemy mieć te zakupy jak najszybciej, dostarczone w jak najbardziej wygodny sposób, i panel Miracla pozwala to monitorować. Dzięki temu możemy pracować z merchantami właśnie na tych wskaźnikach jakościowych.
Mariusz Michalczuk: OK. Wspominałeś, że pracowałeś sporo w Allegro i pracowałeś przy tworzeniu biznes case’a, ten Allegro Analytics jako taki barometr e-commerce’u. Ja też jestem dokładnie tego samego zdania, że uważam, że Allegro ma, nie wiem ile dzisiaj procent, no pod 50 pewnie.
Michał Trosiński: Ja dziś znalazłem dane, że Allegro stanowi około 55% polskiego e-commerce’u.
Mariusz Michalczuk: Okej, to w mojej głowie jest 49%, ale to powiedzmy, że wokół 50% się kręcimy. Czyli jak mamy Allegro Analytics i pokazuje nam 50% rynku, to rzeczywiście to jest niezły barometr. Mówiłeś, że merchanci mogą porównywać. Czy oni też mają taką możliwość w Miracle, żeby popatrzeć sobie, jak na przykład kategoria sobie radzi?
Michał Trosiński: Nie, tego typu danych akurat Miracle nie udostępnia dla merchantów.
Mariusz Michalczuk: OK, dobra.
Michał Trosiński: Miracle to takie bardziej narzędzie, gdzie partnerzy, gdzie merchanci widzą swój kawałek biznesu.
Mariusz Michalczuk: Okej, no ale to też jest ważne, prawda? Jak chcesz się poprawiać, to patrzysz na swoje i z okresu na okres, żeby radzić sobie lepiej.
Mariusz Michalczuk: Tak się zastanawiam, no bo taki marketplace to rzeczywiście z jednej strony analiza tego, co robią merchanci, bo to jest turbo istotne z punktu widzenia użytkowników. Analiza marketingu, bo też waszym zadaniem jest sprowadzanie tego ruchu dla merchantów. No i w końcu analiza samego serwisu, samej platformy, pewnie jakieś tam optymalizacje. Jesteście na bardzo wczesnym etapie. Wspominałeś, że tak pełną parą, jeśli dobrze pamiętam, od czerwca działacie?
Michał Trosiński: Tak, wystartowaliśmy pod koniec marca pilotażowo z jednym z partnerów, który pozwolił nam wdrożyć wiele kategorii. Przez te pierwsze dwa miesiące wdrożyliśmy około tysiąca produktów i szerzej pracujemy od początku wakacji. Na chwilę obecną cały czas jesteśmy na tym etapie wzrostowym. Póki co podwajamy z miesiąca na miesiąc ilość asortymentu, podwajamy GMV, czyli obrót brutto. Na świeżo to około już 1/4 asortymentu dostępnego na stronie czy w aplikacji Superpharm to są oferty partnerskie.
Nie mamy ciśnienia, żeby mieć mnóstwo partnerów czy jak najszerszy asortyment. Mamy podejście, że chcemy być platformą jakościową. Chcemy pracować ze zweryfikowanymi partnerami, ze zweryfikowanym asortymentem, bo wierzymy, że w tych naszych kategoriach zdrowia, urody i dbania o rodzinę – jak to nazwałem, taki obszar family wellbeing (jeśli Ty bądź Twoi słuchacze mają lepsze określenie, chętnie się zainspiruję) – wychodzimy z założenia, że jakość jest lepsza niż ilość.
Mariusz Michalczuk: Super. Na początku pewnie stawiacie na tę jakość, to tych danych ilościowych pewnie aż tak dużo nie ma, albo aż tak mocno nie zwracacie uwagi. Czy mógłbyś opowiedzieć, na jakie dane na tym początkowym etapie patrzycie, jakie decyzje z tego płyną, co się z nimi dzieje, jak to wygląda?
Michał Trosiński: Moją rolę osoby zarządzającej platformą mogę podzielić na trzy główne obszary. Pierwszy z nich to category management. W ramach biznes case’u wybraliśmy kategorie, które chcemy rozwijać w naszym modelu partnerskim. Są to kategorie, z których Superpharm już jest kojarzony – kosmetyki, zapachy, suplementy diety – jak również kategorie, w których jeszcze nie jesteśmy specjalistami, na przykład elektronika użytkowa zorientowana na zdrowie czy urodę, czy jakościowe produkty związane z weterynarią. Ten pierwszy obszar category managementu to pozyskiwanie danych o kategorii.
Staramy się pozyskiwać dane w zależności od obszaru. W kategoriach FMCG pomocny jest Nielsen. Rozmawiamy, bazując na danych dostarczonych przez Nielsena. W kategoriach związanych bardziej ze zdrowiem, Iqvia jest pomocna. W kategoriach związanych z elektroniką użytkową wyspecjalizowała się GFK. W zależności od kategorii staramy się sprawdzać, które marki dobrze sobie radzą, które segmenty, tak żeby nasza oferta była atrakcyjna dla klientów.
Inny obszar to współpraca z merchantami, czyli Key Account Management. Tutaj pomocne są dane konkurencji. Monitorujemy, co sprzedaje się na Allegro czy u naszej konkurencji jak Hebe czy Douglas. Ja prywatnie regularnie obserwuję, co robi konkurencja, bo to jest ciekawe poznawczo – dlaczego to robią i czy powinniśmy się inspirować, czy wręcz powinniśmy pewnych kroków czy asortymentów unikać.
Kolejny obszar związany z platformą to sam rozwój produktu. Czasami czuję się jak Product Owner, który jedzie trochę jako drugi pasażer. Nasza platforma jest częścią naszej strony, która stoi na silniku Magento, jak również częścią aplikacji. Pracujemy z zespołem bazując na testach, testach A/B, czy nawet testach biurkowych, sprawdzając, czy dany element, kartę produktu, powinien być wyżej czy niżej, tak żeby doświadczenie dla klienta było jak najlepsze.
Wspomniałeś o marketingu, to też część category managementu, albo raczej obszar e-commerce managera. Jeżeli mamy podejście, że oferta z platformy jest integralną częścią naszego e-commerce, to znaczy mamy wspólną wyszukiwarkę, wspólne drzewo kategorii, wspólne parametry, na stronie czy w aplikacji nie znajdzie się osobna sekcja. Produkty są obok siebie. Podobnie promujemy asortyment partnerów na zewnątrz – w Google, na YouTube, w innych mediach czy mniej popularnych wyszukiwaniach. Dużo energii poświęcamy na analizę ruchu i konwersji, co się klika, a co się sprzedaje. Gorzej jak coś się klika, a się nie sprzedaje. Na podstawie tego wyciągamy wnioski i staramy się przede wszystkim dowiedzieć, z czego wynika dane zachowanie klientów.
Korzystamy z narzędzi takich jak Price Panorama czy Elgigo, które pomagają nam w ocenie naszej oferty cenowej. Sprawdzamy, czy odbiegamy od konkurencji i czy to ma wpływ na zachowania klientów. Analizując traffic i konwersje, dokładamy wszelkich starań, żeby wszelkiego rodzaju wskaźniki były jak najlepsze. Moim prywatnym wyzwaniem jest to, żeby wskaźniki związane z programem partnerskim nie były gorsze niż oferty własnej (tzw. 1P, czyli First Partner), czyli to, co oferuje i idzie z magazynu.
Mariusz Michalczuk: To w ogóle jest niesamowite dla mnie, że jedna osoba, jedno stanowisko i w praktyce cztery zakresy kompetencji.
Michał Trosiński: Nie robię tego sam.
Mariusz Michalczuk: No tak, ale musisz to wszystko pospinać, prawda? No i właśnie tak się zastanawiam, jak mówisz o tym KPI, który przed chwilą wspomniałeś, ale zakładam, że tych KPI jest więcej i pewnie masz w każdym z tych czterech obszarów jakieś KPI. Czy mógłbyś rzucić nam światło trochę, bo źródeł danych jest niesamowicie dużo, tak? Dane panelowe, masz dane o Nielsenie, GFK, masz dane o konkurencji, Allegro Analytics pewnie i tego typu. Masz dane wewnętrzne, testy A/B, analityka internetowa, dane marketingowe z paneli reklamowych. Jak Ty z tym wszystkim się nie gubisz? Na co w pierwszej kolejności patrzysz co dzień rano, żeby to wszystko połapać, nawet jeżeli bezpośrednio nie odpowiadasz?
Michał Trosiński: Pewnie Cię nie zdziwię, natomiast najważniejszym wskaźnikiem z naszej perspektywy jest sprzedaż, czyli GMV. To, żeby to GMV zostało dowiezione, składa się z kilku aspektów. Odpowiadając na Twoje pytanie, codziennie rano, gdy włączam panel Miracle, patrzę na ilość aktywnych ofert. Nie jesteśmy na takim etapie, że z miesiąca na miesiąc staramy się bardzo mocno budować ofertę dla klientów.
Kluczowa jest ilość zamówień, sprawdzamy, czy nasz średni koszyk rośnie, czy spada i z czego to wynika. Z tym obszarem kluczowa jest ilość aktywnych partnerów, ilość produktów, ilość ofert, bo nie zawsze do wszystkich produktów mamy przypiętą ofertę, czyli cenę oraz dostępność. Drugi obszar to wskaźniki jakościowe. Sprawdzamy średni czas akceptacji zamówień, średni czas szeroko pojętej reakcji i pracy partnerów.
Zdrada operacyjnych szczegółów: nasz model platformy jest na polskim rynku o tyle wyjątkowy, że to my, po naszej stronie jako Superpharm, odpowiadamy za fiskalizację klientów. Mimo że partner odpowiada za zarządzanie treściami, dodaje opisy, wgrywa zdjęcia, tytuły, wypełnia parametry tak, żeby karty produktu były jak najbogatsze (bo za tym idzie potencjalna sprzedaż), po stronie partnera jest zarządzanie ofertą cenową (standardową czy promocyjną) i informowanie klientów o dostępności produktu i w jakich ilościach. Partnerzy wreszcie odpowiadają za zarządzanie dostawami – te produkty, te dostawy idą z magazynów partnerów do klientów. Natomiast już sama fiskalizacja i odpowiedzialność za transakcje jest po naszej stronie.
W wyniku research’u przygotowując biznes case, doszliśmy do wniosku, że tego typu podejście daje największą wartość klientowi. Teraz bardzo dużo się mówi o przekazywaniu wartości klientom, a z naszej perspektywy, skoro doszliśmy do wniosku, że to są nasi klienci, to są nasze produkty cyfrowe, to pełna odpowiedzialność za sprzedaż powinna być po naszej stronie. Trochę zgubiłem wątek.
Mariusz Michalczuk: Rozmawialiśmy, czyli tak, od GMV przeszedłeś do KPI, czyli ilość aktywnych partnerów, ilość ofert, ilość zamówień, bo to taki step down od partnera przez to ile ma ofert, później są zamówienia i później jakościowe bardziej.
Michał Trosiński: Tak, o to właśnie chodzi – stawiamy na jakość, bo to jest obszar, w którym między innymi chcemy zdobyć klientów, czyli te wskaźniki jakościowe związane z obsługą klienta. Miracle ma też panel, który pokazuje, jak partnerzy odpowiadają na potencjalne wiadomości naszego Biura Obsługi Klienta. Jeśli są jakieś mniej błahe sprawy, możemy zrobić incydent, który ma większą moc w naszych relacjach i pokazuje, która sprawa ma dla nas większy priorytet lub jest bardziej wrażliwa z punktu widzenia klienta. Monitorujemy więc zarówno zwykłe wiadomości, jak i incydenty.
To są takie obszary z dziennych, porannych rutyn. Kluczowym obszarem, choć niekoniecznie codziennym, jest analiza zachowań klienta. Co klienci klikają na naszej stronie? Wytyczną jest, żeby sprzedaż w tym modelu partnerskim – zachowania w modelu partnerskim – nie różniły się od zachowań tego standardowego 1P. Mamy wskaźniki takie jak ruch na stronie, ruch na kartach produktu, porzucone koszyki, wszelkie e-commerce’owe ROAS-y. Przez to, że to jest nowy projekt i dla nas, pracowników Superpharmu, i dla klienta, mamy cel, żeby w jakiś sposób nauczyć klientów, że poza naszą ofertą są też oferty od partnerów zewnętrznych.
Mariusz Michalczuk: Tak jak sobie myślę i mówiłeś o tych czterech obszarach i później o tych metrykach, na które patrzysz, bo tak, jak startowaliście z tą platformą, to marketing był już aktywny, prawda? Dobrze to rozumiem, że ruch na własnej platformie był, tak? Czy to w drogerii, czy to w aptece, dobrze rozumiem, że tak to było?
Michał Trosiński: Na samym początku bazowaliśmy raczej na ruchu organicznym, generowanym w naszej drogerii. Dopiero po kilku tygodniach od startu rozpoczęliśmy pokazywać oferty partnerskie również na zewnątrz, między innymi w Google.
Mariusz Michalczuk: Myślę, że to nie jest takie proste. To jest większa liczba ofert. Większa liczba ofert napędza użytkowników, bo przychodzą i są w stanie pokryć większą liczbę swoich potrzeb. I teraz, jak jest więcej użytkowników, to jest więcej transakcji, są przychody, można inwestować więcej w marketing i tak dalej, to takie trochę koło zamachowe się robi.
Michał Trosiński: Tak, i przyznam, że istnieje teoria koła zamachowego dotycząca platform. Mówi ona, że większa ilość ofert sprawia, że dana platforma jest bardziej interesująca dla użytkowników. Zgodnie z tą teorią, większa ilość ofert powinna przyciągnąć większą ilość użytkowników. Z kolei większa ilość użytkowników, klientów, jest czymś atrakcyjnym dla samych partnerów, dla samych merchantów, a rosnąca ilość tych partnerów sprawi, że więcej użytkowników zainteresuje się daną platformą.
Mariusz Michalczuk: Z tego co opowiadasz, to tak mi się rysuje, że Wy w pierwszej kolejności zatroszczyliście się o tego użytkownika. Skoro patrzycie na te jakościowe czynniki, czas realizacji zamówienia itd., w centrum postawiliście tego użytkownika, tak? Ja to dobrze odczytuję?
Michał Trosiński: Tak. Przygotowując projekt, doszukując się pewnych danych wewnętrznych, znalazłem dane jakościowe, gdzie przed startem firma przeprowadziła badania fokusowe. Osoby badane zostały poproszone o porównanie nas do konkurencji. W obszarach emocji, gdzie zgodnie z tymi badaniami byliśmy mocniejsi od konkurencji, były takie obszary jak kompetencja, pewnego rodzaju prestiżowość, rodzinność produktów. Pewnym wskaźnikiem dla nas jest to, żeby szukać partnerów, dla których te obszary emocji są również bliskie i żeby tak dobierać asortyment, kategorie, żeby nie stracić myślę pozytywnego wizerunku, jaki zbudowaliśmy. Także tutaj zatroszczenie się o klienta i skupienie się na jakości było i cały czas jest dla nas priorytetem.
Mariusz Michalczuk: To mi się z DNA trochę kojarzy, jakbyś mówił innymi słowami. Akurat miałeś wystąpienie na Retail Challenge, mówiłeś o zachowaniu DNA marki w nowych platformach, modelach platformowych. Czy mógłbyś trochę tutaj opowiedzieć? Pewnie to jest jedno z przesłań, które mówisz, że mieliście badania, które powiedziały, że użytkownicy widzą Was w ten sposób i do tego dobieracie partnerów, żeby oni też patrzyli w tym samym kierunku. A wiadomo, jak się patrzy w tę samą stronę, to dojdzie się do celu. Jakie jeszcze inne płyną wnioski z tego, o czym mówiłeś?
Michał Trosiński: Tak, co prawda miałem wystąpienie z Kubą z Miracle. Opowiadaliśmy sobie właśnie o naszym modelu, w którym fiskalizacja klientów jest po naszej stronie i to też jest jedno z narzędzi, gdzie w naszej ocenie zachowujemy nasze DNA. Myślę, że kluczowe obszary to to, że z punktu widzenia partnerów jesteśmy ekskluzywnym, zamkniętym marketplace’em. Na rynku platform mamy platformy, gdzie praktycznie każdy, kto ma działalność gospodarczą, może się zarejestrować, podpiąć pod produkcję i zacząć sprzedawać, jak Allegro czy Empik, czy kiedyś Shopee.
Są też platformy, jak właśnie nasza, że partner musi takie zaproszenie dostać. Podpisujemy indywidualne umowy z każdym z partnerów. Prosimy partnerów, żeby przygotowali nam rekomendacje asortymentu, jakie produkty widzieliby na naszej platformie, bo wychodzę z założenia, że gdy rozmawiam z właścicielem, oficjalnym dystrybutorem czy producentem asortymentu, on zna ten asortyment lepiej niż my. Rozmawiając z tymi partnerami jeszcze przed startem, robimy takie ćwiczenie, czy jego grupa docelowa, grupa shopperów, grupa użytkowników i profil persona użytkownika naszego e-commerce’u, to jest ta sama persona. Prosimy partnerów, żeby podesłali nam wybrane próbki, żebyśmy mogli porównać produkt na żywo z produktem z prezentacji, tak żebyśmy mieli pewność, że mamy do czynienia z jakościowym asortymentem.
Inny obszar, o którym też nieco wspomniałem, to selektywne podejście do asortymentu. Nasze podejście jest takie, że chcemy być tak zwaną platformą wertykalną, czyli skupiać się na określonych kategoriach. Myślę, że gdybyśmy nagle otworzyli kategorie, nie wiem, automotive, meble czy narzędzia, to ani byśmy nie mieli z tego sprzedaży, a gdzieś percepcja marki Superpharm jako specjalisty od zdrowia i urody mogłaby się zatracić. To są na pewno te aspekty, o których na tym wystąpieniu w ramach Retail Challenge opowiadałem, jak zachować DNA Superpharmu.
Szczególnie, że na razie obserwujemy sprzedaż w naszej kategorii, i to było dla mnie pewnym zaskoczeniem, że jest dużo większy udział GMV kategorii związanych ze zdrowiem, niż wynikałoby to ze splitu asortymentowego. Tłumaczymy to sobie tak, że póki co na polskim rynku za bardzo nie ma jeszcze platform skupiających się na samej kategorii zdrowia, bo te platformy cross-kategorialne jak Allegro czy Empik oczywiście te kategorie zdrowia mają, natomiast nie jest tajemnicą, że to nie są konie pociągowe tych platform. Z naszej perspektywy, a przynajmniej też mam takie selling story do partnerów z tych kategorii, współpracując z nami, partnerzy ze swoim jakościowym asortymentem mogą trafić do wyspecjalizowanej grupy użytkowników i nie musimy wykazywać, bo jeśli chodzi o ruch na stronie czy ilość użytkowników, to daleko nam do Allegro, ale mimo wszystko w tych kategoriach, które nas najbardziej interesują, nie musimy być aż tak dużą platformą jak wspomniana konkurencja.
Mariusz Michalczuk: Dokładnie. To jest jedna rzecz, o której wspomniałeś, czyli ta sprzedaż w kategorii zdrowie Was zaskoczyła, a czy jakby już jak macie dane, analizujecie ten ruch tego użytkownika. Czy widzisz jakieś inne zaskoczenia w zachowaniu użytkowników na produktach własnych versus na produktach partnerów? Czy macie jakieś wnioski?
Michał Trosiński: Tak, czym mogę się z Tobą podzielić, to bardzo duża ilość koszyków mix, czyli koszyków, gdzie jest produkt z modelu partnerskiego i 1P, czyli z naszej sprzedaży, bo jest to więcej niż połowa. Przyznam, że w stu procentach nie wiem, jak to interpretować. Z jednej strony zależy nam na tym, żeby klienci postrzegali ofertę z modelu partnerskiego i ofertę 1P jako wspólną, integralną ofertę. Więc taka duża ilość tych koszyków miksowych wydaje się, że potwierdza tę tezę. Natomiast, będąc może nieco bardziej krytycznym, być może oznacza to, że ani oferta 1P, ani oferta w modelu partnerskim nie jest pełna, tak że klient w ramach koszyka z samego 1P czy od samego partnera może kupić produkty spełniające wszystkie potrzeby.
Mariusz Michalczuk: Ja to traktuję właśnie w tym kierunku, że to jest mega pozytywne i trochę to mi się składa w tę historię całą, że zaczynacie od jakości i umówmy się, z punktu widzenia użytkownika, jak przychodzi do Was do serwisu, to jednym z elementów jakościowej obsługi jest to, że jesteście w stanie mu zapewnić wszystko. To znaczy w ramach danej kategorii. Przychodzi mi takie porównanie do motoryzacji. Jak jadę do serwisu motoryzacyjnego, to wymieni mi jakąś część i jest w stanie mi umyć samochód i może jeszcze jakiś tuning zrobić do tego samochodu. W sensie jakby one stop shop, coś takiego.
Michał Trosiński: Przygotowując ten biznes case, to też było nasze strategiczne podejście, że w ramach Superpharm chcemy być takim… czekaj, muszę z pamięci wydobyć odpowiednie określenie.
Mariusz Michalczuk: A One Stop Shop nie jest takim dobrym określeniem?
Michał Trosiński: Tak, tylko użyliśmy trochę innego stwierdzenia typu Health & Beauty Solution Center. Tylko to dotyczyło szerszej strategii firmy, gdzie ta właśnie oferta partnerska stanowiła kluczowy filar tej strategii.
Mariusz Michalczuk: Mega fajne. Tak już trochę zmierzając ku końcowi, bo masz takie szerokie doświadczenie i przechodziłeś przez te różne branże, pewnie są jakieś takie czynniki wspólne, które pokazują jakieś trendy. W jakim kierunku zmienia się wykorzystanie danych? Jak ja mam najwięcej doświadczenia w e-commerce, to takim trendem jest budowanie jednego źródła prawdy. To znaczy, że e-commerce w jednym miejscu likwiduje silosy, gdzie, nie wiem, dział produktu patrzy na stronę, dział marketingu patrzy na media, finanse patrzą na coś innego. E-commerce dąży do tego, żeby każdy mówił de facto o tym samym, tylko różnymi słowami, różnym językiem, często niestety różnymi definicjami tych samych metryk. Dla mnie to jest taki trend w e-commerce. Dążymy do tego, żeby likwidować silosy, budować takie single source of truth (my to nazywamy SSOT) i później z tego wychodzić dalej, że to jest taki przystanek, taki base camp, jak idziemy na trasie, do którego dochodzimy i później zdobywamy szczyty. To tak mi się w retailu typowym w e-commerce kojarzy. Czy Ty widzisz jakieś trendy, które się kształtują, a może to jest to samo, z perspektywy właśnie twojego doświadczenia marketplace’ów, FMCG w kontekście tych danych? W jakim kierunku dążymy, może tu będzie porada dla innych, którzy będą oglądali, na co zwrócić uwagę, czy może jakieś priorytety ustawić w kontekście wykorzystania tych danych?
Michał Trosiński: Trend, jaki ja widzę, to ograniczanie szufladkowania, to znaczy takiego sztucznego podziału, co jest online, co jest offline. Prywatnie ludzie nie mają takiej granicy, że dany obszar oceniamy tylko i wyłącznie przez doświadczenia, które mamy na żywo, a dany obszar przez ten świat cyfrowy. Myślę, że będzie coraz więcej – to też jest od jakiegoś czasu modne hasło – omnichannelowego doświadczenia, i myślę, że to będzie tylko ewoluowało. Kiedy mamy plany, na przykład, że media społecznościowe też będą miały swoje platformy sprzedażowe, jak TikTok, to już ta granica tym bardziej będzie rozmyta. Chcemy to wdrożyć w ramach naszej platformy w Superpharmie, gdzie też chcemy zacząć komunikować oferty dostępne tylko online poprzez partnerów, klientom offline’owym, choćby przez takie proste rzeczy jak drukowanie folderów. Z mojej perspektywy prywatnej to będzie trend, który będzie się tylko rozwijał.
Mariusz Michalczuk: Super, widzę, że tu w ogóle nowa uliczka nam się zrobiła do rozmowy odnośnie tego Omnichannelu, ale w tym odcinku musimy kończyć. Michał, mega dzięki Ci za Twoją obecność, za podzielenie się Twoim doświadczeniem. Chciałbym sobie zagospodarować w przyszłości czas właśnie, żeby w tę drugą uliczkę kiedyś pójść. Mam nadzieję, że jeszcze przyjmiesz zaproszenie ode mnie i będziesz chciał dalej podzielić się swoim doświadczeniem.
Michał Trosiński: Również dziękuję i bardzo chętnie kolejne zaproszenie przyjmę.
Mariusz Michalczuk: Dzięki wielkie. Do zobaczenia. Cześć.
Rozmowa z Michałem Trosińskim rzuca światło na złożony, ale fascynujący proces budowania platformy marketplace od podstaw w Superpharm. Kluczowym wnioskiem jest strategiczne podejście do danych na każdym etapie – od fazy Discovery, przez wybór partnera technologicznego, po codzienne zarządzanie i optymalizację. Wykorzystanie danych rynkowych (Gemius, Allegro Analytics) i doświadczeń zewnętrznych (Miracle, centrala Superpharm) było niezbędne do stworzenia solidnego biznes case’u.
Superpharm stawia na jakość i utrzymanie DNA marki, co przejawia się w selektywnym doborze partnerów i asortymentu, koncentrując się na kategoriach zdrowia i urody. Monitorowanie wskaźników jakościowych, takich jak czas akceptacji i wysyłki zamówień, ma kluczowe znaczenie dla zadowolenia klienta. Duża liczba „koszyków mix” (produkty własne i partnerskie) świadczy o sukcesie w integrowaniu oferty, co jest postrzegane jako pozytywny sygnał w kierunku bycia „Health & Beauty Solution Center”.
Michał podkreśla również trend zacierania się granic między światem online i offline (omnichannel), wskazując na przyszłe strategie komunikacji ofert online do klientów stacjonarnych. Całość pokazuje, że sukces w dynamicznie zmieniającym się świecie handlu wymaga holistycznego spojrzenia na dane, elastyczności w działaniu oraz nieustannego dążenia do doskonalenia doświadczeń klienta, jednocześnie pielęgnując tożsamość marki.
The post Michał Trosiński – Dane w marketplace – Date wit Data Talks first appeared on Conversion.
O segmentacji pisaliśmy na łamach naszego bloga wielokrotnie, co oczywiście nie powinno dziwić – wszak segmentacja jest istotą analiz prowadzonych z wykorzystaniem Google Analytics oraz innych podobnych aplikacji.
O ile jednak zasadność stosowania technik segmentacji podczas przeglądania raportów Google Analytics jest powszechnie uznawana, o tyle ustabilizowane podejście do segmentacji (które oczywiście powinno być dopasowane do potrzeb konkretniej firmy) jest stosunkowo rzadko spotykane.
Co znajdziesz w tym artykule?
Co to znaczy podejście do segmentacji?
W jaki sposób wypracować podejście do segmentacji w 4 krokach?
Segmentacja klientów w erze sztucznej inteligencji – jak AI zmienia podejście do analizy danych?
Spójrzmy chociażby na liczbę wymiarów i metryk, dostępnych w ramach Google Analytics – które z nich powinny stanowić podstawowe kryteria dzielenia ruchu? A zastosowanie segmentacji? Najczęściej spotykamy punktowe wykorzystanie segmentacji – przy okazji patrzenia na zgromadzone dane, wykorzystujemy mechanizmy drążenia w dół i segmenty zaawansowane w celu lepszego zgłębienia tematu i wyciągnięcia wniosków. Segmentacja, która jest stosowana w taki sposób zazwyczaj nie ma charakteru uniwersalnego i nie decyduje o ogóle działań online – znajduje się na poziomie operacji i stanowi jedno z wielu narzędzi analityka.
Tymczasem, segmentacja powinna stanowić oś pracy z danymi.
Ten problem można spokojnie określić jako typowy dla branży online. Analityka internetowa zaczyna się i kończy na instalacji narzędzi i rozpoczęciu gromadzenia danych.
W pierwszej kolejności, należy zebrać w jednym miejscu wszystkie osoby, które będą wykorzystywały docelową segmentację i zorganizować burzę mózgów, która ma na celu zdefiniowanie kryteriów segmentacji. Firmy posiadają zazwyczaj segmentację offline, którą wykorzystują do definiowania grupy docelowej lub segregowania klientów – na pewno warto potraktować ją jako punkt wyjścia. W dalszej kolejności, można posiłkować się wiedzą na temat branży lub uznanymi praktykami w obszarze online (np. listą i grupowaniem wymiarów w Google Analytics).
Posiadając listę kryteriów segmentacji, należy przeprowadzić operacjonalizację oraz klasyfikację poszczególnych warunków.
Operacjonalizacja to podanie dla danego kryterium technicznej definicji. W odniesieniu do Google Analytics, operacjonalizacja sprowadza się do przypisania każdemu kryterium z listy wymiarów lub metryk oraz – ewentualnie – zdefiniowaniu wartości progowych. Przykładowo, jeżeli podczas burzy mózgów zapisane zostało kryterium „poziom zaangażowania użytkownika”, to w trakcie operacjonalizacji dobrana zostanie metryka średni czas trwania sesji i ustalone zostaną wartości progowe (np. 0s, 1-10s, 11s+). Operacjonalizacja powinna wskazać, które kryteria segmentacji będą mogły zostać obsłużone z wykorzystaniem aktualnej instalacji Google Analytics, a które będę wymagały rozbudowy śledzenia.
Aby wyjaśnić pojęcie klasyfikacji, należy wrócić do sposobu gromadzenia danych przez Google Analytics i inne podobne narzędzia. Mianowicie, te aplikacje rejestrują interakcje (np. odsłona strony) oraz odwiedziny (czyli ciągi interakcji) plus potrafią grupować odwiedziny (dzięki technologii ciasteczek) i spinać je pod pojęciem użytkownika. Każdy wymiar i każda metryka, dostępne w ramach Google Analytics, jest przypisana albo do konkretnej interakcji (np. średni czas na stronie) albo do całej odwiedziny (np. średni czas trwania sesji) albo do użytkownika (np. przeglądarka). Poszczególnych poziomów wymiarów i metryk nie należy łączyć – technicznie to jest wykonalne, ale w praktyce prowadzi do niewłaściwych wniosków.
Patrząc na listę kryteriów segmentacji, część kryteriów będzie odnosiła się do pojedynczej odwiedziny (np. wspomniany „poziom zaangażowania użytkownika”, który może być różny w ramach kolejnych odwiedzin tego samego użytkownika), a część – do grupy odwiedzin, tj. do użytkownika (np. „przeglądarka użytkownika”, która pozostaje stała w ramach kolejnych odwiedzin tego samego użytkownika). Klasyfikacja to przypisanie danego kryterium do jednej z tych grup. Bardzo rzadko (o ile w ogóle) wynotowane kryteria będą odnosiły się do pojedynczej interakcji.
Zoperacjonalizowana i sklasyfikowana lista kryteriów segmentacji powinna zostać zweryfikowana – najpierw jakościowo (które kryteria rzeczywiście mają sens i powinny zostać wykorzystane?) a następnie ilościowo, z wykorzystaniem prawdziwych danych, w odpowiednio długim (1 rok lub więcej) okresie czasu. Weryfikacja ma dwa cele.
Po pierwsze, liczba kryteriów segmentacji, aby ta mogła być z powodzeniem wykorzystywana, nie powinna przekroczyć 5-7 warunków. Stąd, bardzo ważne jest pozostawienie tylko najbardziej istotnych kryteriów.
Po drugie, segmenty (przecięcia kryteriów segmentacji) powstałe przy wykorzystaniu tych najbardziej istotnych warunków powinny być heterogenicznie (zróżnicowane) względem najbardziej kluczowego wskaźnika wydajności (najczęściej: współczynnika konwersji lub średniej wartości zamówienia).
Pozytywne zweryfikowanie listy kryteriów segmentacji tworzy prototyp segmentacji i daje zielone światło do zdefiniowania poszczególnych segmentów oraz opracowania narzędzi segmentacji (najczęściej w formie dedykowanych definicji segmentów zaawansowanych odpowiadających przecięciom kryteriów segmentacji).
Opracowanie narzędzi segmentacji oraz upowszechnienie tych narzędzi w ramach organizacji wieńczą proces opracowywania całej segmentacji, która w obiegu powszechnym określana jest jako segmentacja dwupoziomowa i która wypromowana została przez zespół Semphonic.
Zdefiniowana w ten sposób segmentacja może następnie posłużyć, wespół z ustalonymi kluczowymi wskaźnikami sukcesu, do przygotowania systemu raportowania oraz usprawnienia procesów analityki internetowej, pozwalając na pełne wykorzystanie danych (np. analiza i optymalizowanie media mix, rozwój i optymalizacja witryny). Segmentacja stanowi również dobre podłoże dla opartych o dane person.
Nowoczesne narzędzia oparte na sztucznej inteligencji pozwalają tworzyć segmenty klientów dynamicznie – w oparciu o zachowania w czasie rzeczywistym, a nie tylko dane historyczne. Algorytmy machine learning wykrywają wzorce niedostrzegalne dla człowieka, co umożliwia bardziej precyzyjne prognozy potrzeb i dopasowanie komunikacji marketingowej.
Teraz kolej na Was – w jaki sposób podchodzicie do segmentacji?
The post Segmentacja to nie tylko segmenty zaawansowane. O właściwym podejściu do segmentacji w 4 krokach first appeared on Conversion.
Wraz ze wzrostem dojrzałości analitycznej, firmy zaczynają coraz więcej inwestować w dane. Przede wszystkim integrują je z różnych źródeł. W ten sposób prowadzą demokratyzację wiedzy, zapewniając dostęp do danych w organizacji. Jak w tym wszystkim wykorzystać Google Analytics 360 w kontekście pracy z danymi w Google BigQuery? O tym w dzisiejszym wpisie.
Co znajdziesz w tym artykule?
Google Analytics 360 a Google BigQuery
Google BigQuery – znaczenie w rozwoju analityki internetowej
Google Analytics 360 – dlaczego warto?
Przyszłość Google 360
Zdarzenia w Google Analytics
Jak obliczyć liczbę zdarzeń w Google Analytics
Liczba zdarzeń w wersji desktop i w aplikacji mobilnej
Liczba zdarzeń w Ecommerce
Podsumowanie
Google Analytics 360 w połączeniu z Google BigQuery umożliwia zaawansowaną analizę danych marketingowych. Dzięki tej integracji firmy mogą łatwo przetwarzać ogromne ilości informacji i uzyskiwać cenne wnioski. Google BigQuery pozwala na szybkie i efektywne przetwarzanie dużych zbiorów danych, co jest kluczowe w dynamicznie zmieniającym się środowisku marketingu online.
Jednym z głównych atutów korzystania z Google Analytics 360 i Google BigQuery jest możliwość tworzenia bardziej precyzyjnych segmentów użytkowników oraz lepsze zrozumienie ich zachowań. To z kolei pozwala na bardziej efektywne kampanie marketingowe i lepsze dostosowanie treści do potrzeb odbiorców.
Warto również zaznaczyć, że dzięki integracji z Google BigQuery, firmy mogą łatwo łączyć dane z Google Analytics 360 z innymi źródłami danych, takimi jak CRM czy systemy e-commerce. To umożliwia tworzenie kompleksowych raportów i analiz, które wspierają podejmowanie decyzji biznesowych.
Google Analytics 360 i Google BigQuery to potężne narzędzia, które pomagają firmom lepiej wykorzystywać dane w marketingu online. Integracja tych systemów umożliwia zaawansowaną analizę, precyzyjne segmentowanie użytkowników oraz tworzenie bardziej efektywnych kampanii marketingowych.
Naturalnym krokiem w rozwoju dojrzałości analitycznej jest wykorzystanie Google BigQuery. Po pierwsze, integruje różne źródła danych w jednym miejscu. Po drugie, BigQuery staje się głównym źródłem prawdy w kontekście raportów i procesów BI wykorzystywanych w firmie. Po trzecie, umożliwia wykorzystanie zaawansowanych mechanizmów machine learning do prowadzenia bardziej zaawansowanych analiz. Coraz częściej źródłem danych w tym zakresie jest również Google Analytics.
Google BigQuery to hurtownia danych, która gromadzi w skalowalny sposób bardzo duże ilości danych. Do czasu, gdy korzystaliśmy z Google Analytics 3 (Universal Analytics), integracja i eksport danych analitycznych do Google BigQuery były zarezerwowane wyłącznie dla klientów Google Analytics 360, czyli płatnej wersji Google Analytics. Wraz z wprowadzeniem Google Analytics 4, natywny eksport danych, polegający na integracji obu narzędzi za pomocą kilku kliknięć, stał się jednak bezpłatny i dostępny również dla użytkowników bezpłatnej wersji Google Analytics.
Pojawia się więc pytanie, dlaczego inwestować w Google Analytics 360, skoro jedna z kluczowych funkcji, wcześniej dostępna tylko w płatnej wersji, jest teraz dostępna także w wersji bezpłatnej. Warto jednak zwrócić uwagę na kilka istotnych aspektów, które przemawiają za inwestycją w GA360.
Przede wszystkim, Google Analytics 360 oferuje service level agreement (SLA), dostępny tylko dla właścicieli płatnej wersji narzędzia w kontekście Google BigQuery.
Jednak głównym czynnikiem, który może przekonać do inwestycji w płatną wersję Google Analytics, jest limit miliona zdarzeń, które może przyjąć eksport do Google BigQuery. Dotyczy to danych analitycznych, obejmujących zachowania użytkowników w ramach Twoich produktów cyfrowych, które trafiają do Google BigQuery.
Inwestycja w Google Analytics 360 może więc być uzasadniona, jeśli Twoja firma potrzebuje większej przepustowości danych oraz gwarancji jakości usług oferowanych przez Google. Na pierwszy rzut oka może się wydawać, że jeden milion zdarzeń dziennie to duży zapas. Jednak po przeanalizowaniu kilku przykładów i obliczeń okazuje się, że ten limit można szybko wyczerpać. Po przekroczeniu tego limitu dalsze dane nie będą przetwarzane.
W kontekście podejmowania decyzji na podstawie danych, jest to sytuacja niedopuszczalna, gdyż w pewnym momencie dnia dane przestają być gromadzone właśnie z powodu tego limitu.
i bądź na bieżąco z nowościami ze świata analityki internetowej!
W kierunku przyszłości Google 360 zmierza intensywnie w stronę pełnej integracji z chmurą i AI-napędzanych analiz. Oczekuj szybszych eksportów danych, lepszej obsługi strumieniowej oraz wbudowanego wspierania modeli ML bezpośrednio na zestawach GA360. Nowe wersje będą też bardziej modularne – łatwiej będzie rozszerzać funkcje w zależności od potrzeb.
Jednym z najciekawszych kierunków są narzędzia AI w BigQuery, które pomagają automatycznie generować zapytania SQL lub przygotowywać dane (np. funkcja Gemini dla BigQuery). Ponadto, usprawniane są rurociągi danych (data pipelines), by zmniejszyć opóźnienia i uprościć integracje z innymi systemami marketingowymi.
Zdarzenia w analityce internetowej, szczególnie w Google Analytics 4, to interakcje podejmowane przez użytkowników. Interakcje mogą być automatycznie wywoływane, na przykład zdarzenie zdarzenie scrollowania czy kliknięcie w interaktywny element serwisu.
W podstawowym rozumieniu zdarzenie to każda interakcja, na przykład załadowanie strony (zdarzenie o nazwie Page View) czy kliknięcie w element, w zależności od tego, jak ten element został skonfigurowany.
Liczba zdarzeń, które gromadzi Google Analytics i później eksportuje do Google BigQuery, zależy od dwóch podstawowych czynników. Po pierwsze, zależy od poziomu ruchu. Im więcej użytkowników odwiedza stronę, tym więcej zdarzeń generuje Google Analytics. Drugi czynnik to poziom konfiguracji śledzenia. Im bardziej dokładne śledzenie i im więcej akcji rejestrowanych przez Google Analytics, tym więcej zdarzeń przypada na jednego użytkownika.
Przypomnijmy, że limit bezpłatnej wersji Google Analytics na eksport dzienny wynosi milion zdarzeń. Zakładając, że podczas jednej wizyty użytkownik dokonuje średnio 15 zdarzeń, można to zobrazować jako wizytę na pięciu podstronach, czyli 5 odsłon różnych podstron.
Odsłona może również oznaczać przeładowanie tej samej strony. Na każdej podstronie użytkownik wykonuje średnio trzy różne zdarzenia, takie jak powiększenie zdjęcia, zescrollowanie strony do określonego poziomu czy kliknięcie na element, który nie powoduje przeładowania strony. W sumie daje to średnio 15 zdarzeń na jedną wizytę użytkownika.
Jeśli mamy 67 tysięcy użytkowników dziennie, łatwo zauważyć, że przy takim poziomie aktywności limit zdarzeń zostanie przekroczony. Jeżeli liczba użytkowników przekroczy 67 tysięcy, zostanie przekroczony limit i dalsze zdarzenia nie będą rejestrowane przez Google Analytics. 67 tysięcy użytkowników dziennie to około 2 miliony użytkowników miesięcznie. Największe serwisy w Polsce mogą pochwalić się takim poziomem ruchu.
Jeżeli serwis oprócz wersji desktopowej posiada również aplikację mobilną, zaangażowanie użytkowników w aplikacji jest zazwyczaj wyższe, co oznacza wyższy poziom śledzenia. Oprócz ekranów rejestrowane są także systemowe zdarzenia, takie jak crashe w aplikacji. W przypadku aplikacji, na jedną sesję użytkownika może przypadać około 30 zdarzeń.
W takim wypadku limit zostanie napotkany przy dodatkowych 30 tysiącach użytkowników dziennie, z punktu widzenia samej aplikacji. Łączenie analityki danych z aplikacją i wersją desktopową jest kluczowe, aby obserwować ścieżkę użytkownika pomiędzy różnymi produktami cyfrowymi. Okazuje się, że nasze serwisy czy produkty cyfrowe powinno odwiedzać maksymalnie 50 tysięcy użytkowników dziennie, aby nie przekroczyć limitu miliona zdarzeń, które przyjmuje Google BigQuery.
Może to wydawać się mało prawdopodobne, jednak przykład jednego z naszych klientów – witryny e-commerce, która działa na dziesięciu rynkach w Europie i generuje około 60 milionów przychodu netto miesięcznie – pokazuje, że można napotkać ten limit. W tym przypadku, już osiągnęliśmy limit miliona zdarzeń dziennie, zanim jeszcze przystąpiliśmy do rozszerzenia śledzenia na potrzeby biznesowe.
Inwestycja w płatną wersję Google Analytics, jest decyzją, którą trzeba odpowiednio zabudżetować. Warto prześledzić, jak wygląda liczba zdarzeń w Twoim przypadku. Jeśli jesteś blisko tego limitu, warto rozważyć kroki, aby go nie przekroczyć lub rozpocząć rozmowy o płatnej wersji Google Analytics.
Podsumowując, główną zaletą Google Analytics 360 w kontekście BigQuery jest brak limitu miliona zdarzeń dziennie, co daje większą elastyczność i możliwość skorzystania z pełni możliwości analitycznych. Oczywiście, w ramach licencji na Google BigQuery obecne jest również SLA na eksport danych. Jak pokazałem na większych liczbach, może się okazać, że milion zdarzeń jest już osiągnięty lub bardzo blisko przekroczenia. Możliwe, że nie jesteś świadomy, iż dane powyżej tego miliona zdarzeń, na przykład w pewnym momencie dnia, od godziny 16 lub 17, nie są rejestrowane. Zachęcam do sprawdzenia, czy rzeczywiście tak jest. Jeśli masz pytania dotyczące optymalizacji lub inwestycji w Google Analytics 360, zapraszam do kontaktu na bezpłatną konsultację, gdzie pomożemy odpowiedzieć na te pytania.
The post Google Analytics 360
a Google BigQuery first appeared on Conversion.
Dane, ich zbieranie i właściwa analiza stały się jednym z priorytetów biznesowych większości przedsiębiorstw – szczególnie jeśli prowadzą działalność e-commerce. Świadomość tego, jak klienci do nas trafiają, jak się poruszają po stronie i jak dokonują decyzji o zakupie, pomaga nam w dopasowaniu naszych działań. Dzięki temu oferujemy klientom lepsze doświadczenie i więcej wartości, a oni chętniej u nas kupują.
Z drugiej strony łatwo jest popełnić błąd i naruszyć któreś z praw dotyczących ochrony danych i prywatności użytkownika. Internauci też są coraz bardziej świadomi i chcą móc decydować o tym, kto i jak korzysta z ich danych.
Jak sobie poradzić z tym wyzwaniem dzięki Google Signals? W tym artykule wyjaśnimy bliżej, jak Google Signals rozszerza możliwości analizy ruchu. Znajdziesz tu to, co musisz wiedzieć, żeby zgodnie z prawem zbierać dane użytkowników, oraz jak aktywować Google Signals.
Co znajdziesz w tym artykule?
Google Analytics – jeden użytkownik, kilka ciasteczek
Co to są Google Signals?
Google Signals – korzystanie z kilku urządzeń przestaje być problemem
Google Signals a prywatność i ochrona danych
Do czego przyda Ci się Google Signals?
Jak włączyć Google Signals?
Wolisz oddać ustawienie analityki w ręce specjalistów?
Zaczynajmy!
Kiedy myślimy o analityce internetowej, najważniejszym narzędziem jest bez wątpienia Google Analytics. Przez wiele lat było wystarczające do zbierania wyczerpujących danych i prowadzenia analiz. Teraz jednak, wraz ze wzrostem mobile e-commerce i korzystania z kilku urządzeń przez jednego użytkownika, dane zbierane przez Google Analytics często nie oddają pełnej rzeczywistości.
Problem leży w sposobie zbierania danych przez Google Analytics. Program bazuje na plikach cookies, które są zapisywane w przeglądarce. Z tego względu, jeśli użytkownik wchodził na tę samą stronę nawet z jednego urządzenia, ale korzystając z kilku przeglądarek, nie był traktowany jako jedna osoba. Google Analytics rozpoczynał osobną sesję przy każdej zmianie przeglądarki lub urządzenia i zliczał kilka aktywnych plików cookie (czyli użytkowników).
Jaki jest efekt tych przeszkód? Google Analytics nie był w stanie określić rzeczywistej ścieżki zakupowej, przedstawiając zaburzony obraz. Raporty cross-device były w najlepszym wypadku przybliżone, często jednak nie odpowiadały rzeczywistym działaniom użytkownika. W momencie kiedy zbierane dane nie odwzorowywały rzeczywistych trendów, stawały się bezużyteczne.
Google Signals to funkcja w Google Analytics 4, która zbiera dane sesyjne od użytkowników zalogowanych na konto Google i zezwalających na personalizację reklam. Dzięki niej możliwe jest śledzenie zachowań tych samych osób na różnych urządzeniach, co ułatwia analizę ścieżek zakupowych i remarketing.
Google definiuje Signals jako „dane sesyjne z witryn i aplikacji kojarzone z użytkownikami zalogowanymi na konta Google i mającymi włączoną personalizację reklam”. Dzięki nim GA4 może generować raporty dotyczące demografii i zainteresowań oraz wspierać remarketing między urządzeniami – ale tylko jeśli użytkownik wyraził na to zgodę.
W lipcu 2018 Google zaproponowało nowe rozwiązanie, ułatwiające marketerom analizowanie ruchu i akcji użytkownika, który wykorzystuje różne urządzenia. W dzisiejszym świecie, w którym na co dzień swobodnie przełączamy się między komórką, tabletem i komputerem, taka analiza to konieczność.
Google Signals, podobnie jak Google Analytics 4, odchodzi od traktowania sesji jako podstawowego punktu odniesienia w pomiarach. Skupia się na użytkowniku, pokazując takie informacje jak ścieżka zakupowa czy konwersja. Aby móc zbierać takie dane, użytkownik musi wyrazić zgodę w ustawieniach personalizacji reklam w swoim koncie Google.
W przeciwieństwie do Google Analytics 4, Google Signals nie jest osobnym rozwiązaniem. Po włączeniu tej opcji raporty, które generuje Google Analytics, zostają poszerzone o dane zebrane przez Google Signals.
Dowiedz się więcej o Google Analytics 4 z naszego przewodnika.
Mechanizm stojący za Google Signals porównuje dane zebrane przez stronę z tymi, które zbiera Google dzięki włączonym ustawieniom o personalizacji reklam. Są to takie informacje jak lokalizacja, przeglądarka, urządzenie czy historia wyszukiwań. Jeśli zachowanie użytkownika według danych ze strony pokrywa się z danymi Google, jest on identyfikowany jako ta sama osoba i odpowiednio uwzględniany w raportach.
Prywatność użytkowników i zgodność z obowiązującymi regulacjami prawnymi leży na sercu każdego marketera. Chcemy pracować na danych i znać jak najwięcej szczegółów, jednak nie wchodząc w konflikt z kwestiami prywatności. Mocno powiązane z tym jest też poczucie zaufania do naszego biznesu, które chcemy wzbudzić u naszych klientów.
Biorąc te czynniki pod uwagę, nic dziwnego, że pojawia się pytanie o to, jak Google Signals chroni prywatność użytkownika. Jest to bardzo ważne zagadnienie – przyjrzyjmy się mu bliżej.
Po pierwsze, zbierane dane są anonimizowane i agregowane. Oznacza to, że Google zacznie pokazywać Ci raporty dopiero po zebraniu wystarczającej ilości danych, tak, aby użytkownicy nie mogli być rozpoznani. Z tego względu nie wchodzą w konflikt z RODO.
Google ogranicza też sposoby w jakie możemy wykorzystać dane zbierane dzięki Google Signals — nie możemy ich np. wyeksportować do BigQuery czy wykorzystać w raportach niestandardowych.
Warto też wspomnieć o przechowywaniu danych. Domyślnie Google Signals ma ustawioną najwyższą wartość, czyli 26 miesięcy. Jeśli jednak chcesz przechowywać dane o użytkownikach przez krótszy czas, zawsze możesz to zmienić.
Kiedy wdrażasz Google Signals, w zasadzie nie musisz wprowadzać większych zmian – wystarczy dodać tę usługę do Twojej polityki prywatności.
Jeżeli Twój odbiorca nie wyraził zgody na personalizację reklam, Google nie będzie zbierał o nim danych. Z tego względu dane zbierane przez Twoją stronę nie znajdą swojego odpowiednika, a zachowanie tego użytkownika nie będzie uwzględnione w raportach Google Signals.
W takiej sytuacji nie tracisz wszystkich danych: pojawią się w Google Analytics w takiej formie, jak dotąd. Użytkownik musiałby się nie zgodzić na wykorzystywanie cookies, aby zupełnie nie pojawić się w Twoich raportach.
Porozmawiajmy teraz konkretnie o tym, w czym pomoże Ci Google Signals i jakie ma przełożenie na Twoje działania biznesowe.
Google Signals udostępnia Ci bardziej precyzyjne dane. Rozpoznając użytkowników i dokładnie śledząc ich ścieżkę zakupową, pozwala Ci na zrozumienie ich zachowania. Dzięki temu lepiej określisz, które kanały przynoszą Ci zyski, oraz czego potrzebują Twoi klienci, aby móc podjąć decyzję o zakupie. Możesz stworzyć model atrybucji i pracować w bardziej efektywny sposób.
Określisz tak, które obszary w Twoim e-commerce potrzebują uwagi. Jeśli uzupełnisz dane zbierane przez Google Analytics o ten obszar, otrzymasz pełniejszy obraz ruchu na Twojej stronie. Jeśli chcesz sprawdzić, jak użytkownicy poruszają się między Twoją stroną a aplikacją mobilną, z pewnością zainteresuje Cię Google Analytics 4.
Jeśli w swojej strategii płatnych reklam korzystasz z Google Ads, z pewnością ucieszy Cię możliwość wykorzystania Google Signals w remarketingu. Pozwala na przekroczenie bariery związanej z urządzeniami: reklamy remarketingowe będą wyświetlane na wszystkich urządzeniach, z których korzysta dany użytkownik.
O ile ta funkcja nie jest dostępna dla wszystkich biznesów, to warto przyjrzeć się jej bliżej. Mogą z niej skorzystać sklepy mające wystarczającą liczbę sklepów stacjonarnych oraz danych o użytkownikach, którzy je odwiedzają. Po włączeniu takiej opcji możesz powiązać odwiedziny w witrynie z zakupami w sklepie stacjonarnym. Dowiesz się, ilu użytkowników pojawiło się w Twoim sklepie w ciągu 30 dni od odwiedzenia strony internetowej.
Z raportów dowiesz się między innymi, jakie kanały najbardziej zachęciły do wizyty w sklepie stacjonarnym, jaki był wpływ kampanii reklamowych, oraz czy procent zakupów online i offline różni się między regionami.
Raporty wykorzystujące informacje zebrane przez Google Signals świetnie obrazują ścieżki, jakie najczęściej wybierają klienci. Dzięki temu możesz sprawdzić, jak Twoje założenia pokrywają się z rzeczywistością, oraz oceniać skuteczność wprowadzanych optymalizacji.
Google Signals pomaga Ci dokładnie zmierzyć zachowania użytkowników. Pozwoli Ci to określić, na jakiej grupie warto skupić swoje działania. Dzięki temu lepiej wykorzystasz dostępne zasoby.
Warto też spojrzeć w drugą stronę. Sprawdź, czy masz dużą grupę odwiedzających, która nie dokonuje zakupu lub innych oczekiwanych przez Ciebie akcji. Jeśli tak, możesz przeanalizować, czy komunikujesz swoją wartość w odpowiedni sposób. Pozwoli Ci to uniknąć marnowania zasobów.
Włączenie usługi Google Signals w Twoim Google Analytics jest bardzo proste: wymaga tylko kilku kroków.
Google Signals zbiera dane od momentu aktywacji – analizowanie wcześniejszych danych nie jest możliwe.
Jesteśmy tu dla Ciebie.
W Conversion od ponad 10 lat zajmujemy się wspieraniem klientów w zakresie poprawnego skonfigurowania Google Analytics, raportowania i zaawansowanej analizy danych. Mamy doświadczenie – partnerstwo z Google i ponad 500 projektów wdrożeń na koncie pomaga nam w znalezieniu najlepszego rozwiązania dla Twojego biznesu.
Dzięki temu możemy wspólnie ustalić, które z usług analitycznych Google będą najskuteczniejsze w Twoim biznesie. Zaprojektujemy odpowiednią analitykę, a później będziemy czuwać nad takimi kwestiami, jak wdrożenie tagów na stronę. Zapewnimy także onboarding, tak, żeby Twój zespół od razu mógł działać na nowym projekcie.
Skontaktuj się z nami, opowiedz nam o swoim biznesie, a my powiemy jak możemy Ci pomóc.
The post Google Signals, prywatność danych i ciasteczka – jak to ugryźć? first appeared on Conversion.
Czym jest atrybucja konwersji?
Dlaczego atrybucja konwersji jest ważna?
Wyzwania związane z atrybucją marketingową
Modele atrybucji w marketingu
Jak wybrać najlepszy model atrybucji?
Pobierz poradnik o atrybucji konwersji
Podsumowanie
Atrybucja konwersji to proces przypisywania wartości sprzedaży poszczególnym kanałom marketingowym. W dobie wielokanałowości użytkownicy rzadko dokonują zakupu podczas pierwszej wizyty w serwisie. Różne źródła ruchu po kolei prowadzą go do momentu, w którym decyduje się na transakcję.
Nie jest właściwe przypisywanie całego przychodu tylko ostatniemu źródłu, ponieważ wcześniejsze punkty styku również miały wpływ na decyzję użytkownika. Atrybucja konwersji pozwala lepiej zrozumieć, jak działa marketing mix i jak skuteczniej dystrybuować budżet między kanałami.
Atrybucja konwersji pozwala optymalizować działania marketingowe i uniknąć sytuacji, w której cała uwaga skupiona jest tylko na kanałach z najwyższą konwersją. Często pomijane są źródła, które sprowadzają użytkowników, ale niekoniecznie generują natychmiastowe zakupy.
Bez atrybucji konwersji marketing przypomina ocenianie drużyny piłkarskiej jedynie po jednym zawodniku – nie uwzględniając wszystkich etapów prowadzących do zwycięstwa.
Marketingowa atrybucja boryka się z wieloma trudnościami – od braku spójności między kanałami, przez ograniczenia prywatności, aż po niejasne modele oceny wpływu kampanii. Trudno dostrzec pełną ścieżkę klienta, zwłaszcza gdy działa na wielu urządzeniach lub offline.
Częstym problemem jest fragmentacja danych – informacje są rozproszone pomiędzy różnymi systemami (mailing, CRM, reklamy) i nie są łatwo scalalne. Dodatkowo, restrykcyjne polityki prywatności i ograniczenia przeglądarek (np. blokowanie cookies) sprawiają, że wiele działań użytkownika pozostaje poza zasięgiem narzędzi analitycznych.
Modele atrybucji można podzielić na trzy główne kategorie:
– Single-touch – przypisują 100% konwersji do jednego kanału (np. pierwszy lub ostatni klik).
– Multi-touch – rozdzielają wartość konwersji pomiędzy kilka kanałów, np. model liniowy lub schyłku udziału w czasie.
– Marketing mix modeling – wykorzystuje algorytmy i machine learning do oceny wkładu poszczególnych kanałów w konwersję.
Najlepszy model zależy od specyfiki kampanii i ścieżek użytkowników.
Aby wybrać odpowiedni model atrybucji, należy dokonać analizy kilku kluczowych czynników:
1. Określenie celu konwersji – np. sprzedaży, generowania leadów.
2. Analiza ścieżek użytkownika i interakcji między kanałami.
3. Wdrożenie monitorowania touchpointów, np. za pomocą BigQuery.
4. Testowanie różnych modeli i analiza uzyskanych wyników.
i bądź na bieżąco z nowościami ze świata analityki internetowej!
Atrybucja konwersji to kluczowy element skutecznej analizy danych marketingowych. Pozwala na sprawiedliwy podział wartości konwersji pomiędzy kanały i lepsze dopasowanie strategii budżetowej.
Zachęcam do pobrania naszego poradnika, który pomoże Ci lepiej zrozumieć i wdrożyć modele atrybucji konwersji w Twojej firmie.
The post Atrybucja konwersji w marketingu – przewodnik first appeared on Conversion.
Jeżeli Twój serwis internetowy funkcjonuje w zgodzie z najnowszymi wymaganiami, a co za tym idzie udało Ci się wdrożyć w nim tzw. Consent Mode – z całą pewnością zaczynasz obserwować, że ilość zbieranych przez Ciebie danych nie jest taka sama, jak jeszcze przed wdrożeniem zgód dotyczących cookies. Jeśli nadal zastanawiasz się, co jest powodem takiej rozbieżności – odpowiedź znajdziesz w tym artykule.
Musisz wiedzieć, że odpowiadają za to właśnie ciasteczka, a mówiąc konkretniej – fakt, iż część użytkowników nie wyraża zgody na ich użycie. W ten sposób dane na temat ich aktywności na Twojej stronie nie są agregowane, nie można ich przypisać do konkretnych odwiedzających, a co za tym idzie – wykorzystać w celu poprawy konwersji, optymalizacji serwisu, jak i w wielu innych aspektach.
Ale czy od teraz wszyscy właściciele stron internetowych muszą pogodzić się z częściową utratą danych? A może da się “coś” z tym zrobić, aby nadal otrzymywać informacje na temat ruchu, jak i zachowania w serwisie www? O tym przeczytasz w dalszej części wpisu. Poznaj definicję, zastosowanie oraz zalety behawioralnego modelowania danych za pośrednictwem Google Analytics 4.
Co znajdziesz w tym artykule?
Czym jest modelowanie behawioralne?
Modeled data vs observed data. Czym różnią się te dwa podejścia do gromadzenia danych?
Korzyści wynikające z tego podejścia. Dlaczego warto korzystać z tzw. behavioral modelingu?
Behawioralne modelowanie danych – jak z niego korzystać za pomocą Google Analytics 4?
Wymagania techniczne – o co zadbać, aby korzystać z pełnych możliwości behawioralnego modelowania danych w GA4?
Ograniczenia, czyli jakie funkcje nie są obecnie obsługiwane?
Przyszłość danych behawioralnych
Szukasz profesjonalnego wsparcia we wdrożeniu Consent Mode i konfiguracji Google Analytics 4?
Behavioral modeling stanowi swego rodzaju odpowiedź na utratę części cennych informacji o użytkownikach stron internetowych. W czasie, gdy zachowania osób, które wyrażą zgodę na cookies, mogą być przypisywane do konkretnych ID, w przypadku użytkowników bez takich zgód – GA4 zaprzęga do tego działania sztuczną inteligencję. Analytics wykorzystuje m.in. machine learning, modele i wiele innych rozwiązań.
Można więc powiedzieć, że behawioralne modelowanie danych to sposób, który polega na oszacowaniu prawdopodobieństwa pojawienia się konkretnych aktywności (określanych na podstawie danych historycznych, jak i informacji na temat użytkowników, którzy wyrażają zgody).
Oczywiście, uzyskane w ten sposób informacje (modeled) nie są tak dokładne, jak tradycyjne (observed). Jednak z całą pewnością można stwierdzić, że stanowią lepszą alternatywę, niż brak jakichkolwiek danych. W tym miejscu warto także zaznaczyć, że takie podejście do modelowania danych dla Consent Mode po raz pierwszy zostało wdrożone w Google Ads. Jego wykorzystanie w Google Analytics 4 znajduje się na razie w fazie beta.
Aby jeszcze lepiej zobrazować działanie modelowania danych behawioralnych – pozwól, że zobrazuję Ci różnice zachodzące między pozyskiwanymi przez GA4 informacjami.
Można więc powiedzieć, że dane rzeczywiste są stosunkowo dokładne, natomiast dane modelowe – jedynie szacunkowe.
Jak już wspomniałem – dostęp do “jakichkolwiek” danych jest zawsze lepszy niż całkowity brak informacji o Twoich odbiorcach. Dlatego ogromną zaletę takiego rozwiązania stanowi sam fakt, iż Google Analytics 4 daje możliwość agregowania danych, które bez zastosowania modelowania behawioralnego po prostu by nie istniały.
Kolejnym ważnym punktem jest to, że wykorzystuje do tego sztuczną inteligencję (opierającą się na uczeniu maszynowym, gromadzeniu danych, jak i dobranych modelach). Ten czynnik z kolei sprawia, że tak pozyskiwane informacje są stosunkowo dokładne, a co za tym idzie – mogą stanowić solidny fundament do podejmowania trafnych decyzji (analitycznych, marketingowych, jak i biznesowych).
Skoro już wiesz, na czym polega modelowanie behawioralne, znasz różnice pomiędzy nim a danymi rzeczywistymi, a dodatkowo udało Ci się zapoznać z kluczowymi zaletami takiego podejścia – pora opowiedzieć sobie nieco więcej o jego aspektach technicznych.
W tym miejscu muszę wspomnieć, że GA4 automatycznie integruje wszystkie dane (zarówno modelowane, jak i rzeczywiste). Jak można wyczytać na stronie wsparcia Google Analytics: fakt, że narzędzie uwzględnia dane modelowe, można poznać m.in. po różnicach występujących w raportach uwzględniających tylko dane rzeczywiste.
Jeżeli chcesz zyskać dostęp do możliwości zarządzania modelowaniem behawioralnym – wystarczy, że udasz się do sekcji Tożsamość na potrzeby raportowania, którą znajdziesz w usługach w panelu Administracja.
Aby uruchomić, a następnie korzystać z funkcjonalności, jakie daje to modelowanie, należy spełnić kilka kluczowych wymagań.
Najważniejszym z nich jest oczywiście wdrożenie trybu Consent Mode, który zezwala na uzyskanie zgód od użytkowników odwiedzających Twoją witrynę. Należy pamiętać, że ten tryb powinien być aktywny na wszystkich podstronach, a same tagi powinny się wczytywać przed pojawieniem się okna z informacjami i prośbami o wyrażenie zgody.
Kolejnym istotnym punktem jest ilość agregowanych informacji. Aby modelowanie mogło działać – potrzebuje tzw. treningu, czyli dostępu do danych, w tym:
Pomimo wielu niekwestionowanych atutów, takie podejście do gromadzenia i prezentacji informacji, niestety musi się wiązać także z pewnymi barierami, które w pewien sposób ograniczają jego możliwości.
W związku z powyższym, nie można go użyć do danych pochodzących z takich miejsc, jak: Odbiorcy, Segmenty, Dane prognozowane, Eksploracje i Eksportowanie danych. Modelowanie behawioralne nie znajduje również zastosowania w raportach oraz kartach, które prezentują dane w czasie rzeczywistym.
Warto pamiętać, że obecna wersja behawioralnego modelowania danych w Google Analytics 4 cały czas jest w fazie testów. To oznacza, że prace nad optymalizacją, rozbudową, a co za tym idzie – podnoszeniem efektywności, trwają. Być może dotychczasowe rozwiązanie stanowi jedynie zalążek narzędzia, które pozwoli zbierać i analizować dane o odbiorcach z dużo większą dokładnością. Ale jak naprawdę będzie? Czas pokaże.
W nadchodzących latach dane behawioralne staną się jeszcze głębsze i bardziej kontekstowe. Będziemy coraz częściej łączyć informacje z urządzeń IoT, sensorów mobilnych i sygnałów pasywnych (takich jak czas ekranu, wzorzec użytkowania) z tradycyjnym ruchem online. W efekcie powstaną modele, które reagują w czasie rzeczywistym i coraz lepiej przewidują zachowania oraz potrzeby użytkownika.
Przyszłość analizy behawioralnej to m.in. augmented analytics – czyli wykorzystanie AI i NLP, by automatycznie wydobywać wnioski bez potrzeby ręcznej analizy.
Również modelowanie predykcyjne (machine learning) będzie standardem – przewidywanie porzucenia, zakupów czy segmentów użytkowników na podstawie wzorców. Ponadto “digital phenotyping” – analiza pasywna z urządzeń – umożliwi uchwycenie codziennych zachowań offline i powiązanie ich z interakcjami online.
Skontaktuj się z ekspertami Conversion, a z przyjemnością pokażemy Ci jak w Twoim przypadku wykorzystać wszystkie możliwości, jakie oferuje behawioralne modelowanie danych w GA4. W ramach naszych usług zapewnimy Ci kompleksową pomoc w przygotowaniu oraz wdrożeniu narzędzi, a także będziemy do Twojej dyspozycji, aby zająć się ich obsługą czy udzielać Ci dodatkowych rad i szkoleń.
Jeśli chcesz być na bieżąco ze światem analityki internetowej, już teraz zapisz się do naszego newslettera!
The post Behavioral Modeling – czym jest i jak działa behawioralne modelowanie danych w GA4? first appeared on Conversion.
Wyzwania w zarządzaniu danymi w e-commerce
Dlaczego warto ufać danym?
Dokładność i trafność danych – klucz do jakości
Jak budować zaufanie do danych w organizacji?
Single Source of Truth i model danych
Kultura pracy z danymi (Data Literacy)
Podsumowanie
Firmy e-commerce najczęściej stają przed trzema głównymi wyzwaniami związanymi z danymi. Pierwszym problemem jest silosowość danych. Różne działy w firmie mają odmienne informacje na temat tego samego zjawiska. Marketing dysponuje innymi danymi niż sprzedaż, dział produktu, logistyka czy finanse. Chociaż wszystkie te działy opisują tego samego użytkownika – osobę, która pojawia się w działaniach marketingowych, następnie korzysta z produktu, dokonuje zakupu (co rejestruje sprzedaż), staje się widoczna w logistyce, a finalnie trafia do finansów jako klient – ich perspektywy i dane często się różnią.
Drugim wyzwaniem, szczególnie widocznym w e-commerce, jest przeładowanie danymi. Każdy z wymienionych działów nie tylko bazuje na odmiennych danych, ale również gromadzi ich bardzo dużo. Współczesny świat marketingu oferuje szeroki wybór narzędzi, z których każde generuje własne dane. W każdej dziedzinie powstaje ogromna ilość informacji, które mogą wspierać rozwój biznesu i usprawniać jego funkcjonowanie. Jednak nadmiar danych sprawia, że firmy często mają trudności z wyborem tych najważniejszych.
Kolejnym wyzwaniem jest zasada „Garbage In, Garbage Out”. Nawet jeśli korzystamy z wielu narzędzi, nieprawidłowa konfiguracja lub niedopatrzenia sprawiają, że zbierane dane są niskiej jakości. Opieranie decyzji biznesowych na nieprecyzyjnych danych prowadzi do błędnych wniosków, hipotez i rekomendacji.
Warto zadać sobie pytania: którym danym można zaufać, a które należy traktować z rezerwą? Jakie dane są kluczowe dla firmy?
Pewne są tylko dwie rzeczy: śmierć i podatki. Analizując podatki, można zauważyć, że aby je zapłacić, konieczne jest złożenie sprawozdania finansowego. To pokazuje, jak duże znaczenie mają rzetelne, wiarygodne dane w procesach biznesowych. Aby przygotować sprawozdanie finansowe, księgowość musi zebrać dane ze sprzedaży i logistyki. Otrzymuje informacje na podstawie wystawionych oraz skorygowanych faktur. Faktury powstają dzięki temu, że systemy produktów cyfrowych – szczególnie w e-commerce – umożliwiają sprzedaż produktów fizycznych lub usług.
Aby doszło do sprzedaży, użytkownik musi skorzystać z produktu cyfrowego, na przykład sklepu internetowego lub aplikacji mobilnej. By użytkownik znalazł się w tym produkcie cyfrowym, właściciele e-commerce muszą pozyskać go poprzez działania marketingowe.
Warto rozważyć, którym danym możemy zaufać poza księgowością, zwłaszcza w kontekście podejmowania decyzji biznesowych. Logistyka, dział produktu, sprzedaż i marketing mają dostęp do dużej ilości danych i potrzebują pewności, że mogą na nich polegać podczas podejmowania decyzji operacyjnych.
Przy ocenie jakości danych kluczowe są dwa pojęcia: dokładność i trafność. To one decydują, czy dane są wartościowe i przydatne w procesie decyzyjnym. Dane dokładne pokazują to samo, co główne źródło prawdy, na przykład sprawozdanie finansowe. Przykładowo, KPI, takie jak sprzedaż w e-commerce, powinny odzwierciedlać te same wartości, co wyniki na podstawie wystawionych faktur. Jednak w praktyce rzadko występuje pełna zgodność. Wynika to z ograniczeń technologicznych. Ważniejsze jest, aby dane były trafne i odzwierciedlały te same trendy. Koncepcja wysokiej jakości danych ma kluczowe znaczenie w analityce internetowej. Dane wysokiej jakości oznaczają zarówno dokładność, jak i trafność informacji, które wykorzystujemy do podejmowania decyzji w obszarze marketingu, sprzedaży czy rozwoju produktu. W praktyce decyzje operacyjne opieramy na danych, które są dostępne w naszych systemach, a niekoniecznie na tzw. pierwszym źródle prawdy.
Z perspektywy analityki online mniej istotne jest, by KPI w pełni odpowiadały temu pierwszemu źródłu prawdy. Praca z technologią sprawia, że rzadko występuje pełna zgodność między różnymi zbiorami danych. Najważniejsze, aby trendy widoczne w naszych systemach pokrywały się z trendami z pierwszego źródła prawdy. Jeśli działania prowadzą do wzrostu KPI w naszych narzędziach, a trendy są zgodne, można oczekiwać podobnego wzrostu w głównym zbiorze danych.
Podsumowując, najważniejsze jest zaufanie do danych, które są rzetelne i pozwalają obserwować zgodność trendów. Jeśli dane są trafne, można na ich podstawie podejmować decyzje biznesowe z przekonaniem, że prowadzą do pożądanych efektów.
i bądź na bieżąco z nowościami ze świata analityki internetowej!
Wielu specjalistów i zespołów zastanawia się, którym danym warto zaufać, a które lepiej traktować z dystansem. Jak rozmawiać o tym w organizacji i jak budować zaufanie do danych? Istnieją trzy kluczowe kroki, które pozwalają organizacji realnie opierać się na danych i wykorzystywać je w podejmowaniu decyzji.
Pierwszym krokiem jest stworzenie jednego, spójnego źródła prawdy (single source of truth). Warto podkreślić, że nie należy mylić tego pojęcia z pierwszym źródłem prawdy, jakim jest na przykład sprawozdanie finansowe. Sprawozdania finansowe są wyznacznikiem tego, ile firma płaci podatków i jak radzi sobie pod względem finansowym. W kontekście analityki online chodzi natomiast o zbudowanie wiarygodnego, centralnego źródła danych, na którym można oprzeć działania całej organizacji. W jednym z wcześniejszych wpisów omówiono temat hurtowni danych w marketingu, przedstawiając trzy powody, dla których warto się nim zainteresować. Szczegółowo wyjaśniono tam koncepcję budowania tzw. single source of truth, czyli jednego, spójnego źródła prawdy biznesowej w e-commerce.
Kolejnym krokiem, który pozwala organizacji określić, którym danym można ufać, jest wdrożenie modelu danych. Single source of truth umożliwia zebranie i ujednolicenie wszystkich danych dotyczących biznesu. Model danych porządkuje te informacje, nadaje im jasną definicję i strukturę, zrozumiałą dla wszystkich użytkowników, którzy jednocześnie mają do nich dostęp.
Trzeci istotny element to szerzenie kultury pracy z danymi w organizacji. Kluczowe jest, aby wszyscy pracowali na tych samych danych i jednakowo rozumieli ich definicje oraz zawartość. W tym kontekście pojawia się koncepcja Data Literacy, czyli umiejętności pracy z danymi. Ten temat został szerzej opisany w jednym z odcinków podcastu Date with Data Talks, gdzie wyjaśniono znaczenie Data Literacy.
Aby firma mogła efektywnie wykorzystywać dane, musi najpierw wiedzieć, którym informacjom zaufać. Służą temu dwa pierwsze kroki: stworzenie jednego źródła prawdy oraz wdrożenie spójnego modelu danych. Kolejnym etapem jest rozwijanie kompetencji w zakresie pracy z danymi w całej organizacji.
Podsumowując, odpowiedź na pytanie, którym danym w organizacji można ufać, opiera się na trzech kryteriach:
1. Stworzenie jednego, spójnego źródła danych (single source of truth).
2. Wdrożenie modelu danych, który porządkuje i definiuje dane.
3. Budowanie świadomości i kompetencji związanych z pracą na danych wśród pracowników (Data Literacy). Zaufanie do danych opiera się na trzech kluczowych kryteriach. Po pierwsze, dane powinny być zgodne z głównym źródłem prawdy i odzwierciedlać te same trendy. Po drugie, istotna jest integracja i wzajemne uzupełnianie się danych, co umożliwia budowę jednego spójnego źródła informacji. Trzecim warunkiem jest dostępność i zrozumiałość danych dla wszystkich członków organizacji.
Spełnienie tych trzech warunków pozwala korzystać z danych z pełnym zaufaniem. Gdy w firmie pojawi się pytanie, którym danym można wierzyć, warto odwołać się właśnie do tych kryteriów i zadbać o ich realizację.
The post Którym danym w e-commerce możesz wierzyć? first appeared on Conversion.
Powolne, aczkolwiek sukcesywne eliminowanie ciasteczek z wiodących przeglądarek internetowych (m.in. Safari, Firefox, czy nieco mniej popularnej – Brave). Do tego ciągle zmieniające się (a raczej stale zaostrzane) przepisy oraz regulacje prawne związane z ochroną prywatności samych użytkowników sieci. Czy to wszystko oznacza, że czas popularnych cookies przemija i już wkrótce firmy, instytucje oraz agencje reklamowe będą musiały nauczyć się żyć bez nich?
Dowiedz się, co oraz w jaki sposób robią zarówno właściciele przeglądarek, jak i regulatorzy, aby już teraz ograniczać powszechne użycie cookiesów. Poznaj główne powody takich działań, a przede wszystkim – zobacz, jak przygotować się na ciasteczkową rewolucję, która jest coraz bliżej i nieuchronnie pozbawi nas dostępu do użytecznych informacji.
Co znajdziesz w tym artykule?
Czołowe przeglądarki internetowe bez cookies?
Cookieless 2025: hybrydowe podejście po decyzji Google o pozostawieniu third-party cookies
A co z rozwiązaniem, z którego korzysta zdecydowana większość internautów z całego świata?
Dlaczego regulatorzy nie lubią ciasteczek? Powody eliminowania cookies z powszechnego użytku.
Brak cookies a marketing. Co na to wszystko branża reklamowa?
Podsumowanie, czyli jak przygotować się na cookieless future, czyli przyszłość pozbawioną ciasteczek?
Jak wspomniałem na samym początku tego wpisu – rezygnacja z wykorzystywania tzw. 3rd party cookies dzieje się już na naszych oczach. Procesy te, choć na ten moment dotyczące maksymalnie kilkunastu procent użytkowników sieci, można zaobserwować w działaniach wybranych przeglądarek:
Po lipcowej decyzji Google marketerzy muszą działać hybrydowo: korzystać z cookies tam, gdzie to zgodne z prawem, i równolegle wdrażać Privacy Sandbox (Topics, Protected Audience) oraz rozwijać dane 1st-party. Postępy nadzoruje brytyjskie CMA, a Google publikuje kwartalne raporty.
Takie same lub zbliżone działania planuje również jedna z najpopularniejszych przeglądarek internetowych, czyli należąca do giganta technologicznego z USA – Google Chrome. Pierwotnie zmiany odnośnie ciasteczek miały zostać przez nią wdrożone już w 2021 roku, aby następnie przełożyć je na rok 2023. Jednak już teraz dochodzą nas słuchy, że może się to nie udać, a sama data również zostanie przesunięta. W związku z tym, finalne “rozprawienie się” z ciasteczkami przez popularnego chroma nastąpi prawdopodobnie w roku 2024.
Aczkolwiek, bez względu na to, czy zostało nam jeszcze kilkanaście miesięcy, czy też kilka lat – biorąc pod uwagę, jak duży udział* posiada Google Chrome – warto się do tego przygotować już teraz.
* Tylko w Europie z Google Chrome korzysta blisko 60% wszystkich użytkowników sieci! W Północnej Ameryce jest to ponad 52%, w Oceanii prawie 56%, a z kolei Afryce oraz Azji odpowiednio – 70% i aż 74%.
Powiedziałem już sporo na temat nadchodzących zmian, ale nie wspomniałem o jednej jakże ważnej kwestii, czyli powodach, dla których w przyszłości cookiesy mają zniknąć z powszechnego użytku.
Jeżeli uważasz, że działania firm technologicznych są kierowane głównie dbałością o interes oraz bezpieczeństwo danych samych użytkowników – mogę tylko pogratulować i pozazdrościć takiego optymizmu . Niestety, w praktyce głównym czynnikiem, dla którego wyżej wspomniane przeglądarki zdecydowały się na takie kroki, są oczywiście zmiany szykowane przez same instytucje rządowe.
Z pewnością udało Ci się spotkać z tak “gorącym” pojęciem, jak GDPR (w Polsce znanym bardziej jako RODO), a także jego amerykańskim odpowiednikiem, czyli CCPA. W międzyczasie “wszedł w życie” również dokument o nazwie ePR (ePrivacy Regulation), którego zadaniem było doprecyzowanie oraz rozszerzenie niektórych wymogów.
Tematyka związana z tymi przepisami to materiał na jeden, a nawet kilka osobnych artykuł. Dlatego pozwól, że dzisiaj daruję Ci taką lekturę i tylko w skrócie wspomnę, jakie mają zadanie.
Mianowicie, w teorii celem zarówno europejskich, jak i amerykańskich przepisów, jest zapewnienie skutecznej ochrony użytkowników sieci. Ochronę tę można rozumieć jako zagwarantowanie większej poufności i prywatności, a przede wszystkim – przeciwdziałanie gromadzeniu informacji pozwalających na identyfikowanie konkretnych osób (w tym danych osobowych, tych związanych z ich zachowaniem w Internecie itp.).
i bądź na bieżąco z nowościami ze świata analityki internetowej!
Nie ma co ukrywać – ciasteczka 3rd party stanowią jeden z solidnych fundamentów szeroko pojętej branży reklamowej, które pozwalają na dostarczanie dopasowanych i dobrze spersonalizowanych komunikatów marketingowych. W końcu z ich możliwości korzystają wszystkie największe firmy technologiczne, na czele z takimi markami, jak: Google, Facebook oraz Microsoft.
Gdy przyszłość bez cookies stanie się faktem, a co za tym idzie – nastąpi usunięcie personalizacji dostępnej z poziomu ciasteczek – powstanie swego rodzaju “lawina”, która podzieli użytkowników sieci na dwie grupy:
Regulacje prawne oraz techniczne blokowanie ciasteczek stanowią również doskonały pretekst dla firm technologicznych, aby te wdrażały i udostępniały nowe usługi pozwalające na przekazywanie danych o użytkownikach. W tej materii mam na myśli głównie te, które nie tylko gromadzą dane przeznaczone pod segmentację, ale przede wszystkim – przerzucają obowiązek uzyskania zgody bezpośrednio na reklamodawcę.
Modelowymi przykładami takich praktyk są, chociażby opcje: Enhanced Conversions od Google’a oraz Offline Conversions oferowane przez Facebooka.
Jedno jest pewne. Nawet jeśli termin ostatecznego “rozprawienia” się z cookiesami przez przeglądarki, systemy reklamowe aż wreszcie – samych regulatorów, jest stale przesuwany w czasie – świat bez ciasteczek 3rd party z pewnością kiedyś nadejdzie. Jestem przekonany, że jeśli nie spowodują tego same przepisy prawa, swoistym “gwoździem do trumny” okażą się interesy samych firm reklamowych, które będą dążyły do budowy tzw. walled gardens.
W związku z tym, aby nie zacząć działać, gdy de facto będzie już za późno – już teraz warto się pochylić nad tą kwestią i zacząć budować rozwiązania technologiczne oparte o własne zasoby, integrując się dopiero z poszczególnymi systemami mediowymi.
Weź pod uwagę, że całkowita rezygnacja z 3rd cookies może być ciosem, po którym Twoja firma już nigdy się nie podniesie. Jednak z drugiej strony pamiętaj, że przygotowanie się do tego stanowi niebywałą szansę na jej przyspieszony rozwój, zajęcie czołowego miejsca, a co za tym idzie – uzyskanie sporej przewagi nad konkurentami, którzy postanowią zbagatelizować nadchodzącą rewolucję.
Jeżeli chcesz zyskać “palmę pierwszeństwa” albo przynajmniej zminimalizować ryzyko niepowodzenia – nie zwlekaj. Nasi eksperci z przyjemnością pokażą Ci jak w Twoim przypadku zaplanować, a następnie wdrożyć rozwiązania, które pozwolą Ci na skuteczne działanie oraz sukcesywny rozwój Twojej firmy. I to nawet wówczas, gdy z Twojego arsenału znikną tradycyjne ciasteczka!
Skontaktuj się z nami już teraz, aby dowiedzieć się więcej, porozmawiać o potencjalnej współpracy, a także poznać szerokie możliwości, z których możesz skorzystać – Ty, jak i Twój biznes.
A jeśli chcesz przygotować się na wszystkie nadchodzące zmiany w świecie analityki internetowej, to koniecznie sprawdź wpis na naszym blogu mówiący o tym jak zaimplementować Google Analytics 4 w 3 prostych krokach!
The post Cookieless future: przygotuj się na nadchodzące zmiany first appeared on Conversion.
Rozszerzone konwersje – ich wdrożenie to krok w kierunku bardziej precyzyjnego i efektywnego marketingu. Dzięki tej funkcji możliwe jest lepsze zrozumienie zachowań użytkowników i optymalizacja działań marketingowych, co przekłada się na lepsze wyniki biznesowe. Czym są rozszerzone konwersje i jak je wykorzystać? O tym w dzisiejszym artykule.
Rozszerzone konwersje – czym są?
Jak działają konwersje rozszerzone?
Rozszerzone konwersje – rodzaje
Rozszerzone konwersje – korzyści
Jak wdrożyć rozszerzone konwersje?
Podsumowanie
Rozszerzone konwersje (Enhanced Conversions) jest to funkcjonalność w ramach ekosystemu reklamowego Google. Analogiczne rozwiązanie oferuje także Facebook. Nazywa się ona Facebook Conversion API (CAPI). W przypadku Google mamy Enhanced Conversions. Działa to w ten sposób, że gdy użytkownik widzi reklamę i z dużym prawdopodobieństwem jest zalogowany do konta Google, Gmaila lub innego narzędzia z ekosystemu Google, Google może dokładnie przypisać ekspozycję na reklamę do konkretnego użytkownika.
Jeśli użytkownik kliknie w reklamę i wejdzie do serwisu e-commerce, zacznie poruszać się po stronie, a na koniec dokona transakcji, Google otrzyma rozszerzoną konwersję. Wysyłając zahashowany adres e-mail, Google posiada dwie informacje – maile, które miały ekspozycję na konkretną reklamę, oraz maile, które skonwertowały, pozwalają połączyć i uzupełnić dane na temat konwersji. Rozszerzone konwersje pomagają przypisać prawidłowo kredyt, czyli zasługę za konwersję, konkretnie transakcje do ekspozycji na tę reklamę.
Rozszerzone konwersje jest to więc funkcja, która pozwala na dokładniejsze śledzenie i raportowanie konwersji. Dzięki niej możliwe jest lepsze zrozumienie, które działania marketingowe przynoszą najlepsze rezultaty.
Konwersje rozszerzone to mechanizm, w którym tag śledzenia zbiera dane pierwszej strony (np. e-mail, telefon), następnie je “haszuje” (algorytmem SHA-256) i przesyła w takiej postaci do Google.
Tam Google próbuje dopasować ten zaszyfrowany identyfikator do zalogowanych kont Google, co pozwala odzyskać konwersje, które normalnie mogłyby zostać “zagubione” w warunkach blokowania ciasteczek.
W praktyce implementacja korzysta z kilku narzędzi: Google Tag Manager (do zbierania i przekazywania zmiennych użytkownika), Google Tag (gtag.js) albo bezpośrednio Google Ads API dla bardziej zaawansowanych integracji.
Dane użytkownika (e-mail, numer telefonu itp.) muszą być przetwarzane lokalnie (w przeglądarce lub na serwerze), następnie zahaszowane i przesłane w bezpieczny sposób – co wymaga wsparcia dla operacji kryptograficznych i zgodności z politykami prywatności.
Rozszerzone konwersje dzielą się na dwa rodzaje. Pierwszy z nich to enhanced conversions dla e-commerce. W tym przypadku, razem z transakcją wysyłana jest dodatkowa, zakodowana informacja o użytkowniku. Podobnie jak wysyłamy konwersję do reklam, tutaj również przesyłamy dodatkową paczkę danych, zahashowanych z personalnymi informacjami o użytkowniku.
Drugim rodzajem są enhanced conversions for leads. Wysyłamy wtedy informację o tym, że ktoś skonwertował na stronie. Dodatkowo, gdy ta osoba, czyli lead, potencjalny klient, skonwertuje w biznesie realnym, przesyłamy te dane dalej. Leady to tylko potencjalne kontakty, dlatego ważne jest monitorowanie ich dalszej konwersji. W momencie, gdy skonwertujemy i uzupełnimy w systemach reklamowych informację o tej konwersji, system reklamowy zyskuje pełną informację na temat efektywności reklamy, która sprowadziła użytkownika do serwisu.
i bądź na bieżąco z nowościami ze świata analityki internetowej!
Według naszych obserwacji oraz danych podawanych przez Google, większe efekty rozszerzonych konwersji dotyczą reklam video. Najczęściej oglądamy je na innym urządzeniu, co może sprawiać pewne problemy przy odpowiednim przypisaniu konwersji. Jednak dzięki wykorzystaniu rozszerzonych konwersji, w przypadku reklam video możemy uzyskać aż 17% lepiej przypisanych do reklam konwersji. Pamiętajmy jednak – nie oznacza to jednak większej liczby konwersji, ale lepsze przypisanie tych już istniejących.
Oznacza to, że jeśli użytkownik widział reklamę video, a następnie dokonał konwersji na stronie internetowej e-commerce, to taka konwersja jest właściwie przypisana. Mamy 17% większą pewność, że konwersja jest faktycznie przypisana do ekspozycji na reklamę. W przypadku reklam tekstowych Google Ads jest to około 5%. Oczywiście, wyniki różnią się w zależności od przypadku.
Rozszerzone konwersje pozwalają więc na dokładniejsze śledzenie i raportowanie działań marketingowych. Dzięki temu możliwe jest lepsze zrozumienie, które kampanie przynoszą najlepsze rezultaty, co pozwala na bardziej efektywne wykorzystanie budżetu marketingowego. Ponadto, rozszerzone konwersje umożliwiają lepszą optymalizację kampanii reklamowych, co może prowadzić do zwiększenia liczby konwersji i poprawy ROI.
Jeśli chodzi o samo wdrożenie, należy przede wszystkim uwzględnić odpowiednie informacje w polityce prywatności. Podczas składania zamówienia lub wysyłania zapytania przez formularz, będziemy wysyłać zahashowane dane użytkownika. Użytkownik musi zgodzić się na wysyłkę dodatkowej paczki informacji o sobie. Następnie konieczna jest odpowiednia konfiguracja w Google Tag Managerze, aby wraz z konwersją wysyłać również zahashowane dane, choć sam proces haszowania odbywa się po stronie Google. Na koniec należy skonfigurować kampanię. Musimy zaznaczyć, że chcemy, aby ta kampania wykorzystywała rozszerzone konwersje.
Jak więc wdrożyć rozszerzone konwersje krok po kroku?
Upewnij się, że masz zainstalowany Google Tag Manager na swojej stronie. To narzędzie pozwala na łatwe zarządzanie tagami i śledzenie konwersji.
Dodaj tag śledzenia konwersji Google Ads w Google Tag Manager. Upewnij się, że tag jest poprawnie skonfigurowany i aktywny.
Skonfiguruj zbieranie danych takich jak e-maile, numery telefonów czy adresy zamieszkania. Dane te powinny być przesyłane do Google w sposób zaszyfrowany.
Przetestuj konfigurację, aby upewnić się, że dane są prawidłowo zbierane i przesyłane. Możesz skorzystać z narzędzi diagnostycznych w Google Tag Manager, aby zweryfikować poprawność ustawień.
Po wdrożeniu rozszerzonych konwersji, regularnie monitoruj wyniki w Google Analytics i Google Ads. Analizuj dane, aby optymalizować swoje kampanie marketingowe.
Dzięki rozszerzonym konwersjom (Enhanced Conversions) możliwe jest lepsze przypisanie ekspozycji na reklamy do konkretnych użytkowników poprzez przesyłanie zahashowanych danych, co prowadzi do lepszej optymalizacji kampanii i poprawy wyników biznesowych. Rozszerzone konwersje są dostępne zarówno dla e-commerce, jak i dla serwisów leadowych, umożliwiając bardziej precyzyjne monitorowanie skuteczności reklam i efektywne wykorzystanie budżetów marketingowych.
Jeśli masz wyzwania związane z Enhanced Conversions czy jakością zbieranych danych czy, zapraszamy do bezpłatnej konsultacji, podczas której omówimy te kwestie i ocenimy jak jesteśmy w stanie pomóc.
The post Rozszerzone konwersje (Enhanced Conversions) – czym są? first appeared on Conversion.
Obecnie na rynku dostępne są dziesiątki lub nawet setki narzędzi służących do gromadzenia danych z kanału online. Ich stosunkowo prosta implementacja, która została znacząco ułatwiona dzięki wykorzystaniu podejścia SaaS (Software-as-a-Service) oraz kodów JavaScript, przekłada się na ich powszechne wykorzystanie. Większość podmiotów obecnych na polskiej scenie e-commerce ma więc wdrożoną przynajmniej podstawową instalację Google Analytics oraz korzysta doraźnie z kilku dodatkowych narzędzi do badań jakościowych (np. ankiet).
Dlaczego w takim razie tak niewiele firm odnosi sukces dzięki analityce internetowej? Wynika to w dużej mierze ze złego rozumienia pojęcia analizy i mylenia go z gromadzeniem i raportowaniem danych, a co za tym idzie nieefektywnej alokacji pieniędzy i zasobów.
Co znajdziesz w tym artykule?
Nieefektywna alokacja zasobów
Analiza danych w raportowaniu
Definicje
Raportujesz czy analizujesz?
Nieefektywna alokacja zasobów
Aktualnie obserwujemy w firmach silne skupienie wokół gromadzenia i raportowania dużych ilości danych, podczas gdy główne korzyści, które osiągamy z analityki internetowej płyną z przeprowadzanych później analiz. W mojej opinii sytuacja ta wynika z przestarzałego przekonania, że „kto ma dane ma przewagę”. Biorąc pod uwagę łatwość dostępu oraz bardzo szeroki zakres danych płynących z kanału online, w porównaniu do specyfiki prowadzonych w przeszłości biznesów, samo ich posiadanie nie stawia nas w uprzywilejowanej pozycji względem konkurencji. Dopiero odpowiednia analiza, wyciągnięcie wniosków, przygotowanie rekomendacji, a w końcu wprowadzanie i ocena zmian na podstawie danych pozwala na ciągłe poprawianie efektywności prowadzonych działań i osiąganie celów biznesowych. To właśnie za to chcą płacić managerowie – za lepsze wyniki przekładające się na wzrost zysku, czy to poprzez wzrost przychodów, czy przez ograniczenie kosztów. Nie zaś za dodatkową tabelę ze statystykami.
Niekorzystna sytuacja, kiedy bardziej pracochłonne raportowanie zajmuje większość zasobów, przez co niemożliwe jest osiąganie wymiernych korzyści płynących z analizy.
Analiza danych w kontekście raportów to znacznie więcej niż zestawienie liczb – to nadanie im sensu, wskazanie wzorców i rekomendacji. Dzięki dobrze dobranym analizom raport staje się narzędziem wspierającym decyzje, pokazując, co działa, co wymaga korekty, oraz gdzie warto skierować zasoby w przyszłości.
Bez analizy dane są surowe i trudne do interpretacji. To dzięki niej wyniki stają się zrozumiałe – możemy zidentyfikować trendy, anomalie i relacje między wskaźnikami. Dobry raport mówi: „to tutaj warto działać”, a nie „oto liczby”. Analiza dodaje wartość i kierunek działaniom.
Do analizy raportowej stosuje się różne techniki – od statystyki opisowej (średnie, odchylenia) i eksploracji danych (EDA), po analizy regresji, segmentację (klastry) czy prognozowanie (analiza szeregów czasowych). W praktyce łączy się je według potrzeby, by wyciągać wiarygodne i użyteczne wnioski.
Aby być w stanie odróżnić raportowanie od analizy, a następnie odpowiednio rozdysponować pomiędzy nie posiadane zasoby niezbędne jest ustalenie co tak naprawdę rozumiemy pod omawianymi pojęciami. Podejmując próbę tłumaczenia opisów zawartych przez Brenta Dykesa w książce „Web Analytics Action Hero” (której to lekturę podczas letnich wyjazdów każdemu szczerze polecam) możemy przyjąć następujące definicje:
Dla lepszego zrozumienia różnic pomiędzy analizą i raportowaniem, a także umożliwienia oceny Twojej organizacji/pracy wydzielić można pięć kluczowych obszarów, które różnicują te dwie czynności.
Technicznie rzecz ujmując raportowanie przetwarza surowe dane w łatwiej przyswajalne zestawy informacji. Dzięki regularnym raportom, tworzonym ze wspomnianych zestawów, pozwala na monitorowanie sytuacji oraz alarmowanie, kiedy dane zaczynają zachowywać się niestandardowo. Raportowanie odpowiada więc na pytanie „co?” (np. co wydarzyło się w segmencie ruchu płatnego w ostatnim miesiącu?).
Cel raportowania to odpowiedź na pytanie „co?”
Z drugiej strony, analiza ma na celu odpowiedź na pytanie „dlaczego?” (np. dlaczego użytkownicy coraz szybciej opuszczają nasz serwis?) . Realizowane jest to poprzez zagłębienie się w dostarczane informacje, ich dokładną interpretację i wypracowanie rekomendacji, na podstawie których można podjąć konkretne działania mające na celu poprawę sytuacji.
Cel analizy to odpowiedź na pytanie „dlaczego?”
Współpracując z firmami podczas projektów wdrożenia analityki internetowej zauważamy regularnie, że im bardziej organizacja rozwija się w tym zakresie tym większe zapotrzebowanie istnieje właśnie na odpowiedź na pytania związane z tym dlaczego pewne zachowania użytkowników, zmiany w danych występują. Wynika to w dużej mierze z osiąganych realnych efektów, które tak jak wspominałem wcześniej płyną głownie z etapu analizy danych.
Jeżeli praca, którą wykonują osoby pracujące z danymi obejmuje czynności takie jak: konfigurowanie, organizowanie, formatowanie, podsumowywanie, możesz być pewny, że jest to raportowanie. Elementy te można (a nawet należy) zautomatyzować, aby więcej czasu przeznaczyć na zadania, które przynoszą firmie większe korzyści. Są one jak zapewne się domyślasz związane z analizą i obejmują: stawianie pytań biznesowych, badanie, interpretowanie, porównywanie, potwierdzanie lub odrzucanie hipotez.
W wielu przypadkach realizowanie zadań związanych z raportowaniem jest po prostu mniej wymagające, dlatego też znacznie łatwiej znaleźć na rynku osoby, które będą dobrze je realizowały. Prawdziwy analityk internetowy powinien mieć doświadczenie zarówno w zakresie zaawansowanej analizy różnych rodzajów danych, znać specyfikę branży e-commerce, lecz także motywować całą organizację do wykorzystania danych i rekomendacji przez niego wytwarzanych. Pozyskanie lub wykształcenie takich kompetencji w zespole wymaga więc dużej pracy i jest jednym z kluczowych etapów, które przechodzimy z naszymi klientami wdrażając u nich analitykę internetową. W tym samym czasie, samo raportowanie jest odpowiednio automatyzowane (m.in. za pomocą kokpitów menedżerskich) aby móc przesunąć zasoby ludzkie do generującej większe korzyści analizy.
Nawiązując do automatyzacji o której pisałem we wcześniejszym punkcie, generowanie i wykorzystanie raportów zazwyczaj nie wiąże się z aktywnym podejściem osób związanych z biznesem. Dostarczane regularnie zbiory danych, które są wynikiem procesu raportowania, można więc podzielić na:
a) standardowe raporty generowane przez narzędzie analityczne – zawierają standardowy zestaw metryk, które są okresowo monitorowane przez odbiorców,
b) dashboardy (kokpity menedżerskie) – raporty dostosowane do indywidualnych potrzeb odbiorców, zawierające Kluczowe Wskaźniki Sukcesu (KPI) pochodzące często z różnych źródeł,
d) alerty (ostrzeżenia) – warunkowe raporty, które wysyłane są do odbiorców w momencie wystąpienia określonych kryteriów.
Przykład alertów skonfigurowanych w Google Analytics.
Z drugiej strony, analiza oparta jest na aktywnym wykorzystaniu osób biznesowych. To od nich wychodzą pytania, na które analitycy starają się znaleźć odpowiedź. Następnie wypracowane rekomendacje wracają do pytającego, który na ich podstawie może podjąć odpowiednie decyzje wpływające na poprawę efektywności prowadzonych działań. Rezultatem analizy mogą być więc:
U jednego z naszych klientów wdrożyliśmy w związku z tym aspektem m.in. proces regularnych spotkań poszczególnych działów i analityków. Osoby biznesowe na podstawie automatycznych dashboardów (rozwiązanie kwestii dużej ilości bieżących zapytań o dane) przygotowują zestawy pytań, aby następnie po dokładnym ich przeanalizowaniu przez analityków zaprezentować na regularnym spotkaniu wyniki (prezentacja analityczna) i na ich podstawie podjąć odpowiednie decyzje odnośnie poprawy aktualnej sytuacji.
Głównymi czynnikami odróżniającymi analizę od raportowania w tym wymiarze są więc: kontekst (analiza oparta jest na pytaniach, które aktualnie nurtują dany dział) oraz wypracowywane rekomendacje, na podstawie których podejmowane są decyzje.
Z racji, że raportowanie jest zadaniem realizowanym głównie za pośrednictwem różnego rodzaju zautomatyzowanych narzędzi, również forma dostarczania raportów jest od nich zależna. Obejmuje ona wiele rozwiązań od arkuszy Excel, przez dostęp do systemu za pośrednictwem serwisu www, po powiadomienia mailowe czy SMS. Szczególnie efektywną formą dostarczania danych są spersonalizowane kokpity menedżerskie (dashboardy), o których wspominałem już kilkukrotnie w tym wpisie i które wykorzystujemy współpracując z klientami.
Analiza jest jednak domeną ludzi, więc sama forma dostarczania rekomendacji ma również bardziej ludzki wymiar. Znacznie efektywniej wyniki analiz prezentuje się na bezpośrednich spotkaniach, na których zainteresowane osoby mają również możliwość zadania dodatkowych pytań, a analitycy szansę na ostateczne przekonanie strony biznesowej, dzięki czemu ostatecznie podejmowane są decyzje bazujące na rzetelnych danych.
Zarówno analiza, jak i raportowanie bezsprzecznie wypracowują znaczącą wartość dla firmy. Znajdują się one jednak na innych etapach tworzenia owej wartości i są niejako zależne od siebie.
Obróbka surowych danych i raportowanie informacji dla kluczowych osób jest podstawą do rozpoczęcia kreowania wartości. Na tym etapie szczególnie zadbać należy o rzetelność gromadzonych danych – nawet najlepsze analizy przeprowadzone na niepoprawnych danych nie pozwolą na wystawienie dobrych rekomendacji, a co za tym idzie na poprawienie efektywności biznesu. Zmiany zauważane w raportach powinny być światłem ostrzegawczym, bodźcem do postawienia pytań, a następnie przejścia do analizy w celu znalezienia na nie odpowiedzi. Do ostatecznej korzyści dla organizacji potrzebne są już wtedy jedynie dwa kroki, które wspierane są przez rzetelną analizę: podjęcie decyzji i wdrożenie wypracowanych rekomendacji.
Schemat tworzenia wartości dzięki analityce internetowej.
Jak widać pojęcia raportowania i analizy nie są tożsame i na pewno nie powinny być ze sobą mieszane. Zapomnienie zarówno o jednym jak i o drugim uniemożliwia organizacji czerpanie korzyści z analityki internetowej, natomiast należy być świadomym, iż to właśnie w procesie analizy drzemie największy potencjał i jemu powinna być poświęcana szczególna uwaga i zasoby (odwrotnie niż jest to w dużej liczbie firm). Pamiętajcie także o unikaniu najważniejszych błędów w zbieraniu i analizie danych!
A jak sytuacja wygląda w Twoim przypadku? Czy Twoja firma skupia się na raportowaniu, czy może dużą wagę przykłada do procesu analizy? Daj znać w komentarzach .
The post Czym różni się raportowanie od analizy? first appeared on Conversion.
W jaki sposób poprawiasz jakość życia swoich klientów? To absolutnie kluczowe pytanie, które powinien zadać sobie każdy właściciel sklepu internetowego.
Brak dogłębnego zrozumienia wartości dla klienta już na początku stawia cię w niekorzystnej sytuacji. Prawdopodobnie ucierpi na tym każdy element twojego biznesu, począwszy od projektu strony internetowej, przez pozycjonowanie, aż po marketing.
Co więcej, jeżeli to dopiero początek twojej drogi w biznesie e-commerce, tym ważniejsze jest wyeksponowanie tego, co masz do zaoferowania potencjalnym klientom.
Stworzenie oraz przetestowanie mocnej propozycji wartości najpewniej zaowocuje znaczącą poprawą wartości twoich metryk, od całkowitego współczynnika konwersji po średnią wartość zamówienia (ang. average order value).
Wierzymy, że przetestowanie propozycji wartości powinno być najważniejszą częścią każdej strategii optymalizacji e-commerce. Przez cały czas przekonujemy się, że testowanie propozycji wartości daje niesamowite rezultaty (jak np. u jednego z naszych klientów, któremu przyniosło ono wzrost zysku o 23%!).
Z tego artykułu dowiesz się, jak stworzyć i przetestować propozycję wartości (ang. value proposition), która przemawia wprost do twojej grupy docelowej.
Przeanalizujemy także praktyczne przykłady ze sklepów internetowych, które odnoszą w sieci największe sukcesy.
Co znajdziesz w tym artykule?
Czym jest propozycja wartości?
Czym różnią się od siebie propozycja wartości, USP, slogan oraz misja firmy?
Co sprawia, że propozycję wartości możemy uznać za doskonałą?
Wpływ propozycji wartości na decyzje zakupowe
Gdzie należy komunikować propozycję wartości?
Stwórz wspaniałą propozycję wartości w pięciu prostych krokach
Nie zapomnij przetestować swojej propozycji wartości!
Sklepy internetowe z atrakcyjnym Value Proposition: 5 praktycznych przykładów
Wnioski: jak stworzyć value proposition?
Propozycja wartości (ang. value proposition) to po prostu określenie sposobów, w jaki twoja firma dostarcza wartości swoim klientom.
Jest ona odpowiedzią na pytanie, które zadaje sobie każdy klient w internecie: „Dlaczego powinienem kupić od ciebie, a nie od twojej konkurencji?”
Wyszczególnia, w jaki sposób rozwiązujesz główne problemy, których doświadczają twoi potencjalni klienci, oraz w jaki sposób poprawiasz jakość ich obsługi.
Propozycja wartości może odnosić się do konkretnych korzyści, takich jak szybka i bezpłatna wysyłka, lub bardziej ogólnych doświadczeń emocjonalnych, takich jak łatwość i wygoda zakupów.
Przykładowo, Amazon rozwiązuje fundamentalne problemy związane są ze słabym wyborem produktów i zbyt wolną wysyłką, oferując różnorodny wybór produktów dostępnych w trybie przyspieszonym.
Poprawia też jednak jakość obsługi klienta poprzez wiele dodatkowych udogodnień, takich jak dostawa za jednym kliknięciem, pakowanie prezentów, funkcje oszczędzające czas (możliwość zapisywania wybranych przedmiotów czy też tworzenia tzw. „wishlist”) oraz zachęcający program lojalnościowy (Amazon Prime).
Od strony praktycznej, Twoja propozycja wartości powinna zostać wyrażona jako prosty komunikat określający, które problemy rozwiązuje Twój sklep, jakie jest jego pozycjonowanie względem konkurencji oraz podkreślający jego kluczowe cechy.
Etsy, na przykład, daje klientom możliwość kupowania ręcznie wykonanych produktów. Jednym z głównych zarzutów wobec rynku e-commerce jest to, że sprzedawane tam produkty wytwarzane są masowo i nie mają indywidualnego charakteru charakterystycznego dla ręcznie wykonanych produktów. Stworzywszy rynek łączący kupujących z rzemieślnikami, Etsy zapewnia zgrabne rozwiązanie tego problemu.
Wokół terminologii dotyczącej tego tematu pojawia się wiele nieporozumień. Tak naprawdę nie istnieją jednak dokładne definicje. W rzeczywistości terminy takie jak „misja”, „slogan”, „USP” (ang. unique selling proposition) i „propozycja wartości” (ang. value proposition) są ze sobą powiązane i wzajemnie się uzupełniają.
Rzućmy okiem na kilka kluczowych pojęć:
USP – propozycja wartości to nie to samo, co unikalna propozycja sprzedaży (USP), która odnosi się do specyficznej unikalnej cechy Twojego sklepu internetowego. Ale twoje USP zostanie uwzględnione jako element propozycji wartości pod względem unikalnej wartości, którą zapewnia. Na przykład, jednym z USP Amazona jest zakup za pomocą jednego kliknięcia. Wartość tej funkcji dla klienta to łatwość i wygoda.
Misja – deklaracja misji to opis celów i filozofii firmy skierowany do klienta. Opisuje, co chcesz osiągnąć w branży i w jaki sposób chciałbyś to zrobić. Na przykład misją Microsoftu jest „Pomoc ludziom na całym świecie w wykorzystaniu ich pełnego potencjału” (ang. „To help people around the world realize their full potential.”).
Slogan – to krótkie hasło, często jednozdaniowe, które podsumowuje propozycję wartości tak zwięźle, jak to możliwe.
Zarówno misja, jak i slogan, są ważne. Oba wywodzą się z twojej propozycji wartości, nie są jednak propozycją wartości samą w sobie.
Więc jak stworzyć „zabójczą” propozycję wartości?
Poniżej przedstawiamy konkretny proces. Najpierw jednak chcielibyśmy, abyś zapoznał się z krótką checklistą, która pomoże Ci zbliżyć się do wymarzonej, zwycięskiej kombinacji. Odpowiedz sobie na pytania:
Dobrze skonstruowana propozycja wartości to nie slogan – to jasna obietnica, co klient zyska kupując Twój produkt. Badania pokazują, że komponenty wartości takie jak funkcjonalność, emocje czy status znacznie podnoszą intencję zakupu. Dodatkowo, ludzie chętniej wybierają ofertę, gdy widzą przewagę nad konkurencją w jasny, zrozumiały sposób – to skraca dystans decyzji.
Propozycja wartości, która stale dostarcza kluczowe dla klienta korzyści (np. oszczędność czasu, komfort, zaufanie), buduje poczucie przewidywalności i więzi z marką. Programy lojalnościowe osiągają lepsze efekty, gdy są integralną częścią tej propozycji wartości – gdy klient dostaje coś więcej niż punkty, np. ekskluzywne doświadczenie lub lepsze warunki. Lojalność rośnie, gdy klient dostrzega, że oferta nie tylko zaspokaja jego potrzeby dziś, ale ewoluuje wraz z jego oczekiwaniami.
Propozycja wartości powinna być oczywista dla klientów bez względu na to, na której podstronie wylądują. My zalecamy umieszczenie propozycji wartości przynajmniej w tych trzech podstawowych miejscach:
Stworzenie potężnej propozycji wartości, która ma znaczenie, nie jest łatwe.
Nie jest jednak niemożliwe. Dlatego ważne jest, aby pokryć wszystkie niezbędne elementy.
Oto pięciostopniowy proces, który zalecamy:
1. Zdefiniuj problemy i miłe akcenty obecne w twoim segmencie – Zwróć uwagę na uwzględnienie zarówno problemów (takich jak kosztowna dostawa i ograniczony wybór produktów) jak i milszych akcentów. Dobra propozycja wartości nie tylko „uśmierza bóle”, ale także zapewnia klientom „coś ponadto”. Wiele firm decyduje się przekazywać część kwoty z każdej sprzedaży na cele charytatywne. Nie rozwiązuje to kluczowych dla twoich klientów problemów, ale stanowi miły akcent przy zakupie.
2. Skup się na nienasyconych jeszcze rynkach – Uwzględnienie w swojej propozycji wartości elementów zaspokajających specyficzne potrzeby określonej niszy pozwala na zdobycie „łatwych wygranych”, znacznie poszerzając przy tym potencjalną bazę klientów. Dla przykładu wiele sklepów internetowych, w tym Amazon, oferuje specjalne zniżki dla studentów.
3. Uwzględnij unikalne propozycje sprzedaży – Jakie unikalne wartości posiadasz w swoim sklepie internetowym? Ponadto, jaką konkretną wartość dla klienta one wnoszą? Warby Parker, na przykład, wysyła klientom pięć par okularów do przymiarki za darmo, zapewniając możliwość wyboru poprzez praktyczne doświadczenie, czego nie oferują jego konkurenci.
4. Sformułuj deklarację twojej propozycji wartości – wszystko sprowadza się do deklaracji propozycji wartości. Po wyszczególnieniu problemów, jakie rozwiążesz i korzyści, jakie oferujesz, po uwzględnieniu nienasyconych rynków oraz zidentyfikowaniu swoich unikalnych propozycji sprzedaży (USP), nadchodzi czas, aby ująć to wszystko w kilku zdaniach.
Deklaracja propozycji wartości przydaje się także w celu dostosowania codziennych działań całej firmy tak, aby zapewnić spełnienie twojej propozycji.
Użyj poniższego szablonu, aby zbudować propozycję wartości:
a. Deklaracja składająca się z kilku zdań podsumowujących całą propozycję wartości. W tym miejscu zakomunikujesz kluczowe punkty swojej propozycji wartości.
b. Bullet-pointy, które pozwolą nakreślić twoje unikalne propozycje sprzedaży, funkcje wspierające i mniejsze korzyści.
c. Niewielkie „funkcje-detonatory”, które zapewnią ci atrakcyjność dla określonych segmentów rynku i klientów z wyjątkowymi problemami (np. możliwość wysyłki do odległych destynacji)
5. Połącz design sklepu, marketing i opakowania – W jaki sposób nowi klienci dowiedzą się o twojej wyjątkowej propozycji? Czy twój slogan, strategia marketingowa, misja itp. odzwierciedlają twoje oddanie wobec twojej propozycji wartości?
Ściślej ujmując, swoją propozycję wartości przekażesz w następujących miejscach:
a. Na stronie – na stronie głównej, w nagłówku i na stronach produktów.
b. W materiałach promocyjnych – takich jak newsletter, reklamy on-line, oferty rabatowe itp.
c. Ilekroć masz fizyczną interakcję z klientem – jak np. dostarczenie paczki.
To ważny punkt, a jednak wiele osób go pomija! Gdy już złożysz w całość wszystkie elementy swojej propozycji wartości, koniecznie pamiętaj, aby ją przetestować.
Oto kilka prostych sposobów oceny skuteczności nowej propozycji wartości:
Zawsze dobrze jest uczyć się od firm, które już stworzyły fantastyczne propozycje wartości. Sukces tych uznanych i szybko rozwijających się sklepów internetowych wynika w dużej mierze właśnie z faktu, że ich propozycje wartości są tak wyjątkowe.
Oto pięć przykładów biznesów e-commerce, które według nas mają doskonałe propozycje wartości:
Warby Parker zapewnia oszczędność czasu i pieniędzy, dostarczając tanie oprawki prosto do drzwi swoich klientów.
Jeśli jesteś w branży, w której zróżnicowanie produktów nie występuje lub jest nieznaczne, to musisz pracować jeszcze ciężej, aby wyróżnić się w branży e-commerce poprzez unikalną propozycję wartości.
Nigdy nie miało to większego znaczenia niż dziś, kiedy Amazon zamierza pochłonąć jeszcze więcej udziału w rynku e-commerce – nawet jeżeli miałoby się to odbyć kosztem poniesienia przez nich strat.
Być może będziesz musiał zaoferować więcej niż jedną rzecz aby się wyróżnić. My oferujemy: bezpłatną szybką wysyłkę, bezpłatne upominki dołączane do każdego zakupu i bezproblemowe uwzględnianie gwarancji w razie jakichkolwiek problemów.
Przetestowaliśmy to – jeżeli nie oferujemy wyżej wymienionych udogodnień, nasz współczynnik konwersji gwałtownie spada.
Christian Sculthorp, właściciel sklepu, Vaped.com
Propozycja wartości (ang. value proposition) ma fundamentalne znaczenie dla twojej firmy. Unikalna propozycja daje klientom powód, by robić w twoim sklepie zakupy i do niego wracać, a co więcej, polecać go swoim znajomym i wystawiać pozytywne recenzje. Wpłynie ona na całą firmę – włączając w to działy marketingu, sprzedaży i obsługi klienta. Pomoże ci także w tworzeniu materiałów promocyjnych i zbudowaniu programu lojalnościowego, który bezpośrednio odpowie na potrzeby klientów.
Niezależnie od tego, czy masz już ugruntowaną pozycję na rynku, właśnie tworzysz sklep internetowy i Twoim głównym dylematem jest dopiero wybór oprogramowania (Magento, Presta, Shopify?) czy też rozwijasz start-up, i myślisz o pozycjonowaniu, zwycięska propozycja wartości będzie niezastąpionym elementem strony.
The post Value proposition: jak stworzyć skuteczną propozycję wartości? first appeared on Conversion.
Z pewnością nie możemy narzekać na stagnację w świecie analityki internetowej w ostatnich miesiącach. W świetle reflektorów znajdowały się kwestie prywatności oraz “propozycji nie do odrzucenia” ze strony Google’a w temacie migracji z Universal Analytics’a na GA4. We wspomnianych zagadnieniach chyba już wszystko zostało powiedziane. Dlatego dzisiaj na warsztat weźmiemy rozwiązanie, o którym ucichło w ostatnim czasie i nadal nie jest wykorzystywane na większą skalę. Mowa tutaj o Google Tag Manager Server-Side.
Co znajdziesz w tym artykule?
Czym jest GTM Server-Side?
GTM Client-Side vs. Server-Side
Przypadki użycia GTM Server Side
Quo Vadis, GTM?
Nie wszystko złoto, co się świeci… – kilka wad Google Tag Managera Sever-Side
Etapy, przez które musimy przejść w celu uzyskania nowych supermocy
Narzędzie GTM Server-Side – podsumowanie
GTM Server-Side to rozwiązanie od Google’a w zakresie menadżera tagów, które wyprowadza standard śledzenia oraz przekazywanie danych na znacznie wyższy poziom, dając nam tym samym nowe możliwości. W jaki sposób i o co w tym wszystkim chodzi? Tego dowiesz się z tego artykułu!
“Nie dość, że muszę się przesiąść na nowy Google Analytics to to samo czeka mnie w przypadku GTM-a?”. Na wstępie uspokajamy – klasyczny Google Tag Manager (client-side) nadal będzie potrzebny, bo to właśnie jego należy zintegrować z GTM Server-Side. Oczywiście, o ile się na to zdecydujesz.
Na początek w skrócie wyjaśnijmy sobie różnice pomiędzy sposobami tagowania: client-side (na nim opiera się klasyczny GTM) oraz server-side. Dotychczas działało to w taki sposób, że mieliśmy ustawiony jakiś tag np. zdarzenie pixela Meta (dawniej Facebook). Po wywołaniu takiego tagu, request zawierający dane o zdarzeniu był przesyłany bezpośrednio do Meta. Poniżej zamieszczamy schemat, który powinien ułatwić zrozumienie opisanej sytuacji.
W przypadku GTM-a Server-side pojawia się dodatkowy podmiot, który jest odpowiedzialny za zbieranie danych z wywołanych tagów na poziomie kontenera webowego i rozdysponowanie ich do innych narzędzi m.in Google Analytics, Google Ads, czy Meta. Można powiedzieć, że kontener serwerowy to nasz “anioł stróż”, który odpowiada za bezpieczeństwo naszych danych.
Na powyższym schemacie pojawił się “Client” w serwerowym kontenerze. Służy on do odbierania sygnałów (wywołanych tagów) z kontenera webowego. To wszystko może brzmieć dość skomplikowanie, ale wbrew pozorom takie nie jest. Jednak zanim pomyślimy o wdrożeniu tego rozwiązania, warto wiedzieć, dlaczego powinniśmy je rozważyć…
GTM Server Side sprawdza się tam, gdzie klasyczne tagi przestają wystarczać – np. do konsolidacji wielu źródeł danych (web, CRM, backend) w jednym miejscu, zanim rozdzielisz je do narzędzi analitycznych. Dzięki temu zyskujesz większą elastyczność w transformacji i filtrowaniu danych, a także możliwość sterowania, które fragmenty informacji trafią dalej, a które zatrzymasz lub usuniesz. To użyteczne zwłaszcza w środowiskach wielokanałowych.
W kontekście konwersji, server-side tagging pozwala ominąć blokady typu ad blocker czy ograniczenia przeglądarkowe (ITP), co często skutkuje nawet 5-30% wzrostem liczby zarejestrowanych zdarzeń. Dodatkowo możesz wprowadzać logikę atrybucji lub „odświeżać” cookies na serwerze, co wydłuża okno atribucji i umożliwia lepsze przypisanie sprzedaży zwłaszcza w kampaniach z długim cyklem decyzyjnym.
Po stronie serwera łatwiej jest integrować różne systemy – na przykład przekazywać dane z GTM do GA4, Meta (przez Conversion API), Piwik PRO czy nawet własnych systemów raportowych – z jednego punktu kontrolnego. W praktyce możesz zbudować logiczne „switchboard” danych: filtruj, wzbogacaj, anonimizuj – i kieruj odpowiednie zestawy danych do właściwych narzędzi, bez dublowania kodów po stronie klienta.
Na początek zastanówmy się dlaczego powstał taki produkt, jak GTM Server-Side. Z pewnością nowa odsłona Google Tag Manager jest odpowiedzią na coraz większe ograniczeniach w śledzeniu użytkowników po stronie przeglądarek np. ITP (Intelligent Tracking Prevention) w Safari. Zmiany obejmują również blokowanie tzw. ciasteczek obcych (third-party cookies), co będzie skutkowało ograniczeniem śledzenia po stronie narzędzi zewnętrznych m.in. wspomniana już wcześniej Meta. Problem ten zostaje rozwiązany w taki sposób, że wysyłane request’y do naszego serwera są traktowane jako first-party cookie. Oczywiście, aby tak się stało należy skonfigurować customową domenę (temat zostanie poruszony w dalszej części artykułu).
Rozwiązanie opisanych ograniczeń, które pojawiły się wraz ze zwiększoną troską o prywatność użytkowników to nie jedyna zaleta. Poniżej przedstawiamy inne plusy tego rozwiązania:
Można się zastanawiać “skoro to rozwiązanie rozstrzyga tych kilka bieżących problemów to dlaczego jest tak stosunkowo mało popularne pod kątem wdrożeń”? Produkt jest już na rynku od około dwóch lat, a fazę beta opuścił na przełomie września i października 2021 r. Pomimo tego, rzadko możemy spotkać zaimplementowane to rozwiązanie nawet u dużych klientów. Z czego to wynika? Omówmy kilka wad/trudności związanych z tym rozwiązaniem:
Ten etap możemy uznać za zdecydowanie najłatwiejszy. W momencie, w którym zdecydujemy się na utworzenie nowego kontenera wystarczy przejść na zakładkę “Administracja” i na poziomie kontenera kliknąć “+”. Po takiej interakcji pojawi się okno, w którym możesz wybrać rodzaj kontenera.
Następnie możesz skorzystać z automatycznego skonfigurowania serwera tagowania. Po wybraniu tej opcji pojawi się zapytanie o konto rozliczeniowe na Google Cloud Platform, co oznacza rozpoczęcie 2. etapu…
Jeżeli jeszcze nie masz konta Google Cloud Platform, co oznacza, że nie było możliwości podłączenia płatności w poprzednim kroku i tym samym utworzenia projektu to będziesz zmuszony zrobić to teraz. W Internecie znajduje się wiele poradników jak to zrobić, dlatego w tym artykule nie będziemy tego zgłębiać.
Po utworzeniu konta i podłączeniu płatności możesz dokończyć konfigurację GTM-a Server-Side.
Proces tworzenia po stronie systemu może zająć co najmniej kilka minut, dlatego zanim go przetestujesz musisz uzbroić się w cierpliwość.
Jeżeli już masz ustawione odpowiednie tagi w GTM-ie Client-Side to proces możesz zacząć od stworzenia odpowiedniego Client’a z poziomu Server-Side, który będzie odbierał sygnały z klasycznego GTM-a. Zostanie on również wykorzystany w regule wywoływania tagów przekazujących dane do konkretnych narzędzi.
Tak wygląda lista dostępnych domyślnych Client’ów:
Przykładowo możemy wybrać GA4. Jako regułę wywoływania tagu możemy ustawić “Niestandardowe”, a następnie ustawić warunek “Client Name” zawiera/równa się “GA4”
W tym przykładzie ostatnim elementem będzie utworzenie tagu.
Teraz musimy wrócić do naszego GTM-a Client-Side i włączyć przesyłanie danych do serwerowego kontenera:
Oprócz tego, podstawiamy URL dla serwera kontenerowego. Jeżeli jeszcze nie działałeś w kwestii zmiany customowej domeny to możesz podstawić domyślny URL wygenerowany przy tworzeniu kontenera – tryb testowy w App Engine. Możesz go znaleźć w głównym widoku swojego Server-Side po kliknięciu ID kontenera (GTM-xxx) na pasku nawigacyjnym. Tam znajduje się pole o nazwie “Domyślny adres URL”. Po podstawieniu tego URL-a w tagu na kontenerze Client-Side możemy go zapisać i rozpocząć debuggowanie, poprzez włączenie trybu podglądu na obu kontenerach. Dodatkowo, możesz to zweryfikować po stronie konsoli oraz w request’ach na poziomie App Engine.
Warto dodać, że taka konfiguracja pozwala na przechwytywanie wszystkich zdarzeń z Google Analytics 4.
W przypadku włączenia instancji produkcyjnych będziemy musieli skorzystać z konsoli na poziomie GCP zwanej “Cloud Shell”. Po wprowadzeniu kilku komend będziemy mogli uruchomić nasze instancje produkcyjne. Pojawią się pytania m.in czy chcemy włączyć autoscalling oraz w przypadku wyrażenia zgody o minimalną i maksymalną liczbę instancji. W witrynie Google Developers znajduje się dokładny opis, jakie komendy należy wprowadzić: https://developers.google.com/tag-platform/tag-manager/server-side/script-user-guide
Na poziomie ustawień App Engine możemy również skonfigurować customową domenę (o zaletach wspominaliśmy już wcześniej). Będziemy musieli ustawić nazwę subdomeny, do której będą wysyłane request’y. Wymagana będzie również weryfikacja własności do danej subdomeny. Na sam koniec należy zaktualizować rekordy DNS, zgodnie z instrukcją występującą podczas konfiguracji.
W rzeczywistości, w której spotykamy się z coraz większymi restrykcjami pod kątem śledzenia użytkowników, wydaje się, że to narzędzie może nas wynieść na wyższy poziom analityczny. Oczywiście, wiąże się ono z dodatkowymi kosztami. Jednak sam musisz zdecydować, czy wartość, którą wnosi jest godna poniesionych “strat”. Z pewnością będziemy oczekiwać na nowe udoskonalenia np. template’y, które pozwolą bezpośrednio przekazywać dane do innych systemów.
Zachęcam również do zainteresowania się tym tematem, aby obyło się bez niepotrzebnych stresów, kiedy obudzimy się w świecie totalnie odciętym od third-party cookies.
Mamy nadzieję, że udało mi się przekonać Cię do przetestowania tego rozwiązania! Jeśli wiedzę zawartą w tym artykule uważasz za wartościową to koniecznie sprawdź wpis na naszym blogu mówiący o tym dlaczego warto wdrożyć Google Tag Managera! A jeśli zastanawiasz jak wykorzystać te narzędzia w Twojej firmie – pogadajmy!
The post Server side tagging – czym jest i jak działa? first appeared on Conversion.
Czym jest Google Tag Manager Server-side (ssGTM)?
Główne korzyści z wdrożenia GTM Server-side
Jak GTM Server-side wpływa na proces zbierania danych i infrastrukturę?
Kto powinien rozważyć wdrożenie GTM Server-side?
GTM Server-side krok po kroku – jak wdrożyć?
GTM Server-side a prywatność, RODO i dokładność danych
Najczęstsze błędy przy konfiguracji ssGTM
Podsumowanie
Google Tag Manager Server-side, w skrócie GTM Server-side lub ssGTM, to technologia umożliwiająca zbieranie danych po stronie serwera. Wszystkie żądania wysyłane do narzędzi zewnętrznych, szczególnie do narzędzi marketingowych czy pikseli śledzących, nie są wysyłane bezpośrednio z przeglądarki użytkownika. Najpierw trafiają na serwer, skąd są przekazywane dalej.
Dotychczas, w tradycyjnym podejściu, żądania trafiały bezpośrednio z przeglądarki użytkownika do zewnętrznych narzędzi. Warto przyjrzeć się temu procesowi na konkretnym przykładzie. W poniższej analizie wykorzystam serwis modivo.pl. Korzystając z konsoli przeglądarki oraz zakładki „Sieć”, można zobaczyć wszystkie interakcje serwisu z domenami zewnętrznymi. Po przeładowaniu strony modivo.pl pojawiają się różne połączenia z zewnętrznymi serwisami, takimi jak Adform.net, Analytics Tik-Tok, Google Ads czy DoubleClick. Są to żądania wychodzące z przeglądarki użytkownika do domen trzecich, szczególnie do narzędzi analitycznych i marketingowych.
Zawężając te żądania tylko do tych związanych z Google Analytics, widać funkcję “Collect”. W tym przypadku można zauważyć żądania wysyłane do region1.analytics.google.com. Wśród żądań sieciowych pojawiają się nie tylko te kierowane do google.com, ale również żądania wysyłane do domeny d-api.modivo.pl. Pierwsze żądanie, szczególnie w przypadku Google Analytics, wychodzi z przeglądarki do serwera Modivo, a domeną docelową jest d-api.modivo.pl. Na modivo.pl wdrożono śledzenie serwerowe, gdzie informacje trafiające do serwera są odpowiednio przetwarzane, a następnie przekazywane dalej – w tym przypadku do Google Analytics. GTM Server-side to instancja Google Tag Managera zainstalowana na serwerze, która obsługuje cały ruch przesyłany z przeglądarki użytkownika. Na poziomie serwera osoba odpowiedzialna za wdrożenie decyduje, jakie informacje i w jakiej formie trafią do narzędzi zewnętrznych.
Szczegółowe wyjaśnienie działania GTM Server-side znajduje się w osobnym materiale, do którego link zamieszczono w opisie. Materiał ten wyjaśnia zależności pomiędzy klientem (przeglądarką), serwerem oraz wykorzystywanymi narzędziami marketingowymi.
Wśród najczęściej pojawiających się pytań dotyczących GTM Server-side przewija się kwestia głównych korzyści tego rozwiązania. Wśród najważniejszych korzyści warto wymienić bezpieczeństwo danych. W przypadku przesyłania wrażliwych informacji do narzędzi zewnętrznych, kluczowe znaczenie ma optymalizacja kampanii w oparciu o marżę czy zysk z produktu, a nie jedynie przychód. Brak śledzenia po stronie przeglądarki sprawia, że marża nie jest przekazywana bezpośrednio, co chroni firmę przed ujawnieniem jej poziomu na rynku. Marża zostaje dołączona na poziomie serwera i dopiero wtedy przesyłana do narzędzi marketingowych.
Bezpieczeństwo danych dotyczy również wzbogacania informacji marketingowych o wartości wrażliwe, takie jak marża czy LTV (życiowa wartość klienta). Dodatkowo, rozwiązanie to pozwala na filtrowanie i anonimizację danych już na poziomie serwera. Dzięki temu możliwa jest pełna kontrola nad tym, jakie informacje są przekazywane do narzędzi trzecich, co ułatwia spełnienie wymagań RODO. Pierwszym aspektem jest bezpieczeństwo. Kolejnym czynnikiem jest szybkość ładowania witryny. Nie ma potrzeby wdrażania wszystkich pikseli po stronie kodu śledzącego, szczególnie w Google Tag Manager Client-side. Im więcej kodów, tym dłużej przeglądarka je przetwarza, co wpływa na wydłużenie czasu ładowania strony. Na szybkość ładowania wpływa również liczba komunikacji, jakie przeglądarka użytkownika nawiązuje z serwerami zewnętrznymi. Każda taka komunikacja, nawet jeśli trwa tylko milisekundy, sumuje się i może prowadzić do zauważalnych opóźnień.
W praktyce, korzystając z rozwiązania server-side, tylko jedna informacja wychodzi z przeglądarki użytkownika do serwera, a następnie to serwer przejmuje obsługę i rozsyła dane do poszczególnych narzędzi. Trzecim argumentem, który przemawia za wdrożeniem Google Tag Manager Server-Side, jest poprawa efektywności kampanii marketingowych. Przekazywanie marży zamiast przychodu pozwala na skuteczniejszą optymalizację kampanii reklamowych. Dzięki temu działania marketingowe koncentrują się na maksymalizacji zysku, a nie jedynie na wzroście przychodów, co jest kluczowe z perspektywy firmy.
Wdrożenie Serversite umożliwia korzystanie z ciasteczek First Party zamiast Third Party Cookies. To szczególnie istotne, ponieważ niektóre przeglądarki, zwłaszcza Safari na iOS, wykorzystują systemy ochrony prywatności, które znacznie skracają czas życia ciasteczek zewnętrznych. Wykorzystując GSM, można wydłużyć żywotność ciasteczek, co ułatwia skuteczne śledzenie użytkowników i pozwala lepiej rozumieć ich zachowania w świecie marketingu.
Kolejną zaletą jest dokładniejsze śledzenie użytkowników. Rozwiązania takie jak Serversite pozwalają zminimalizować wpływ adblocków, które blokują niektóre dane przesyłane z przeglądarki. Dzięki temu uzyskujemy pełniejszy obraz skuteczności kampanii i zachowań użytkowników na stronie. Jeśli zakodujemy wszystkie potrzebne informacje, które trafiają na serwer, na przykład w przypadku Modivo jest to domena wewnętrzna Modivo, d-api, a nie domena DoubleClick, to na poziomie serwera można dalej przesyłać te dane. Dzięki temu informacje rzadziej są blokowane, a narzędzia zewnętrzne, szczególnie analityczne, nie tracą dostępu do danych.
Dokładniejsze śledzenie wynika również ze zwiększenia żywotności ciasteczek. Niektóre przeglądarki, takie jak Safari, ograniczają żywotność ciasteczek do 7 dni. Przy odpowiedniej konfiguracji można jednak wydłużyć ten czas nawet do 18 miesięcy.
Często pojawia się pytanie, jak działa proces zbierania danych w GTM Server-side. Kluczową zasadą działania Server-side jest to, że przeglądarka użytkownika nie odpowiada już za wysyłanie informacji analitycznych i marketingowych do różnych narzędzi. Zamiast tego z przeglądarki wychodzi jedna paczka wszystkich informacji do serwera, a następnie na poziomie serwera dane są rozsyłane dalej. GTM Server-side wymaga dodatkowej infrastruktury, czyli serwera, na którym uruchamiana jest instancja GTM Server-side. Najczęściej wdrażamy GTM Server-side w ramach Google Cloud Platform, korzystając głównie z usługi Cloud Run. Standardowo można wykorzystać również instancję App Engine, jednak przy dużym ruchu takie rozwiązanie staje się nieskalowalne.
W portfolio Conversion znajdują się także wdrożenia na innych platformach chmurowych, takich jak Microsoft Azure – konkurencyjne rozwiązanie wobec Google Cloud Platform – oraz AWS, czyli chmura Amazon. Dzięki temu możliwe jest dopasowanie infrastruktury do indywidualnych potrzeb i preferencji klientów.
Wdrożenie Google Tag Manager Server-side warto rozważyć przede wszystkim w branży e-commerce oraz w dużych firmach prowadzących działalność online. Rozwiązanie to adresuje potrzeby biznesów, którym zależy na bezpiecznym, precyzyjnym i odpornym na blokady systemie śledzenia. GTM Server-side sprawdza się szczególnie tam, gdzie istotne są ograniczenia związane z blokadami cookies w przeglądarkach oraz coraz bardziej zaawansowane mechanizmy ochrony prywatności.
Firmy decydują się na wdrożenie GTM Server-side, gdy chcą przesyłać bardziej wrażliwe dane biznesowe, na przykład informacje o marżach. Rozwiązanie to polecane jest także dla organizacji z rozbudowanym, długim procesem zakupowym, gdzie kluczową rolę odgrywa remarketing.
Szczególne znaczenie GTM Server-side zyskuje w przypadku serwisów, których użytkownicy korzystają głównie z przeglądarek Apple, takich jak Safari czy urządzeń z systemem iOS. Te platformy znane są z restrykcyjnego podejścia do ochrony prywatności, przez co ciasteczka mają bardzo krótki okres ważności. W efekcie, przy długim procesie zakupowym, trudniej zidentyfikować powracającego użytkownika. GTM Server-side pozwala na skuteczniejsze zarządzanie danymi i lepsze śledzenie ścieżki klienta, co przekłada się na efektywniejsze działania marketingowe i analityczne.
i bądź na bieżąco z nowościami ze świata analityki internetowej!
Jak wdrożyć GTM Server-side krok po kroku? Proces składa się z czterech głównych etapów.
Pierwszym krokiem jest audyt obecnego śledzenia w GTM Client-side, czyli tego, które wysyła dane marketingowe i analityczne z poziomu przeglądarki użytkownika. Celem audytu jest mapowanie wszystkich tagów, reguł i zmiennych, które powinny być dalej przekazywane. Często okazuje się, że większość tych elementów jest niepotrzebna lub nieużywana. To dobry moment, aby odchudzić kontener Client-side, co pozytywnie wpływa na szybkość ładowania serwisu.
Drugim krokiem jest wybór rozwiązania serwerowego. Należy zdecydować, czy wdrożenie będzie oparte o Cloud Run, najprostszy App Engine, czy inne narzędzie obsługujące serwerową wersję GTM. Gdy decyzja zostanie podjęta, można przejść do konfiguracji wybranej instancji serwerowej. W trzecim kroku śledzenie przenoszone jest z Client-side na server-side. Czwarty krok to testowanie i weryfikacja, czy śledzenie działa prawidłowo. To cztery kroki, które z pozoru wydają się proste, jednak wymagają czasu na realizację.
Pojawia się pytanie: czy GTM Server-Side zastępuje klasyczny GTM Client-side, czyli wdrożenie z poziomu przeglądarki? GTM Server-side nie zastępuje rozwiązania Client-side. Informacje o użytkowniku muszą zostać najpierw zebrane w przeglądarce i przesłane do serwera. GTM Server-side jest kolejnym etapem po GTM Client-side. Standardowy GTM Client-side zbiera dane i wysyła paczkę informacji do serwera, a następnie po stronie serwera następuje dalsze przetwarzanie i przekierowanie tych informacji. Client-side i Serve-Side to bezpłatne rozwiązania. Pojawia się jednak kwestia kosztów korzystania z GTM Server-Side. W przypadku Client-side, poza samą konfiguracją i przeniesieniem śledzenia, obsługa Server-Side wymaga większych kompetencji technicznych. Przekłada się to na wyższy koszt obsługi. Dodatkowo pojawia się koszt utrzymania serwera – to serwer przejmuje wysyłanie informacji, a jako wirtualna maszyna generuje opłaty.
Szczegółowe informacje o kosztach można znaleźć w dedykowanych materiałach, gdzie przedstawiono konkretne wyliczenia.
Kolejną ważną kwestią jest wpływ GTM Server-Side na prywatność i zgodność z RODO. W Client-side implementujemy na stronie skrypt, np. piksel śledzący, który automatycznie zbiera dane z serwisu i przesyła je do narzędzi firm trzecich. W tym modelu nie mamy pełnej kontroli nad tym, jakie informacje trafiają do tych narzędzi. Z perspektywy RODO kluczowa jest pełna kontrola nad danymi, które są wysyłane. W przypadku wykorzystania Google Tag Managera w wersji serwerowej ta kontrola jest znacznie większa. Pozwala to na anonimizację danych osobowych, które trafiają do serwerów firm trzecich, takich jak Meta czy Google. Dodatkowo można ograniczyć przesyłanie nadmiarowych informacji, które nie są istotne z perspektywy prowadzonych kampanii. Firmy trzecie i wydawcy reklam często gromadzą te dane i wykorzystują je na własny użytek. GTM Server-side wpływa na dokładność danych analitycznych na kilka sposobów.
Po pierwsze, ogranicza wpływ AdBlocków na zbieranie danych, szczególnie w przypadku Google Analytics. AdBlocki zazwyczaj blokują ruch rozpoznając charakterystyczne fragmenty kodu wysyłane bezpośrednio z przeglądarki użytkownika. W rozwiązaniu serwerowym dane trafiają najpierw na nasz serwer, gdzie mogą zostać zanonimizowane lub zaszyfrowane, a następnie przekazane dalej do narzędzi analitycznych. Dzięki temu ryzyko zablokowania informacji przez AdBlocki jest znacznie mniejsze.
Kolejną korzyścią jest możliwość wzbogacenia danych trafiających do analityki o informacje z wewnętrznych systemów firmy. Najczęściej są to dane kosztowe, dotyczące marży na produktach lub informacje o segmentach użytkowników. Dzięki temu możliwa jest bardziej szczegółowa analiza oraz lepsza segmentacja danych, co przekłada się na skuteczniejsze wyciąganie wniosków i podejmowanie decyzji biznesowych. W przypadku kilku serwisów często pojawia się pytanie, czy dla każdego z nich należy budować osobny kontener serwera Google Tag Manager (GTM). To zagadnienie z obszaru bardziej zaawansowanych konfiguracji, wymagające indywidualnego podejścia. Budowa osobnego serwerowego GTM dla każdego serwisu na różnych domenach może wpłynąć na koszty utrzymania środowiska chmurowego. Każda domena wymaga wtedy własnego serwera, co zwiększa złożoność i wydatki związane z infrastrukturą.
Dla jednego z klientów, dużej organizacji z wieloma domenami, przygotowaliśmy studium przypadku, w którym zarekomendowaliśmy pozostanie przy jednym serwerze. Każda sytuacja wymaga jednak indywidualnej analizy – nie istnieje uniwersalne rozwiązanie.
Warto również omówić najczęstsze błędy popełniane przy konfiguracji ssGTM (Server-Side Google Tag Manager).
Podczas migracji z Client-side do Server-side często obserwujemy problem z czyszczeniem list remarketingowych. Wynika to z natychmiastowej migracji ciasteczek z warstwy klienckiej na serwerową, co prowadzi do utraty ciągłości remarketingu.
Kolejnym częstym błędem jest zła lokalizacja serwera, która spowalnia działanie i zwiększa koszty związane z transferem danych między serwerami. Konfiguracja serwera to w pełni zagadnienie cloudowe. Wybór lokalizacji serwera ma kluczowe znaczenie – od niej zależy zarówno wydajność, jak i koszty utrzymania. Duplikowanie danych w wielu regionach dodatkowo je zwiększa. Dla mniejszych serwisów nie stanowi to dużego problemu, jednak w przypadku dużych organizacji niewłaściwa lokalizacja serwera może generować znaczne i niepotrzebne koszty.
Podsumowując, pojawiło się wiele pytań dotyczących GTM Server-side. Jeśli zabrakło odpowiedzi na interesujące zagadnienie, warto zostawić je w komentarzu – każde pytanie zostanie przekazane do zespołu analitycznego Conversion i nie pozostanie bez odpowiedzi. W przypadku bardziej złożonych przypadków lub wyzwań związanych z GTM Server-side, zachęcam do kontaktu oraz skorzystania z bezpłatnej konsultacji. Wśród omawianych pytań można znaleźć wiele praktycznych wskazówek i rozwiązań związanych z wdrożeniem tego narzędzia.
The post GTM Server-Side – 12 najczęstszych pytań i odpowiedzi first appeared on Conversion.
Czy “wyciągnięcie” jakichkolwiek danych ze strony www, sklepu internetowego lub też aplikacji mobilnej zawsze musi oznaczać przymus kontaktowania się z działami IT i… czasami długie oczekiwania na ich reakcje? Powiedzmy sobie szczerze, jeśli wszystkie działania związane z implementacją i modyfikacją kodów wykorzystywanych w analityce internetowej spoczywałyby na barkach programistów, to wielu analitykom prędzej urosłyby siwe brody (i przeszliby na emerytury), niż doczekaliby się na planowanego wdrożenia.
Na szczęście firma Google już dawno zdała sobie sprawę z tego, że spece od IT zawsze mają coś ważniejszego na swoich głowach. Dlatego zaproponowała rozwiązanie, które pozwala nie tylko wdrażać, ale również sprawnie zmieniać kluczowe z punktu analityki elementy – i to każdemu, kto ma dostęp do Google Tag Managera.
Czym jest DataLayer? Jakie ma zastosowanie? Kto powinien z niego skorzystać? Aż wreszcie – jak podejść do jego konfiguracji i implementacji? Odpowiedzi na wszystkie te (plus kilka dodatkowych) pytań, postarałem się zawrzeć w tym artykule. Zapraszam do lektury :)!
Co to jest Data Layer?
Przykłady zastosowania warstwy danych
Jakie informacje mogą znajdować się w Data Layerze?
Jak wygląda warstwa danych?
Data Layer a Google Tag Manager – co mają ze sobą wspólnego?
Dlaczego warto postawić na wdrożenie poprzez GTM?
Jak wdrożyć Data Layer za pomocą GTMa?
Wykorzystanie warstw danych w e-commerce
Dlaczego warto? Korzyści wynikające z wdrożenia i użytkowania warstwy danych.
Data Layer – podsumowanie
Z czysto technicznego punktu widzenia, Data Layer (czyli warstwa danych) to po prostu obiekt JSON (nazywany też tablicą). Wykorzystuje się go do przesyłania informacji np. z Twojej strony internetowej – bezpośrednio do kontenera menedżera tagów.
W praktyce DataLayer (DL) pozwala na uporządkowanie danych tak, aby menedżer mógł w łatwy i szybki sposób docierać do niezbędnych parametrów, które są umiejscowione bezpośrednio w kodzie źródłowym. Oczywiście, takie warstwy danych mogą być skonfigurowane zarówno dla serwisów internetowych (stron czy sklepów), jak i aplikacji.
Warstwa danych (data layer) można wykorzystać w wielu scenariuszach: np. przy śledzeniu dodania produktu do koszyka – pushujesz event: addToCart z informacjami o produkcie, jego cenie i ilości. Innym przykładem jest rejestracja użytkownika: warstwa danych może przesłać event: userSignUp wraz z planem abonamentu czy źródłem kampanii. W e-commerce klasycznym zastosowaniem jest przekazanie danych transakcji (ID zamówienia, wartość, lista produktów) do GTM i dalej do Google Analytics lub narzędzi remarketingowych. Takie zastosowania zapewniają spójność danych, łatwe mapowanie i odseparowanie logiki marketingowej od warstwy prezentacji strony.
Muszę powiedzieć, że zastosowanie warstw danych ogranicza głównie Twoja wyobraźnia, potrzeby biznesowe oraz specyfika samego serwisu czy aplikacji.
Data Layer może odnosić się do wielu zmiennych, w tym: atrybutów, nazw, zdarzeń i wielu innych. Ponadto, sprawdza się również przy okazji i tworzenia reguł, jak i samych tagów. Pomimo tego, że można ich używać praktycznie na dowolnych stronach czy aplikacjach – zdecydowanie największe “pole do opisu” znajdują się oczywiście w obszarze e-commerce.
W tej materii Data Layer może obsługiwać takie informacje, jak:
Data Layer może też dotyczyć prowadzonych kampanii reklamowych, w tym informować o źródłach wizyt użytkowników odwiedzających sklep internetowy.
Naturalnie może być wykorzystywany w wielu innych miejscach. W przypadku bloga, dane, które mogą być przekazywane “dalej”, to chociażby: nazwa wpisu, data publikacji, kategoria, imię i nazwisko autora.
Jak już wspomniałem kilka akapitów wcześniej – DataLayer odwołuje się bezpośrednio do kodu strony, do czego wykorzystuje obiekt JSON. Obiekt ten zawiera opis elementów strony internetowej lub aplikacji. Może prezentować się np. w następujący sposób:
’ProductName’ – oznacza nazwę produktu na danej podstronie
‘Brand’ – oznacza markę danego produktu
‘Category’ – oznacza kategorię, w której znajduje się dany produkt
’Price’ – oznacza cenę danego produktu
W tym miejscu muszę jasno zaznaczyć, że zarówno kwestia nazewnictwa poszczególnych elementów, jak i parametrów, do których mają się odwoływać – jest całkowicie dowolna. To oznacza, że nie istnieje jedna “z góry” określona struktura, której trzeba się “trzymać”. Oczywiście mamy tutaj wyjątki.
W praktyce możesz więc nazywać je tak, jak tylko zechcesz. Zalecam jednak pewną ostrożność. Weź pod uwagę, aby zadbać o maksymalną intuicyjność oraz czytelność elementów w Twoim Data Layerze. Tak, aby inne osoby, które będą z nimi pracowały, nie miały żadnych problemów z określeniem “co autor miał na myśli” .
Dobrą praktykę w tej materii stanowi stosowanie jasnych i powszechnie stosowanych określeń (zarówno w języku polskim, jak i angielskim) np.:
I tak dalej, i tak dalej.
Jednocześnie staraj się wystrzegać oznaczeń, które nie są jednoznaczne lub kompletnie “nic nie mówią”. Przykłady, które warto omijać, to między innymi: przypadkowe ciągi liter lub cyfr, nazwy własne, długie i skomplikowane zwroty.
i bądź na bieżąco z nowościami ze świata analityki internetowej!
Istnieją co najmniej dwa najpopularniejsze sposoby implementacji warstw danych. Pierwsza z nich to tzw. ręczna – wymaga posiadania wiedzy i umiejętności programistycznych, a dodatkowo potrafi zabrać bardzo dużo czasu. Polega bowiem na pracy bezpośrednio w kodzie strony lub aplikacji. W tej zazwyczaj niezbędna jest pomoc osób, które posiadają dostęp do kodu źródłowego Twojego serwisu.
Na szczęście istnieje też druga, zdecydowanie prostsza, szybka i taka, którą zajmiesz się osobiście – bez konieczności angażowania specjalistów z działu IT. I właśnie opcji nr 2 poświęcę ten i kolejny akapit.
Data Layer możesz bowiem z powodzeniem zaimplementować za pośrednictwem Google Tag Managera. Jeżeli nie wiesz, co to takiego – gorąco zachęcam Cię do zapoznania się z tym artykułem o GTM, którego autorem jest jeden z ekspertów Conversion – Paweł Ogonowski. W skrócie: wystarczy, że opracujesz odpowiednie makra, które przechwycą wybrane informacje, a Google Tag Manager będzie już wiedział, czego dotyczy dana podstrona.
Jedną z głównych zalet są oczywiście: prosta obsługa, łatwy dostęp oraz czytelność. Warto także wiedzieć, że wdrożenie Data Layera oznacza też znacznie mniej problemów przy okazji migracji serwisu. Jeśli Twoja organizacja postanowi odświeżyć lub też całkowicie zmodyfikować stronę lub sklep – wcale nie musisz martwić się, że wszystkie dane zostaną stracone, a całą pracę należy zacząć od nowa. Jedyne, o czym wówczas należy pamiętać, to zmigrowanie stworzonej wcześniej warstwy danych.
Dobra wiadomość jest taka, że nie będziesz do tego potrzebować bardzo zaawansowanej wiedzy programistycznej. A tak szczerze, to nawet ta mniej zaawansowana też nie będzie niezbędna ;). Jedyne aspekty, o które musisz zadać, to odrobina wolnego czasu i upewnienie się, że na Twojej stronie jest już wdrożony Google Tag Manager. Gdy to będzie już za Tobą – postępuj zgodnie z poniższą instrukcją.
Oczywiście, najlepiej zrobić to przy okazji instalacji samego GTMa. Na wstępie dopilnuj, o to, aby Twoja warstwa danych spełniała te 3 warunki: była przemyślana, przyszłościowa i skalowalna.
Zastanów się, jakie zmienne będą Ci potrzebne oraz na jakiego typu stronach chcesz je umieścić. Pamiętaj, że zarówno strony kategorii, produktów, jak i artykułów blogowych prezentują inne informacje. Dlatego każda z nich powinna wysyłać też inne dane do GTM.
W tym miejscu kieruj się zasadą “lepiej więcej niż mniej”. Pomyśl, jakie dane nie są Ci obecnie potrzebne, ale mogą przydać się w przyszłości i je także uwzględnij w swoich warstwach.
Przejdź do Google Tag Managera, dodaj nowy Tag i zajmij się jego konfiguracją. Jeśli nie masz jeszcze utworzonego GTMa lub stawiasz w nim swoje pierwsze kroki – rzuć okiem na ten poradnik. Następnie utwórz niestandardowy kod HTML i umieść w nim Twój skrypt (przykład poniżej).
<script>
DataLayer.push ({
‘price’: ‘19,99’
‘category’: ‘obuwie’
‘product’: ‘trampki’
‘size’: ‘45’
});
</script>
Podczas konfigurowania pamiętaj, aby zachować spójność. Nazwa Twojej zmiennej warstwy danych powinna mieć taką samą nazwę również bezpośrednio w kodzie. Szczegółową instrukcję na temat konfiguracji zmiennej znajdziesz w tej instrukcji od Google.
Jeżeli zależy Ci, aby były wywoływane tylko na konkretne typy podstron – pamiętaj o dodaniu takiego warunku w Twoim kodzie. W przypadku artykułów blogowych mogą to być adresy zawierające w sobie /blog/, w przypadku kategorii – wskazujące konkretną grupę produktów (np. /buty-sportowe/), a przy samych produktach – posiadające, chociażby element /product/.
Jednorazowe wdrożenie Data Layera wcale nie oznacza, że Twoja przygoda z warstwami danych ma dobiec końca. Przeciwnie! Musisz mieć na względzie, że raz wdrożona warstwa danych powinna być stale rozwijana i dostosowywana – zarówno do zmieniającego się otoczenia konkurencyjnego, branży, jak i potrzeb Twojej firmy. Aby ułatwić sobie to zadanie – koniecznie zadbaj o stworzenie oraz aktualizowanie dokumentacji.
Doskonały przykład wykorzystania potencjału Data Layera stanowią transakcje w sklepach internetowych. Wówczas może on stanowić łatwy sposób na przesyłanie wszystkich niezbędnych informacji, które dotyczą takich aspektów, jak: nazwa produktu i kategorii, kod SKU, cena produktu, zamówiona ilość, rodzaj płatności, sposób i koszt dostawy, a dodatkowo także: numer samej transakcji, źródło pochodzenia klienta, wysokość podatku.
W takim obszarze doskonale sprawdza się korzystanie z zaawansowanych skryptów, które pozwalają na przesyłanie danych do Enhanced Ecommerce. W takim przypadku Data Layer może agregować kilkanaście, a nawet kilkadziesiąt różnych zmiennych.
Niezwykle istotnym aspektem jest również elastyczność takiego podejścia. W e-commerce bardzo często mamy do czynienia z dziesiątkami, setkami, a nawet tysiącami produktów. Wiele z nich odznacza się różnymi parametrami (np. cenami), DL pozwala nam na wywoływanie reguł w zależności od tego czy produkt spełnia daną cechę, czy nie. Jest to użyteczne w kampaniach marketingowych.
Data Layer to bez wątpienia ogromny krok w stronę lepszej, wygodniejszej i bardziej efektywnej analityki internetowej, która pozwala lepiej rozumieć zachowania klientów i osiągać lepsze wyniki biznesowe. Dzięki odpowiednio zaplanowanym oraz wdrożonym warstwom danych:
Korzystanie z Data Layer, choć tylko pozornie skomplikowane i problematyczne, to tak naprawdę najprostsza i najszybsza droga do tego, aby wprowadzić korzystanie z Google Tag Managera na zdecydowanie wyższy poziom, a co za tym idzie – ułatwić i przyspieszyć Twoją codzienną pracę związaną z analizą danych.
Potrzebujesz wsparcia przy dodaniu i konfiguracji Data Layera w obrębie Twojej strony internetowej?
Nie czekaj i już dziś skorzystaj z niezobowiązujących konsultacji z ekspertami Conversion. Pomożemy Ci zdefiniować Twoje potrzebny związane z gromadzeniem i przesyłaniem odpowiednich danych, a następnie z chęcią zajmiemy się również wdrożeniem niezbędnych zmian, dzięki którym wykorzystasz możliwości, jakie dają Ci odpowiednio skonfigurowane warstwy danych.
The post Data Layer (warstwa danych) – czym jest, do czego służy, jak wykorzystać? first appeared on Conversion.
Dzisiaj na naszym blogu gościnny post Bartosza Mozyrko, CEO Usability Tools. Bartosz szczegółowo przedstawi ideę i sposób wykorzystania w praktyce zdalnych metod testowania użyteczności.
Czym są testy użyteczności?
Zalety testów zdalnych
Jak to wygląda?
Jak przygotować?
Po co badamy?
Kogo oraz jak zapytamy?
O co zapytamy?
Jakie dane zaprezentujemy?
Podsumowanie
Do połowy lat 90., badania użyteczności (usability) były domeną zaawansowanych laboratoriów, co sprawiało, że mogły sobie na nie pozwolić wyłącznie duże firmy. Wraz z rozwojem internetu stało się konieczne uproszczenie tych badań, tak aby stały się one dostępne dla każdego. Było to powodem rozwoju zdalnych metod testowania użyteczności.
Testy użyteczności pozwalają na wykrycie obszarów, które utrudniają realizację potrzeb użytkownika oraz wpływają negatywnie na jego satysfakcję w trakcie korzystania ze strony.
Zasada działania jest prosta: obecni lub potencjalni użytkownicy starają się zrealizować różnego rodzaju zadania według opracowanego wcześniej scenariusza. Na podstawie obserwacji zachowań wyciągane są wnioski będące podstawą wprowadzanych zmian. Rezultat? Zwiększenie współczynnik konwersji oraz zadowolenia użytkownika.
Testy użyteczności są również doskonałym źródłem inspiracji dla testów A/B, zwiększają bowiem ich skuteczność („A/B Testing is like teenage sex: everyone talks about it, nobody really knows how to do it, everyone thinks everyone else is doing it, so everyone claims they are doing it”).
Istnieje wiele sposobów testowania użyteczności. Część z nich wymaga bezpośredniego kontaktu z użytkownikiem. Przeprowadza się je zazwyczaj w specjalnie do tego celu przystosowanych pracowniach badawczych.
Czasem, przez wzgląd na ograniczenia finansowe lub krótki terminy realizacji projektów, nie mamy możliwość przeprowadzenia kompleksowych badań z udziałem użytkowników. W takich sytuacjach, można wspomóc się narzędziami do testów użyteczności przez przeglądarkę – testami zdalnymi.
Zdalne testy użyteczności to metoda prowadzenia badań zakładająca, że moderator oraz osoba badana są oddzieleni od siebie przestrzennie i/lub czasowo. Dzięki temu, można uzyskać bardzo szczegółowe informacje na temat zachowań ludzi w naturalnym dla nich otoczeniu.
W dalszej części tekstu opiszę jak można przygotować i przeprowadzić zdalne testy scenariuszowe.
Testy użyteczności to metoda badawcza, w której rzeczywiście użytkownicy wykonują wcześniej określone zadania w interfejsie (np. strona www, aplikacja) – a badacze obserwują, gdzie napotykają trudności. Celem jest odkryć, co działa intuicyjnie, a co wymaga poprawy, zanim projekt wejdzie w produkcję lub zostanie udostępniony szerzej.
Dzięki testom użyteczności wychwytujesz realne problemy, które użytkownik napotyka – te, których samemu byś nie dostrzegł. Badania te pomagają zmniejszyć porzucenia (np. koszyka w sklepie), poprawić intuicyjność interfejsu i zwiększyć konwersję. Nawet przy niewielkiej grupie uczestników (ok. 5 osób) można znaleźć większość krytycznych błędów UX.
Zdalne badania pozwalają użytkownikom korzystać z ich własnych komputerów, dzięki czemu mogą pracować w ich naturalnym środowisku, co zwiększa jakość uzyskanych danych. Dodatkowe zalety to:
Zdalne testy można było przeprowadzić „bezinwazyjnie”, czyli bez konieczności podpinania jakiegokolwiek skryptu pod strony, co doskonale sprawdza się np. przy testach porównawczych (benchamarkingowych).
Użytkownikom, poprzez interaktywny „interfejs” zawarty w postaci poziomej ramki, zostają zaprezentowane kolejno instrukcje.
Po zakończeniu zadania informacje takie jak: procent osób, które ukończyły zadanie, strony z których „odpadali” użytkownicy oraz czas potrzebny na wykonanie zadań zostają zwizualizowane w postaci interaktywnych statystyk. Po każdym zadaniu istnieje możliwość wstawienia pytań ankietowych (doskonały sposób na zdobycie dodatkowych informacji i sugestii odnośnie tego jak można usprawnić stronę).
Testy zdalne to doskonały sposób na sprawdzenie hipotez powstałych na podstawie wcześniejszych badań z użytkownikami i audytów eksperckich.
Można wyróżnić następujące etapy przeprowadzania zdalnych testów użyteczności:
Pierwszym krokiem jest zdefiniowanie „problemu badawczego”, czyli określeniu celu przeprowadzenia testu. Konieczne jest jednoznaczne określenie, czego chcemy się dowiedzieć i jakie są nasze założenia. Cel główny powinien zostać rozbity na kilka celów szczegółowych (odzwierciedlonych w pytaniach testowych) wyrażonych w zrozumiały i mierzalny sposób.
W trakcie ustalania celów dobrze jest mieć na uwadze główne aspekty użyteczności:
Po przeprowadzeniu klasycznych testów użyteczności dla jednego z klientów odkryliśmy, że część osób nie zdaje sobie sprawy, iż oferowane przez sklep meble można zakupić w promocji – „100 zł taniej!”.
Jak wielki odsetek osób odwiedzających stronę nie była świadoma promocji? Nie byliśmy pewni, więc postanowiliśmy sprawdzić jak duży jest to problem. Zaprosiliśmy do testu 1000 osób, zrekrutowanych przez pop-up umieszczony na stronie klienta. W instrukcji poprosiliśmy o znalezienie wybranego mebla, następnie prosząc o podanie informacji o cenie.
Po 24 godzinach udało nam się zebrać wyniki (w badaniu wzięło udział 1600 osób, z czego 1000 ukończyło wszystkie zadania – tylko te wyniki były brane pod uwagę).
Okazało się, że jedynie 20% osób potrafiło podać poprawną cenę produktu. Oznacza to, że 800 potencjalnych klientów nie było świadomych promocji.
Na podstawie rezultatów badań, na wszystkich kartach produktu zmieniono sposób informowania o promocji.
Istnieje wiele sposobów na pozyskanie osób do testów. Jakość wyników zależy przede wszystkim od doboru grupy, która będzie reprezentatywna, czyli odzwierciedlała docelowych odbiorców serwisu lub usługi. Osoby do testów zdalnych można zrekrutować przez:
Poznańska agencja marketingowa Interactive Solutions postanowiła zaangażować użytkowników w proces redesignu strony marki Aussie (produkty do pielęgnacji włosów). Agencja zdecydowała się skorzystać z integracji narzędzi zdalnych z międzynarodowym panelem badawczym i wybrała grupę respondentów wedle kluczowych kryteriów demograficznych (kraj, płeć, wiek, zatrudnienie).
W trakcie testów zadawano ogólne pytania dotyczące zwyczajów zakupowych konsumentów (ankieta). Następnie zmierzono czas potrzebny na zapoznanie się z zawartością różnych wersji strony (zdalne testy scenariuszowe). Na końcu poproszono o ocenę atrakcyjności layoutu (click testing – nie mylić z click trackingiem). Wypuszczenie badania, analiza wyników wraz z przesłaniem rekomendacji do klienta zajęło 24h.
W mojej opinii, najtrudniejszą częścią przygotowań do testowania jest poprawne sformułowanie zadań oraz pytań ankietowych. Zadania powinny odnosić się do najczęstszych czynności, jakie użytkownicy wykonują na stronie. Co więcej, muszą być zrozumiałe przez osoby biorące udział w testach. Źle sformułowane pytania negatywnie odbiją się na jakości pozyskanych danych i trafności wyciągniętych wniosków.
Przeważnie schemat pytania do testów scenariuszowych brzmi następująco:
Załóżmy, że [wprowadzenie] i chciałbyś zrealizować [potrzeba/cel]. Sprawdź czy na stronie znajduje się [miejsce/produkt], który pozwoli Ci zrealizować [potrzeba/cel].
Bardzo dobry artykuł o typach zadań w testach użyteczności oraz jak poprawnie je formułować znajdziesz na blogu UXbite.
Testy scenariuszowe można wzbogacić pytaniami ankietowymi. Uzyskane odpowiedzi pozwolą lepiej zrozumieć zachowania użytkowników, cele jakie sobie stawiają, źródła ich potrzeb. Przykładowe pytania:
Ważne – pilotaż!
Zawsze sprawdź scenariusz przed testami przepuszczając go przez kilkanaście osób. Dowiesz się, czy zadania są zrozumiałe, czy w trakcie ich wykonywania przez użytkowników nie wystąpiły techniczne problemy (np. zmiana layoutu strony), czy o czymś nie zapomniałeś. Pozwoli Ci to zidentyfikować ewentualne problemy i potencjalnie zaoszczędzić kilka godzin pracy.
Dobrze zaplanowane i przeprowadzone testy pójdą na marne, jeśli ich wyniki nie zostaną umiejętnie przekazane. Dobrze przygotowany raport powinien być napisany prostym językiem, odnosić się do zebranych wyników oraz – co bardzo ważne – zawierać wnioski z badań.
Warto pamiętać, że odbiorcy naszego raportu mogą być różni (developerzy, management, graficy). Nie dla każdego słownictwo branżowe, specjalistyczne bądź użyte skróty będą zrozumiałe. Kilkuletnia praktyka zawodowa pokazuje, że raport krótszy jest lepszy od dłuższego (jest on również trudniejszy do stworzenia)
Na szczęście w przypadku testów zdalnych większość wykresów i grafik wystarczy jedynie przekleić do prezentacji.
Na zakończenie sekcji anegdotka – Johann Wolfgang Goethe napisał kiedyś do jednego z przyjaciół całkiem spory list. Na końcu w postscriptum dopisał jeszcze:
„Szanowny panie hrabio, przepraszam za tak długi list, ale nie miałem czasu, żeby sformułować go krócej.”
Zdalne testy pomagają spojrzeć na Twoja swoją stronę z punktu widzenia użytkownika i wyciągać wnioski na podstawie obserwacji jego zachowań. Twarde dane ilościowe powiedzą nam jak bardzo coś nie działa. Wzbogacenie testów o dane jakościowe (ankiety: opinie, komentarze, preferencje) pozwoli zrozumieć dlaczego.
Istnieje wiele narzędzi, które pozwalają testować zdalnie. W przypadku zdalnych, scenariuszowych testów użyteczności warto wyróżnić:
Każde z nich ma swoje mocne i słabe strony.
Osobiście, lubię łączyć testy zdalne z moderowanymi. Na często zadawane pytanie „które są lepsze” odpowiadam – to zależy. Testy zdalne pozwalają zbadać wąski wycinek omawianych zagadnień bardzo dokładnie. I chociaż nie są w stanie zastąpić klasyczny testów użyteczności, mogą być ich doskonałym uzupełnieniem. Od kilku lat znajdują coraz szersze zastosowanie z uwagi na bardzo niski koszt oraz szybki czas uzyskania wyników.
Mam nadzieję, że przedstawione powyżej przykłady będą przydatne w Twojej pracy i pomogą Ci w przygotowaniu pierwszego testu.
Jeśli chcesz zyskać przewagę konkurencyjną dzięki zwiększaniu współczynnika konwersji oraz zwiększyć zysk swojej witryny bez wydawania kolejnej złotówki na reklamę, skontaktuj się z Conversion by poznać nasze podejście. Więcej o optymalizacji współczynnika konwersji dowiesz się pobierając przygotowane przez nas bezpłatne poradniki, raporty oraz case studies. A jeśli dopiero zaczynasz przygodę z ecommercem i chcesz urzeczywistnić swój pomysł na sklep internetowy, to daj znać – przeprowadzamy również wdrożenia Magento i chętnie zmierzymy się z nowym wyzwaniem!
CEO @ UsabilityTools.com – jednej z największych na świecie platform SaaS dedykowanej poprawie konwersji i użyteczności stron internetowych.
Fan modelów I funnelów. Czasami pisze po polsku, czasami po angielsku. Uwielbia dzielić się wiedzą.
The post Jak przeprowadzić szybkie i tanie testy użyteczności przez przeglądarkę? first appeared on Conversion.