Statystyki serwisu internetowego – Twoje źródło wiedzy o użytkownikach
To w jakim stopniu Twoja witryna realizuje postawione przed nią cele widać już na pierwszy rzut oka – np. po liczbie leadów sprzedażowych. Ale skąd się bierze ten wynik? Jakie są słabe strony serwisu i co można zoptymalizować?
Na te i inne pytania znajdziesz odpowiedzi analizując zachowania użytkowników za pomocą narzędzi do monitorowania ruchu w serwisie internetowym.
Autor zdjęcia: Marcin Wichary
Narzędzia
W młodzieńczych latach World Wide Web, kiedy w Polsce jeszcze niewiele firm miało stronę WWW, analityka internetowa ograniczała się do licznika umieszczonego w stopce serwisu. Wartość licznika zwiększała się przy każdych odwiedzinach i pokazywała ich liczbę od początku istnienia serwisu. Czyli był to raczej gadżet niż informacja, którą można by w jakikolwiek sposób wykorzystać.
Później webmasterzy zainteresowali się statystykami serwerów internetowych, z których można było dowiedzieć się, ile w danym czasie było wywołań, pobrań plików, wyświetleń stron oraz wizyt. Można też było uzyskać informacje na temat popularności poszczególnych podstron oraz bardzo ogólne dane o użytkownikach.
Co ciekawe, wciąż spotykam właścicieli stron internetowych, którzy opierają swoją wiedzę o ruchu w serwisie wyłącznie na statystykach serwera.
Wraz ze wzrostem popularności Internetu oraz rozwojem technologii zaczęły pojawiać się wyspecjalizowane aplikacje do monitorowania ruchu (np. stat24.com). Od tej pory wystarczy wkleić kawałek kodu na swoją stronę, żeby przy każdym jej uruchomieniu zewnętrzna aplikacja zbierała i zapisywała dane o wizycie i użytkowniku. Potem wystarczy się zalogować do panelu administracyjnego dostawcy usługi, żeby generować różnego rodzaju raporty.
Niekwestionowanym liderem wśród systemów analityki internetowej jest Google Analytics, który według szacunków – działa na blisko 80% stron internetowych na całym świecie. To potężne a jednocześnie darmowe (do 10.000.000 odsłon miesięcznie) narzędzie. Jednym ze źródeł jego popularności jest fakt, że często jego stosowanie jest wymuszane – np. przez reklamodawców.
Mimo, że Google Analytics to oprogramowanie nieustannie rozwijane, istnieją rozwiązania, które są w stanie dostarczyć jeszcze więcej informacji o użytkownikach. Google Analytics koncentruje się na wyświetleniach stron (pageviews), Mixpanel bazuje na konkretnych zdarzeniach (czynnościach wykonanych przez użytkowników) a KISSmetrics pozwala monitorować konkretnych użytkowników (person-centric data).
Istnieją też narzędzia, których dane mogą być uzupełnieniem podstawowych statystyk – przykładowo Crazy Egg to mechanizm typu “heatmap“, rejestrujący kliknięcia na stronie i pokazujący, które elementy są częściej klikane a które rzadziej.
Źródło: Blog Crazy Egg
Idąc dalej tym tropem dochodzimy do badań użyteczności serwisów internetowych, wykorzystujących między innymi technologię “eye tracking” (okulografia), czyli śledzenia wzroku użytkowników grupy badawczej za pomocą specjalistycznych rejestratorów video. Ale to już temat na osobny artykuł.
Dane
Czego można się dowiedzieć analizując poszczególne dane na przykładzie Google Analytics (dane odniesione do wybranego zakresu czasowego):
Wartości podstawowe
Odwiedziny: ile razy użytkownicy odwiedzili serwis (łączna liczba wizyt) – główna miara popularności serwisu, ale nie można jej rozpatrywać bez informacji o liczbie użytkowników (patrz niżej).
Odsłony: ile nastąpiło wyświetleń podstron (w czasie jednych odwiedzin może nastąpić wiele odsłon, bo użytkownik może obejrzeć wiele podstron) – to wartość obrazująca stopień konsumpcji contentu znajdującego się na stronie.
Unikalni użytkownicy: ilu użytkowników odwiedziło serwis (jeden użytkownik może wykonać wiele odwiedzin) – ważne uzupełnienie liczby odwiedzin w ocenie popularności serwisu.
Zachowania użytkowników
Strony/odwiedziny: ile podstron przypadało (średnio) na jedną wizytę – obrazuje, w jakim stopniu udało się zainteresować użytkownika contentem.
Średni czas trwania odwiedzin: ile czasu spędził uśredniony użytkownik w serwisie – uzupełnienie wskaźnika strony/odwiedziny pokazujące, czy użytkownik rzeczywiście zapoznał się z treściami serwisu, czy tylko “przeklikał” przez kilka podstron.
Współczynnik odrzuceń: jaki odsetek wizyt zakończył się w krótkim czasie, bez przechodzenia na inne podstrony serwisu – to miara jakości ruchu internetowego, czyli w jakim stopniu użytkownicy pokrywali się z targetem serwisu.
% nowych odwiedzin: ile spośród wizyt zostało wykonane przez użytkowników, którzy odwiedzili serwis po raz pierwszy – wysoka wartość tego wskaźnika świadczy o niskiej lojalności użytkowników, z których niewielu wraca do serwisu.
Częstotliwość odwiedzin: jak wielu użytkowników ile razy wróciło do serwisu – szczegółowe uzupełnienie wskaźnika nowych odwiedzin.
Zaangażowanie (czas trwania i głębokość): jak wielu użytkowników ile czasu spędziło w serwisie i ile stron obejrzało – rozwinięcie średniego czasu trwania wizyty oraz wskaźnika strony/odwiedziny.
Przepływ użytkowników: popularność różnych ścieżek podróżowania użytkowników po serwisie – wiedząc, skąd dokąd użytkownicy przechodzą, można zoptymalizować architekturę serwisu tak, żeby trafiali dokładnie tam, gdzie chcemy.
Dane demograficzne
Użytkownicy serwisów internetowych są w dużej mierze anonimowi (pomijam tych, którzy się rejestrują i logują). W kwestii demografii możemy dowiedzieć się tylko, jakim językiem się posługują oraz gdzie się znajdowali odwiedzając serwis (kraj i miejscowość).
Technologia
Ważne informacje pod kątem optymalizacji technicznej serwisu znajdują się w takich danych jak: wykorzystywany system operacyjny, rodzaj i wersja przeglądarki, rozdzielczość ekranu, typ urządzenia (desktop/tablet/smartfon) oraz w przypadku urządzeń mobilnych również marka i model urządzenia.
Źródła odwiedzin
Bardzo ważna informacja – skąd pochodzi ruch internetowy w serwisie, czyli skąd przychodzą użytkownicy.
W ujęciu ogólnym wizyty w serwisie mogą pochodzić z następujących źródeł:
- odwiedziny bezpośrednie – kiedy użytkownik otwiera stronę wpisując jej URL w przeglądarce (lub klikając URL znajdujący się np. w emailu)
- sieć wyszukiwania – wizyty po kliknięciu linku w wyniku wyszukiwania (głównie w Google)
- ruch z witryn odsyłających – czyli z linków znajdujących się na innych stronach internetowych
- kampanie – ruch z kampanii internetowych, dla których włączono monitorowanie kampanii (patrz rozdział “Śledzenie wyników” w artykule “Anatomia landing page – czyli jak przechwycić użytkownika”).
Ruch z sieci wyszukiwania możemy analizować dzięki liście słów kluczowych – chociaż w ostatnich latach zostało to mocno ograniczone – Google tylko w niektórych sytuacjach przekazuje informacje o zapytaniach wpisanych do wyszukiwarki. Pozostałe (niestety większość) są oznaczone jako “(not provided)“.
Za to listę witryn odsyłających otrzymujemy w całości – dzięki temu wyraźnie widać, które z linków przyniosły nam najwięcej użytkowników.
W przypadku kampanii raporty zawierają analizę tych danych, które zostały przekazane w klikanych URLach – najczęściej są to nazwa kampanii, nośnik reklamowy oraz źródło ruchu.
Treści
Content przyciąga użytkowników z Google. Content wpływa na ilość czasu spędzonego w serwisie. W końcu content sprawia, że użytkownicy wykonują pożądaną czynność w serwisie (albo jej nie wykonują).
Analiza popularności poszczególnych treści – oraz rankingi stron docelowych (na których lądują użytkownicy) i stron wyjścia (na których użytkownicy kończą oglądanie serwisu) dostarcza cennych informacji o tym, czego użytkownicy oczekują i co doceniają.
Konwersje
Jak napisałem na samym początku, zazwyczaj wiemy, jak skutecznie serwis realizuje swoje cele, bo to przecież jest najważniejsze i sami tego pilnujemy (chociaż wciąż zdarzają się firmy, które nie odpisują na zapytania z www…). Ale oprogramowanie analityczne to bardzo ułatwia – i dodatkowo pozwala zestawiać z innymi danymi, dzięki czemu wiemy, jaki jest współczynnik konwersji i co na niego wpływa.
Raporty wizualizują też ścieżki, którymi użytkownicy dochodzą do konwersji – widzimy, gdzie najczęściej zaczynają oglądać serwis, przez jakie podstrony przechodzą i skąd najczęściej trafiają do upragnionego formularza.
Fajnym “gadżetem” jest możliwość obserwowania ruchu na stronie w czasie rzeczywistym – można podglądać, ilu użytkowników w danej chwili jest w serwisie i co dokładnie robią.
Alerty
Bardzo przydatną funkcjonalnością, o której nie każdy wie, są alerty emailowe. Można zdefiniować sobie ich dowolną liczbę, określając warunki typu “jeżeli wielkość ruchu z USA spadnie o 20%” albo “
Jak znaleźć alerty w panelu Google Analytics: Administrator > Konto > Profil > Alerty niestandardowe.
Zaawansowane analizy
Pakiety monitorujące ruch internetowy – a w szczególności Google Analytics – oferują analitykom sporo dodatkowych możliwości, które wymagają trochę więcej wiedzy a przynajmniej spędzenia więcej czasu w panelu. Pozwalają monitorować funkcje e-commerce, przeprowadzać testy A/B i generować różnego rodzaju niestandardowe raporty na podstawie zgromadzonych danych.
Istnieje nawet możliwość przekazywania do Google Analytics danych o zdarzeniach, które nie mogą zostać zarejestrowane przez mechanizm śledzący ruch.
Analityka internetowa to cała dziedzina wiedzy, dodatkowo bardzo dynamiczna. Żeby wykorzystywać pełne możliwości pakietów analitycznych trzeba się z w tym wyspecjalizować i ciągle uczyć nowych rzeczy. Dlatego coraz częściej właściciele serwisów internetowych zlecają na zewnątrz przygotowywanie raportów a przede wszystkim interpretowanie wyników i wyciąganie wniosków.
Inne źródła danych
Dla analityki serwisu internetowego niemałe znaczenie mają dane zewnętrzne. Mogą to być na przykład statystyki kampanii przekazane przez sieć reklamową lub dom mediowy, dane z serwisów społecznościowych, statystyki użytkowników kanałów RSS, otwarcia i kliknięcia mailingów itd.
Do konieczności mierzenia ruchu w serwisie internetowym nikogo nie trzeba przekonywać. Skuteczność każdego narzędzia – nie tylko marketingowego – musi być kontrolowana.
Ważne jest, żeby już na samym początku poświęcić analityce trochę uwagi – wybrać dobre oprogramowanie i upewnić się, że zostało prawidłowo zainstalowane. Jeżeli mamy pewność, że dane są gromadzone i że rejestrujemy dużo informacji o użytkownikach – nie będziemy żałować za kilka miesięcy, kiedy potrzebna będzie dokładna analiza.