niedziela, 16 stycznia 2011

Mierzenie się z wizerunkiem marki w sieci.

Stara maksyma zarządzania mówi, że ‘You Can't Manage What You Don't Measure’. Faktycznie, trudno zarządzać tym, czego mierzyć nie potrafimy – odnosi się to również do wizerunku marki w internecie.

Śledzenie opinii na temat marki oraz czynne kształtowanie jej wizerunku w sieci to wciąż nowe i fascynujące wyzwanie dla marketerów, agencji badawczych, agencji reklamowych, PR-owych i właścicieli mediów. Wykorzystywane są tu zarówno doświadczenia z dawnych sposobów śledzenia publikacji w mediach (np. press clippings), jak i klasyczne metody i techniki badań konsumenckich (w tym tzw. „etnografia wirtualna”).

Od lat toczone są debaty na temat sposobów i metod pomiaru wpływu działań reklamowych prowadzonych w mediach pre-internetowych (telewizja, prasa, radio, outdoor) na wizerunek marki. Agencje badawcze oferują wiele zaawansowanych narzędzi stałego śledzenia wpływu działań marketingowych na kondycję brandów. Oparte są one na (potwierdzonym doświadczalnie) założeniu, że pomiędzy intensywnością działań marketingowych (reklama, promocje cenowe, działania na opakowaniu, zmiany w dystrybucji) a czynnikami takimi jak: świadomość marki, jej wizerunek, czy intencja zakupu istnieją zależności dające się wyrazić funkcją statystyczną.

Wystarczy zatem gromadzić i porównywać jednocześnie dwa rodzaje danych: z jednej strony, te związane z podejmowanymi akcjami marketingowymi (wydatki mediowe, ‘share of voice’, ilość GRP itp.), z drugiej zaś te opisujące odzew ze strony konsumentów (deklaracje dotyczące znajomości marki, zapamiętywalności, atrakcyjności motywów reklamowych, cech przypisywanych marce, deklarowanej chęć zakupu, użytkowania produktu, itp.).
Pomimo rozbudowanej i wciąż udoskonalanej aparatury pomiarowej (w zakres której wchodzą coraz zmyślniejsze modele ekonometryczne) interpretacje wyników tego rodzaju badań wciąż budzą wiele kontrowersji. Nawet niewielkie zmiany w metodologii zakłócać mogą ciągłość pomiaru lub utrudniać porównywalność wyników pochodzących z różnych okresów. Często istnieje również dyskusyjnie duży rozdźwięk pomiędzy tym, co dzieje się w „głowach konsumentów” pobudzanych przeróżnymi komunikatami (których intensywność wyrażać można liczbowo), a tym co notuje marketer w odniesieniu do faktycznie realizowanej sprzedaży.

Wydaje się jednak, że metody takie pozwalają tworzyć w miarę użyteczne uogólnienia na temat sensowności i skuteczności obierania poszczególnych taktyk czy strategii marketingowych – to ostatnie, wyłącznie w przypadku, gdy ciągły pomiar prowadzony jest przez wiele lat.

Natura działania mediów ‘pre-internetowych’ sprawia, że od chwili podjęcia danej akcji (np. uruchomienia komunikacji marketingowej) do momentu zgromadzenia danych na temat jej skuteczności (nie wspominając o przełożeniu tych danych na wiedzę...) a następnie reakcji wynikającej z oceny ich skuteczności (zmiany komunikatu, intensyfikacji wydatków itp.) mijał dosyć długi czas. Bywały to najczęściej miesiące, w najlepszym przypadku tygodnie. Oczywiście w tym samym czasie następować mogły istotne zmiany w otoczeniu rynkowym czy nastrojach konsumenckich przez co wnioski płynące z obserwacji (obrazu przeszłości) stawały się nieadekwatne do sytuacji aktualnej.

Internet zmienia reguły gry nie tylko w odniesieniu do sposobów komunikowania się z konsumentami, ale również co do sposobów mierzenia ich odzewu na działania marketingowe. W tym przypadku możliwy jest dużo szybszy feedback. Wszystkie komunikaty mogą być błyskawicznie zmieniane i dostosowywane do „głosu konsumenta” przy relatywnie niskich kosztach.
W przypadku pomiarów internetowych powstaje także pokusa by internautów (traktowanych jako źródło informacji) nie tylko pytać o zdanie, czy też obserwować ich reakcje (złożenie zamówienia, zakup), ale również „podsłuchiwać” i „podglądać” w nieformalnym otoczeniu. Miałoby to gwarantować szybsze dotarcie do „prawdziwych”, „autentycznych” opinii na temat marek czy produktów oraz możliwość bezpośredniego wpływania na te opinie zależnie od ich charakteru. Niezwykle cenni mogliby się okazywać w tym przypadku liderzy opinii czy „naturalne autorytety”. Pomijając dywagacje na temat etyczności takich działań czy oceny ich jako cynicznej manipulacji warto się bliżej przyjrzeć kilku kwestiom związanym z monitoringiem opinii wyrażanych na temat marek w internecie.

Pobieżny przegląd „narzędzi” służących do takiego monitoringu dowodzi ich ubogości. Po pierwsze, wbrew pozorom (kreowanym poprzez nadawanie im „profesjonalnie” brzmiących nazw) są to najczęściej dosyć proste algorytmy rejestrujące częstotliwość pojawienia się nazwy marki, czy też jej występowania w określonych miejscach lub „kontekście” (do określenia tego warto jeszcze powrócić...), po drugie większość dostępnych rozwiązań uniemożliwia „głębsze” badanie internetowych przestrzeni docierając jedynie w sfery „publicznie dostępne” czyli tam, gdzie zaczynają się granice sieciowej prywatności (lub tego, za co trzeba zapłacić).

Opinie internautów mogą być mierzone na zasadzie raportowania miejsca i liczby pojawiających się wypowiedzi (opinii, komentarzy) lub poprzez monitorowanie udziału komentarzy zaklasyfikowanych jako szczególnie nas interesujące w ilości wszystkich pojawiających się wypowiedzi (zarówno w stosunku do konkretnych miejsc, jak i ogółu wypowiedzi).

Istnieją ponadto zaawansowane narzędzia obrazujące (często przy pomocy wyrafinowanych wizualizacji) sieci połączeń poszczególnych użytkowników, całych społeczności i odbywających się pomiędzy nimi „przepływów” opinii.

Monitorowanie opinii na temat marek i produktów na podstawie wypowiedzi (utterance) internautów sprowadzają się zatem najczęściej do ustalania tego:
- co zostało w ogóle powiedziane (treść wpisu, komentarza),
- gdzie zostało opublikowane (adres, strona, domena),
- kiedy zostało tam zamieszczone (data publikacji).

Model „co, gdzie, kiedy” choć na pozór ubożuchny, pozwala (teoretycznie) wyznaczyć „konTEKST” wypowiedzi (pod uwagę brane są głównie wypowiedzi w formie tekstu (z analizą obrazu, filmu, czy dźwięku monitorujący mają wciąż spory kłopot...). Przy założeniu, że miejsce pojawienia się danego komentarza istotniejsze jest dla obserwującego niż to, co ktoś powiedział (np. konkretne forum internetowe można potraktować zbiorczo jako jednego „nadawcę”) ustalenie kontekstu (point of reference) wypowiedzi wydaje się w miarę prostym zadaniem.
Okoliczności w jakich pojawia się wypowiedź okażą się trudniejsze do opisania, jeśli przyjąć że np. fakt, z jakiego urządzenia internauta wysłał komentarz (komórka, iPhone, Ipad itp.), MIEJSCE, w którym się wówczas znajdował lub czas KIEDY tego faktycznie dokonywał (od momentu wysłania komentarza, do chwili jego publikacji upłynąć mógł jakiś czas) wydają się równie ważne dla ustalenia, SENSOWNOŚCI czy ISTOTNOŚCI danej wypowiedzi (zapomnieć można na razie o jej PRAWDZIWOŚCI) .

Sensowność wypowiedzi (rozumianą na razie zdroworozsądkowo) określić można (???) np. badając strukturę badanego języka (pamiętając, że słownik internautów niekoniecznie = słownik języka polskiego...). Przykładowo, wypowiedź w rodzaju „Marka ABC działa niezawodnie” może być na tej zasadzie zaklasyfikowana jako sensowna, a wypowiedź w rodzaju: „obok jechać ABC drągiem” uznana zostanie (zgodnie z regułami danego języka) za bezsensowny i nieistotny bełkot.

Problem pojawi się jeśli zaistnieje chęć analizowania struktur łączenia się leksemów. Dla uproszczenia (a może w tym przypadku „indeksacji”?) wypowiedzi „Marka ABC działa niezawodnie” można ją zapisać jako: {marka, ABC , działać, dobrze}. Analiza sensowności takich zdań jedynie na podstawie relacji pomiędzy leksemami może się jednak okazać zadaniem karkołomnym (jakiej zasady lub zasad używać do klasyfikowania wypowiedzi w rodzaju: {obok, jechać, ABC, drąg}?).
Chcąc ten problem obejść, założyć można że... KAŻDA wypowiedź , której znalazła się interesująca nas nazwa – w tym przypadku marka ABC - jest sensowna [sic!]. Ba, im dłuższa będzie ta wypowiedź, tym bardziej z naszego punktu widzenia TREŚCIWA.
Przyjmując powyższe (ryzykowne) założenia gromadzić można wypowiedzi na temat interesującej nas marki a następnie zastanawiać się co właściwie z tego wszystkiego wynika.

Teoretycznie możemy je np. pogrupować na zbiory wypowiedzi pochodzących z miejsc o różnej wadze dla naszej marki (np. wyodrębniamy miejsca „opiniotwórcze”, „te w których rodzą się mody”, „zupełnie obojętne dla reputacji marki” itp.). Z drugiej strony możemy podzielić same miejsca na te, w których mamy wpływ na pojawiającą się treść (np. możemy tam „sami” zamieszczać komentarze) lub te w których nic albo niewiele jesteśmy w stanie zdziałać (np. te, w których grasuje wiele trolli opłacanych przez konkurencję).

Wypowiedzi możemy z kolei poklasyfikować na te o przyjaznym dla nas charakterze („ABC jest super!”, „Zawsze kupię ABC!”), jak i te, które wydają nam się niesprawiedliwe lub wręcz krzywdzące (np. „ABC się psuje centralnie!”, „Omijaj ABC szerokim łukiem!”).

Teraz wystarczy śledzić wizerunek naszej marki monitorując:
- widoczność marki (ilościowo),
- ilość związanych z marką komentarzy (ilościowo)
- rodzaj i charakter komentarzy (jakościowo),
- rodzaj miejsca gdzie zamieszczane są komentarze (jakościowo).

Każdy z powyższych aspektów monitoringu można rzecz jasna zautomatyzować. Pozostaje jednak wiele wątpliwych kwestii związanych z feedbackiem. Założyć można, że np. w miejscu o dużej wadze i możliwości wpływu pojawia się w krótkim okresie wiele wypowiedzi świadczących o negatywnym odzewie odbiorców. Powstaje wówczas problem wyboru taktyki zmiany treści komunikatów lub intensywności / ilości publikacji. Próba generowania wielu komunikatów o pozytywnym charakterze lub bezpośrednie odpowiadanie na ataki internautów może przynieść trudne do przewidzenia konsekwencje. Choć teoretycznie zwiększać się będzie „widoczność” marki, to niekoniecznie będzie to związane z pozytywnym wokół niej klimatem (np. odbiorcy mogą traktować wzrost pozytywnych opinii jako prowokację, na którą należy odpowiedzieć jeszcze większą agresją...).

Inna kwestia to wspomniana PRAWDZIWOŚĆ i SENS wypowiedzi na temat marki publikowanych na forach internetowych, grupach dyskusyjnych, mikroblogach itp. Opinie pojawiające się w internecie nie są przecież tożsame z opiniami ogółu konsumentów na temat marki. Przede wszystkim wątpliwa wydawać się może tzw. reprezentatywność sądów i stwierdzeń pojawiających się w sieci.
Należałoby zatem znaleźć sposób ustalenia: na ile to, co mówią (a właściwie piszą) internauci w sieci zgodne jest z tym, co mówią w ogóle, jak to wszystko ma się do tego, co myślą i co naprawdę robią.
Ale o tym może innym razem.

Tak na marginesie: powyższy uproszczony model monitoringu wizerunku marki w sieci jest jednym z wielu możliwych. Czytelników, którzy zidentyfikowali w tekście więcej niż siedem absurdów, lub uznali, że temat wart jest drążenia uprzejmie prosi się o kontakt.

Creative Commons License
Ten utwór jest dostępny na licencji Creative Commons Uznanie autorstwa-Użycie niekomercyjne-Bez utworów zależnych 3.0 Polska.

1 komentarz:

  1. Marku, bardzo ciekawy wpis, przeczytałam od deski do deski. Odpowiem jako współautorka jednego z rozwiązań do monitoringu internetu i autorka doktoratu dotyczącego metod pomiaru efektów działań PR.

    Co do rozwiązań monitoringu internetu - tak działają, jaka jest metoda badawcza. Jeśli mamy do czynienia z algorytmami, czyli analizą danych, to z definicji ona daje dane dość uproszczone i ogólne. Tutaj brakuje jeszcze informacji, że owszem, dostawcy stosują jakieś algorytmy, ale uboga jest podstawa, na jakiej te algorytmy stosują (na przykład, czy jeśli nazwa firmy znajdzie się częściej w tytule posta, to czy czytający łatwiej zapamięta firmę? nie ma badań eksperymentalnych na temat czytania i zapamiętywania informacji zamieszczonych w sieci, więc wszystko opiera się na domysłach i przypuszczeniach - i tu jest największa słabość, nie zaś to, że algorytm jest prosty). Można ją pogłębiać innymi metodami badawczymi - ostatnio dość mocno rozwija się nurt badań jakościowych, także w internecie. Ale sama analiza danych ma swoje ograniczenia jako metoda badawcza i o tym warto pamiętać.

    Co do ograniczeń prawnych - jeśli dany użytkownik zastrzega sobie prywatność, nie widzę możliwości, aby tego nie respektować.

    Tworzenie automatycznej analizy treści wypowiedzi internetowe, jest trudne, tak samo jak stworzenie automatu do analizy wydźwięku. Rozwiązania, które na rynku funkcjonują (mam na myśli bardzo zaawansowany pod tym względem rynek amerykański), obarczone są dużymi błędami. Można sobie łatwo wyobrazić, jak będzie wyglądała sytuacja w języku polskim, którego struktura jest jeszcze bardziej złożona...

    Co do reprezentatywności. To pojęcie jest przydatne w przypadku badań dużych grup i masowych produktów, których używają przedstawiciele wszystkich grup społecznych (np. proszek do prania). Ale w przypadku mniejszych grup (np. jest firma, która ma 100 klientów), zwłaszcza tych, które nie są opisane, jak zapewnić reprezentatywność próby? I czy ma to w ogóle sens? Zetknęłam się z tym problemem robiąc badania do doktoratu. Nie ma organizacji branżowej, która ma aktualne i dokładne dane wszystkich PR-owców w Polsce. Jest portal branżowy wysyłający newslettery, ale ponieważ należy do naszego konkurenta, to nie wypada mi nawet pytać o możliwość prowadzenia badań. Jest branżowa lista dyskusyjna, gdzie mogłabym ew. otrzymać maile uczestników, ale nie wiadomo, do kogo należące i czy aktualne. Musiałam posłużyć się zatem zasadą dostępności: wysłać maila z prośbą o udział w badaniu na listę a wyniki badania odnieść tylko do mojej grupy badanych. Rzecz jasna, jednemu z recenzentów marzyła się reprezentatywność i sondaż, bo dla niego to jest główne kryterium naukowości badania i na obronie musiałam się z tego solidnie tłumaczyć. Podobna sytuacja występuje z wieloma innymi grupami, które jako narzędzia komunikacji używają internetu. To jest rzecz jasna ograniczenie badań w sieci, że nie jesteśmy w wielu przypadkach do końca pewni, kto to mówi i co mówi. Ale za to uzyskujemy mnóstwo innych, ciekawych informacji.

    OdpowiedzUsuń

Kontakt: STANISZEWSKIkropkaMmałpaDŻIMEILkropkaKOM

Poprzednie wpisy: