Prezes Evaluserve, Marc Vollenweider, zna się na analityce i w dużej części swojego poradnika oferuje konkretne, możliwe do zastosowania porady. Już sama lista błędów analitycznych w części I może zaoszczędzić organizacjom mnóstwo pieniędzy, a metodologia, którą wyjaśnia w części III, może sprawić, że wdrożenie analityki będzie sensowne i funkcjonalne. Ponieważ jednak Vollenweider jest tak doświadczony w dziedzinie analityki, porusza się szybko i dlatego jego praca może stanowić wyzwanie dla tych, którzy są nowicjuszami w tej dziedzinie. Poza tym problemem, getAbstract poleca jego poradnik wszystkim zainteresowanym analityką, big data lub zarządzaniem wiedzą.

Opracowanie zostało przetłumaczone maszynowo (przepraszamy za błędy) jako materiał na nasze gry szkoleniowe i symulacyjne.

Take-Aways

  • Błędne przekonania na temat analityki i big data są wszechobecne.
  • Proszę sobie wyobrazić piramidę danych: Zaczynamy od surowych danych na najniższym poziomie i wznosimy się przez coraz bardziej wartościowe poziomy wglądu i wiedzy.
  • Pierścień wiedzy” przetwarzania danych przebiega od zbierania surowych danych do ich analizy w celu stworzenia wiedzy, a następnie zaczyna się od nowa.
  • Zamiast próbować gromadzić ilości danych, firmy powinny zbierać dane o największym znaczeniu strategicznym.
  • Zarządzanie wiedzą cierpi z powodu szumu, a większość ludzi nie docenia jego trudności.
  • Chmura i komputery mobilne oferują wiele korzyści w analityce.
  • Analityka stanie się bardziej spersonalizowana i ludzie będą ją szerzej udostępniać.
  • Podczas planowania, projektowania i stosowania analityki należy pamiętać o czynniku ludzkim.
  • Aby pomyślnie wdrożyć analitykę, należy zastosować metodyczne podejście, takie jak „Use Case Methodology”.
  • Największe korzyści przynosi wspólne wykorzystanie umysłu i maszyny.

Podsumowanie

Big Data: Szum, fałsze i rzeczywistość
Big data i dziedziny pokrewne, takie jak analityka, cierpią z powodu szumu. Nadmiernie rozdmuchane twierdzenia na temat big data często przytłaczają użyteczne, ukierunkowane, racjonalne dyskusje na temat rzeczywistości big data. Pierwszym błędem jest twierdzenie, że „big data rozwiązuje wszystko”. Wcale tak nie jest. Wiele osób sięga po big data bez odpowiednich narzędzi i kontekstów. Potrzebują lepszych struktur do zarządzania wykorzystaniem danych, a także definicji sposobu wykorzystania analityki, celów, metryk i odpowiedzialnego, fachowego personelu.

„Zarządzanie wiedzą musi być celowe, konkretne i zorientowane na działanie, aby dostarczyć ładunek końcowy.
Niektórzy ludzie błędnie uważają, że potrzebne jest „jezioro danych i narzędzia”. Jezioro danych to ogromny zbiór danych. Fałszywą obietnicą jest to, że można taniej przetwarzać dane, jeżeli zbierze się ich masowe ilości. Niestety, istnieje większe prawdopodobieństwo, że dane będą się dublować, że będą ginąć w jeziorze danych i że będą Państwo źle traktować „własność intelektualną”. Ludzie wierzą również, że więcej danych „oznacza więcej wglądu”. To może być prawda – jeżeli przetwarza się odpowiednie dane we właściwy sposób. Częściej jednak nie jest to prawda.

Piramida danych
Proszę rozważyć piramidę wykorzystania danych z czterema poziomami. Poziom 1 to „surowe dane”, jak zdjęcia z kamery monitoringu. Poziom 2 to „informacje”, dane częściowo przeanalizowane. Na Poziomie 3 następuje dalsza analiza, aż do poziomu „co z tego?”. Tutaj zrozumienie informacji staje się na tyle dokładne, że może pomóc w podjęciu decyzji. Na Poziomie 4, najwyższym, tworzą Państwo „wiedzę”, która umożliwia zaoferowanie innym osobom w różnych kontekstach. Decydentom zależy na wiedzy na poziomie 3 i 4; zwykłe dodawanie kolejnych danych wypełnia tylko poziom 1 i 2.

„W zdecydowanej większości przypadków zastosowania inteligentne procesy wspierane przez dość proste narzędzia pozwalają osiągnąć 80% tego celu. Sztuczna inteligencja to 20% lukru na torcie”.
W idealnej sytuacji przetwarzanie danych powinno tworzyć „pierścień wiedzy”. Gromadzić dane. Strukturyzować i organizować dane, aby stworzyć informacje. Wykorzystać te informacje, aby uzyskać wgląd, który pozwala na podejmowanie decyzji i tworzenie wiedzy. Dzielić się tą wiedzą i zbierać więcej danych. Sama analiza nigdy nie jest wystarczająca. Należy przedstawić wyniki analizy decydentom i zastanowić się, jak analityka pasuje do Państwa organizacji. Wszyscy pracownicy, analitycy, członkowie zespołu IT, członkowie „zespołu ryzyka i zgodności” oraz użytkownicy końcowi muszą rozumieć swoje role i obowiązki oraz sposób ich współdziałania.

„Zarządzanie wiedzą
Zarządzanie wiedzą jest trudne. Nawet jeżeli liderzy wiedzą, że pewna wiedza mogłaby im pomóc, mogą nie wiedzieć, jak ją zdobyć. Wiele raportów marnuje czas ludzi: Systemy generują je automatycznie, a ludzie wypełniają je surowymi danymi, zamiast wyłuskiwać przydatne spostrzeżenia.

„Sam rozum jest zbyt drogi i zbyt wolny. Tylko maszyna nie dostarcza prawdziwych spostrzeżeń i wiedzy.”
Większość twierdzeń dotyczących sztucznej inteligencji (AI) jest „mocno przesadzona”. Analityka nie przyniesie automatycznie lepszego zwrotu z inwestycji (ROI). W rzeczywistości 70% „projektów analitycznych” rozczarowuje organizacje, które się w nie angażują. Należy zastanowić się, jak zbudować odpowiednie zespoły do zarządzania tymi projektami i pracy z ich wynikami. Analityka nie jest czysto racjonalna. Wymaga inteligentnego wglądu i niesie ze sobą zaskakujący komponent emocjonalny. Zarządzanie wiedzą nie spełniło swoich obietnic, ponieważ duża część kluczowej wiedzy jest ukryta, a nie jawna. Surowe informacje są łatwiejsze do przechowywania, automatyzacji i zarządzania niż wgląd na wyższym poziomie. Mimo tych ograniczeń, zarządzanie wiedzą daje wiele możliwości.

„Obiekty wiedzy”
Proszę zaprojektować działania w zakresie zarządzania wiedzą tak, aby były zorientowane na działanie i miały określone, konkretne cele. Będą one lepiej funkcjonować, jeżeli będą miały odpowiednią architekturę dla obiektów wiedzy. Zastosowanie „metodologii agile” oraz automatyzacja procesów i platform zwielokrotni wpływ Państwa analiz. Wykorzystanie tych narzędzi pomoże Państwu szybciej wprowadzać produkty na rynek i szybciej rozwijać funkcjonalności. Uzyskają Państwo szybsze informacje zwrotne od użytkowników, co sprzyja elastycznemu projektowaniu. Metody te pozwalają również na zwiększenie skali Państwa praktyki analitycznej.

„Właściwa mieszanka umysłów ma decydujące znaczenie dla powodzenia każdego przypadku użycia mind+machine”.
Zachować prostotę narzędzi zarządzania wiedzą i zintegrować je z Państwa procesami. Ustalić kryteria organizacyjne dla zarządzania wiedzą. Skupić się na przypadkach użytkowych o najwyższym ROI i na wglądach wyższego rzędu. Zintegrowanie zarządzania wiedzą w całej organizacji zapewni Państwa analityce lepszy ROI. Należy zaplanować, w jaki sposób będą Państwo przechowywać i dostarczać treści, szczególnie te o wyższym poziomie wnikliwości, oraz mieć jasne ramy dla organizacji przypadków użycia. Śledzić „metapoziomowe informacje” o Państwa treściach i prowadzić „katalog wiedzy”, który pozwoli Państwu dowiedzieć się, którzy członkowie organizacji wiedzą co. Wyznaczyć konkretnych „strażników wiedzy” odpowiedzialnych za poszczególne „zasoby wiedzy”.

Trendy
Aby podejmować wartościowe decyzje, należy zwracać uwagę na aktualne trendy w analityce. Pierwszym z nich jest rosnąca siła chmury i mobilnego przetwarzania danych. Chmura sprawia, że obliczenia są bardziej elastyczne, tańsze, szybsze i łatwiejsze do skalowania. Umożliwia pracownikom większą mobilność i pozwala na łatwiejsze gromadzenie danych. Mobilne przetwarzanie danych zwiększa wydajność i podnosi „produktywność i satysfakcję pracowników”. Powiązanym trendem jest „marketing one-to-one”. Zamiast korzystać z danych masowych i standardowych modeli konsumentów, można teraz precyzyjnie kierować się tym, czego chcą poszczególne osoby. Niedrogie aplikacje nie są jeszcze łatwo dostępne, ale rozwijają się równolegle z przejściem na usługi cyfrowe typu „pay-as-you-go”.

„Czynniki leżące u podstaw podejścia „umysł+maszyna” zmieniają zasadniczo sposób, w jaki przypadki użycia są opracowywane, projektowane, wdrażane i utrzymywane w ich cyklach życia.”
Na razie 99% analityki stosuje „input-based pricing”. Płacą Państwo za analitykę, licencje i inne rzeczy, nawet jeżeli nie chcą Państwo żadnej z tych rzeczy. Chcecie Państwo kupić tylko wyjście: ostateczną, możliwą do zastosowania analizę. Należy się spodziewać, że będzie to coraz powszechniejsza opcja. Oferuje ona niższe inwestycje początkowe i ryzyko, przy większej elastyczności, zwinności i specjalizacji.

„Narzędzia dla wielu klientów”
Usługi dla wielu klientów niosą ze sobą ogromne możliwości. Obecne zasoby danych są jak drogi, które łączą bezpośrednio dwa miasta, ale nie krzyżują się z innymi drogami. Nie są tak funkcjonalne jak drogi, które przecinają się, dając wiele możliwości. Wiele instytucji płaci obecnie za gromadzenie w kółko tych samych danych. Instytucje, które potrzebują tych samych zestawów danych, mogłyby zaoszczędzić ogromnie dużo czasu i pieniędzy oraz stworzyć większą wartość, tworząc „centralny punkt zbierania danych”.

„Zła jakość danych pozostaje jednym z największych problemów w każdym przypadku zastosowania analityki”.
Internet rzeczy, w którym wiele inteligentnych przedmiotów jest połączonych elektronicznie, będzie generował więcej danych i sprawi, że świat będzie lepiej reagował na życzenia ludzi. Umieszczenie wszędzie czujników sprawi, że codzienne życie stanie się bezpieczniejsze i prostsze, wygeneruje więcej danych do analizy big data, a także usprawni łańcuchy dostaw i produkcję. Wszystkie te urządzenia potrzebują wspólnych standardów. Programiści muszą zająć się kwestiami bezpieczeństwa, prawami własności intelektualnej i odpowiedzialnością. „Internet rzeczy oferuje ogromne możliwości, ale wciąż istnieją pewne niebezpieczeństwa, których należy unikać”.

Nowe regulacje
Te kwestie krzyżują się z innym trendem – zalewem nowych przepisów regulujących wykorzystanie danych. Po globalnym kryzysie finansowym w 2008 r. we wszystkich branżach, a szczególnie w finansach i ochronie zdrowia, pojawiło się więcej regulacji. Europa jest liderem w zakresie przepisów regulujących sposób, w jaki organizacje mogą wykorzystywać dane osobowe. Ogólne rozporządzenie o ochronie danych osobowych, które wchodzi w życie w 2018 roku, ma na celu zapewnienie osobom fizycznym większej kontroli nad ich danymi. Należy się spodziewać, że będzie się dążyć do ułatwienia ludziom korzystania z ich praw w kwestiach związanych z danymi oraz do zapewnienia przez firmy bezpieczeństwa przechowywanych danych.

Strumienie przychodów
Zamiast gromadzić wszystkie możliwe dane, firmy powinny szukać bardziej efektywnych sposobów wykorzystania danych, ponownego użycia danych, tworzenia „nowych strumieni przychodów” z danych i odróżniania się od konkurencji. Nowe interfejsy „umysł-maszyna”, które wyglądają jak coś z science fiction, umożliwią Państwu sprawniejsze i bardziej produktywne korzystanie z analityki. Znaczenie ma tutaj „gospodarka współdzielenia” Airbnb i podobnych: Według jednej z prognoz, do 2025 roku będzie ona tak duża, jak „normalny rynek wynajmu”. Wkrótce podobne modele współdzielenia będą kształtować analitykę. Niektórzy ludzie będą wymieniać się danymi, inni będą je wymieniać, a jeszcze inni będą je kupować i sprzedawać jako pośrednicy. Jednak dzielenie się spostrzeżeniami z wyższych szczebli nadal będzie trudne i nie będzie można dzielić się danymi zastrzeżonymi.

„Zwiększone wykorzystanie maszyn do wspierania kreatywnych umysłów jest wspólną cechą wielu alternatywnych i inteligentnych przypadków wykorzystania danych.”
Liczba specjalistów, którzy są wykwalifikowani w dziedzinie analityki, rośnie z dnia na dzień. Dobrych ludzi można zatrudnić za znacznie mniejsze pieniądze poza rynkami dominującymi. Może to oznaczać szukanie w innych częściach świata, ale również zatrudnianie na rynku wtórnym – a nie np. w Nowym Jorku.

„Podejście umysł+maszyna”
Aby skorzystać z tych możliwości, należy je realizować w sposób metodyczny, na przykład za pomocą „metodyki przypadków użycia” (UCM). Podejście to postrzega „analitykę umysł+maszyna” jako „portfel konkretnych przypadków użycia”. W przypadku zastosowania analityki, stosuje się ją do jednego problemu biznesowego i śledzi się go od początku do końca. Jeżeli przedsiębiorstwa stosują analitykę bez skupienia się na jednym zagadnieniu, generują niewielki ROI. Proszę rozpocząć proces od skupienia się. Dlaczego użytkownik chce, aby inni analizowali to zagadnienie i jaką korzyść mogą Państwo zaoferować, analizując je?

„Psychologia analityki jest prawdopodobnie jej najbardziej niedocenianym i najmniej zrozumiałym wymiarem.
W każdym przypadku należy mieć tylko jeden problem biznesowy. Proszę zdefiniować go wąsko i równie jasno określić użytkownika i potencjalne korzyści. Zbadać, jak problem będzie się zmieniał w czasie i jak wiąże się z Państwa zasobem wiedzy. Podzielić problem na wyraźne etapy, nadać im priorytety i monitorować w miarę ich realizacji. Aby uniknąć myślenia, że lepiej byłoby mieć więcej danych, należy zacząć od „drzewa problemów”. Podzielić problem na poziomy. Proszę tworzyć prototypy swoich rozwiązań przed dodaniem większej ilości szczegółów, a także śledzić wykorzystanie, prawa, zgodność i ROI dla wszystkich danych. Jeśli można, należy unikać big data; do rozwiązania problemu należy użyć jak najmniejszej ilości danych. Dodawać dane tylko na podstawie zaplanowanych kryteriów.

Połączenie umysłu i maszyny
Aby osiągnąć największe korzyści, należy efektywnie wykorzystać umysł i maszynę. Po stronie maszyn, proszę przeanalizować swoje procesy: Zobaczyć, gdzie można zastosować automatyzację w możliwie najprostszy sposób. Stworzyć system „z półki”, wykorzystując dostępne moduły i platformy tam, gdzie to możliwe. Regularnie ulepszać system i dokumentować swoje procedury i zmiany.

„W miarę jak zmienia się życie, zmienia się też nasz umysł”.
Strona umysłowa wymaga najlepszej „mieszanki umysłów”. Użytkownik lub lider firmy, który potrzebuje wyników, musi kontrolować proces – nie personel techniczny. Należy zaplanować cały proces rozwoju i zastosowania z określeniem ról dla zaangażowanych osób. Zamiast tworzyć od podstaw, należy wykorzystywać wiedzę fachową z firmy, wynajmować ją lub kupować ze źródeł zewnętrznych. Dla ułatwienia stosowania modeli należy nadawać im standardowe nazwy. Należy zapisywać wszystko, co robią ludzie i oczekiwać, że w miarę dojrzewania projektu praktyki będą się zmieniać.

Przepływy pracy
Mind+machine działa lepiej, jeśli dobrze zorganizuje się przepływy pracy i jeśli zastosuje się „elastyczne platformy”. Im dokładniej zidentyfikują Państwo docelowych użytkowników końcowych, tym lepiej będą Państwo mogli przeprowadzić projekt do końca, aby do nich dotrzeć. Oznacza to, że już na początku każdego projektu należy pomyśleć o „ostatniej mili” i zmapować konkretne przepływy danych, których Państwo potrzebują. Ustalić prawdopodobne wąskie gardła i określić, które rozwiązania technologiczne zapewnią największy zwrot z inwestycji.

„Doświadczenie użytkownika”
Planując doświadczenie użytkownika, nie należy słuchać wyłącznie doradców technicznych. Należy również zwrócić uwagę na ludzką stronę interakcji umysł+maszyna. Nie należy przytłaczać użytkowników. Umysł każdego człowieka ma granice: Ludzie zapominają o różnych rzeczach i każdy myśli inaczej. Proszę odwołać się do modeli mentalnych i nieświadomych popędów ludzi, dać im wizualne reprezentacje i zapewnić regularne informacje zwrotne. Proszę opracować swój interfejs za pomocą „szybkiego prototypowania”, a następnie poprosić różnych użytkowników o jego przetestowanie. Kiedy już uda się Państwu wypracować odpowiedni projekt, należy go ujednolicić w całej firmie.

Metodologia przypadków użycia
Aby wszyscy byli po tej samej stronie, należy użyć wspólnego słownictwa i wspólnego podejścia, takiego jak metodologia przypadków użycia. Zdefiniować role, obowiązki i cele. Dokonać przeglądu portfolio pod kątem zgodności z przepisami oraz pod kątem ryzyka i odpowiedzialności pochodzącej z innych części Państwa łańcucha dostaw lub do nich prowadzącej. Upewnić się, że wszyscy wiedzą, że ostateczne decyzje podejmuje właściciel, a właścicielem wszystkich zasobów wiedzy jest cała firma, a nie poszczególne działy. Należy zebrać wszystkich zaangażowanych w rozwój i upewnić się, że osoby techniczne zaczną rozmawiać z rzeczywistymi użytkownikami końcowymi na wczesnym etapie procesu. „Kluczem jest uchwycenie potrzeb użytkownika końcowego w sposób umożliwiający zastosowanie tanich rozwiązań”. Stworzenie jednolitego zestawu wytycznych do zarządzania portfelem przypadków użycia. Zachować jasność co do tego, które przypadki są priorytetowe. Być gotowym „zabić przypadki użycia”, które nie działają. Państwa inicjatywy w zakresie mind+machine powinny poprawić produktywność na tyle, aby się opłacało.

O Autorze

Marc Vollenweider jest współzałożycielem i prezesem Evaluserve, firmy specjalizującej się w analityce i zarządzaniu danymi.

Rate this post