Big Data i twórcza destrukcja

ManagerOnline

O nowych modelach biznesowych bazujących na innowacyjnych technologiach IT rozmawiano podczas pierwszej edycji Kongresu FutureTech.

Autor artykułu – Konrad Kobylecki

Twórcza destrukcja schumpeterowska, wspomniana przez wicepremiera Mateusza Morawieckiego w trakcie uroczystego otwarcia, była motywem przewodnim Kongresu FutureTech zorganizowanego w Warszawie przez MM Conferences w dniach 24–25 maja 2017 r. Wybitny ekonomista austriacki Joseph Schumpeter opisał w 1942 r. koncepcję, według której przedsiębiorstwa o ugruntowanej pozycji i sprawdzonych mechanizmach gospodarki tracą swoje rynki na rzecz innowacyjnych rozwiązań i nowych podmiotów.

Co poprawia produktywność

Transformacja powoduje, że zasoby przechodzą do nowych, bardziej efektywnych podmiotów, dzięki czemu poprawia się całkowita produktywność. W jej otoczeniu nie ma miejsca na równowagę rynkową, bo coraz szybciej pojawiające się innowacyjne technologie i nowe modele biznesowe zostawiają coraz mniej czasu na jej osiągnięcie. W trakcie kongresu mieliśmy okazję zrozumieć przyczyny, dla których nowe modele biznesowe, oparte na danych i sztucznej inteligencji, przejmują gospodarkę w finansach czy ubezpieczeniach. Na potwierdzenie tej tezy wicepremier Morawiecki przytoczył szacunki, które wskazują, że 60 proc. dzieci, które dzisiaj rozpoczynają naukę, będzie pracowało w zawodach, które jeszcze nie istnieją. Na tym tle dość groteskowo wypadło badanie zacytowane przez Chrisa Skinnera, z którego wynika, że 75 proc. banków uważa, iż gospodarka cyfrowa nie zmieni ich modelu biznesowego.

Skutki automatyzacji

Twórcza destrukcja zaatakowała widzów już podczas prezentacji Marcina Petrykowskiego z S&P Global, który wspomniał o postępującej automatyzacji odbierającej kolejne miejsca pracy. A także o jej wpływie na powstawanie nowych modeli biznesowych, takich jak np. economy of sharing. W tym momencie powiało sceptycyzmem, przynajmniej wśród wybranych uczestników widowni. Siedzący przede mną siwy pan z bródką przez ponad dwie godziny zażarcie bronił dostępu do wolnego miejsca, które zarezerwował dla kogoś, mimo że sala pękała w szwach. Strach pomyśleć, jakie bariery psychologiczne będzie musiała pokonać koncepcja współdzielenia samochodów.

Potęga analityki biznesowej

Na szczęście wątpliwości rozwiał zaraz potem J.F. Keith z Personal Data Trade Association, który zasugerował, że i tak nie mamy wyboru, bo dzięki wykorzystaniu analizy danych będziemy 200 razy bardziej produktywni. Na dodatek dowiedzieliśmy się zaraz potem od Gheli Boskovich, że w 2016 r. pięć na sześć firm o największej kapitalizacji na świecie to firmy technologiczne z biznesem opartym na danych, takie jak Apple, Alphabet i Microsoft. Merytoryczną perełką konferencji okazał się Stephen Brobst z Teradaty, który pokazał ewolucję zastosowań analizy danych – od raportowania przez predykcję do systemów uczących się i sztucznej inteligencji. Wskazał przy tym, że większość dzisiejszych systemów uczy się w procesie „z nauczycielem”, tzn. podając treningowy zestaw danych wejściowych i wyjściowych. O ile jednak komputery potrafią się dobrze uczyć od ludzi, o tyle nam nie jest łatwo zrozumieć procesy decyzyjne w głębokich warstwach sieci neuronowych maszyn. Ponieważ niezrozumienie grozi odrzuceniem efektów działania sztucznej inteligencji, wprowadza się specjalne metody prezentacji modelu decyzyjnego automatów. Na przykład maszyny wyjaśniają nam, jak wygląda nasze miejsce w modelu statystycznym określającym nasz limit kredytowy, a to może być bardziej miarodajne niż dzisiejsze procedury, które z natury muszą być predefiniowane, a nie dynamicznie uczące się.

Specyfika ubezpieczeń

Nieco zaskakujące może być natomiast to, że Big Data trochę wolniej wchodzi do sektora ubezpieczeń, który powinien być najwyższym autorytetem w dziedzinie modeli statystycznych. Honor branży ratował Witold Jaworski, obecnie prezes NIO, a wcześniej firmy Allianz w Polsce, który wyjaśniał innowacyjne modele zbierania składek opartych na pomiarze wykorzystania ubezpieczanych aktywów i systemach telematyki. Jednocześnie wspomniał o firmie ubezpieczeniowej Lemonade z Nowego Jorku, która w większości opiera się na systemach uczących się i automatach do obsługi klienta, a nawet do wypłaty odszkodowań.

W 2016 r. tylko jedna na sześć wypłat wymagała tam ludzkiej interwencji. Klienci nie lubią awatarów Po pierwszym dniu euforii związanej z Big Data w drugim pojawiły się symptomy ryzyka. Pierwsze hasło sceptycyzmu pod adresem sztucznej inteligencji rzuciła prof. Aleksandra Przegalińska-Skierkowska, prezentując wykres „doliny niesamowitości” („Uncanny Valley”). Wynika z niego, że automaty bardzo przypominające człowieka, ale możliwe do odróżnienia, budzą obawy i dyskomfort, który obniża jakość komunikacji z klientami. Doświadczenia pokazały, że komunikacja tekstem pisanym jest często bardziej efektywna, szczególnie w cywilizacji zachodniej.

E-commerce bez czekolady

Do tych obaw można dodać stwierdzenie Guillaume’a de Colonges, CEO Carrefour w Polsce, że czekoladę w 70 proc. przypadków kupuje się pod wpływem emocji i impulsu. Trudno je jednak wywołać przez aplikacje, które nie pozwalają na natychmiastową konsumpcję, np. e-commerce czy m-commerce. Prezes de Colonges wskazał też, że 90 proc. danych, które są dostępne w systemach IT, jest dla niego mało użytecznych. Zaraz potem potwierdził to Piotr Kowal z firmy Qlik, który jednak na pocieszenie pokazał metody prezentacji danych poprzez silnik asocjacyjny. Pozwala on na wyciągnięcie wartościowych wniosków z różnorodnych źródeł rozproszonych informacji jednocześnie, w tym Big Data, ale nie tylko. Podkreślił też, że nie ma uniwersalnej metody rozwiązania każdego problemu, a znacznie łatwiej ją dobrać dzięki odpowiedniej prezentacji danych. Miejmy nadzieję, że dzięki temu trochę mniej danych okaże się bezużytecznych.

Ochrona danych osobowych

Tradycyjnie do sceptycyzmu dokładają się też kwestie bezpieczeństwa i poufności danych osobowych. Najpierw Giovanni Butarelli zaznaczył, że wraz z rosnącą ilością danych rozmywają się procedury ochrony danych. Potem Edyta Bielak-Jomaa, nasz generalny inspektor ochrony danych osobowych, wskazała na dynamiczne zmiany zagrożeń w tej dziedzinie. Stąd nowe regulacje, takie jak RODO, które są tylko próbą odpowiedzi na nowe zjawiska występujące w bieżącym momencie. Niezależnie od tego, że jest to wyzwanie formalne, jest ono szczególnie trudne technicznie w przypadku nowych rodzajów danych niestrukturalnych i geograficznie rozproszonych. Ponieważ powiedział to przedstawiciel IBM, rzeczywiście może to być problem. Na zakończenie sceptycyzm przeszedł jednak do defensywy i jako pointę konferencji można podać cytat przytoczony przez wicepremiera Morawieckiego, a zapożyczony od Jana Sztaudyngera: „Mimo najszybszych samolotów do wczoraj nie ma już powrotu”.