Wielkie dane telekomów

futuristic modern server room in the data center

Big Data znajduje się obecnie w fazie nadmiernie rozwiniętych oczekiwań, a najwięcej rozczarowań w tym obszarze przeżyły właśnie telekomy

Autor artykułu – Konrad Kobylecki

Rynek telekomunikacyjny coraz bardziej się nasyca, a oferta operatorów stopniowo ulega utowarowieniu i redukcji do usługi zapewnienia transmisji danych. Jeżeli poddadzą się temu trendowi, to pozostanie im jedynie droga redukcji kosztów, tak żeby dopasować swoją skalę do skrajnie uproszczonej oferty, wyrażanej w megabajtach na sekundę. Wszystkie pozostałe funkcje zapewnią dostawcy usług dodanych, tzw. OTT (Over the Top), którzy zaczynając od poczty elektronicznej, przez media społecznościowe, przeszli do oferowania telekonferencji, wideokomunikacji, telewizji czy zdalnego zarządzania maszynami i procesami biznesowymi. Przed marginalizacją w łańcuchu wartości może telekomy uratować to, że wciąż dysponują znacznie większą ilością danych niż gros innych podmiotów gospodarczych. A ponieważ same zarządzają ogromną infrastrukturą i relacjami z milionami klientów, mają duże szanse zaistnieć w tym wyścigu. Samouczące się systemy, które od lat pozwalają im ograniczać nadużycia, segmentować klientów i optymalizować zarządzanie siecią, dają im przewagę doświadczenia, które dla wielu konkurentów stanowi istotną barierę wejścia.

Odpowiedzią na dynamicznie rosnącą liczbę czujników i wymagań transmisyjnych ma być nowa generacja transmisji bezprzewodowej – 5G. Co ciekawe, ma nie tylko zapewniać wyższą przepustowość łączy transmisji danych, lecz także wirtualne kanały transmisyjne dedykowane zastosowaniom wertykalnym przez globalne firmy niebędące operatorami (to tzw. slice, który może być dedykowany np. producentowi do monitorowania samochodów pochodzących z jego fabryk). Każdy wirtualny kanał będzie miał przepustowość, poziom zabezpieczeń i opóźnienia transmisji dostosowane do specyficznych potrzeb klienta. Autonomiczny samochód czy wspomaganie rzeczywistych obrazów (augmented reality) będą wymagały innych poziomów jakościowych niż monitorowanie miejsc parkingowych i odczyt liczników energii elektrycznej, gdzie jedna sekunda opóźnienia niewiele zmienia. Usprawnienie technologii jest ważnym punktem w obronie podstawowego biznesu telekomów, ale jest wątpliwe, czy zabezpieczy ich kosztowne organizacje przed dalszą utratą przychodów.

Problem w wykorzystaniu przewagi
W dotychczasowym rozwoju systemów analityki danych telekomy miały łatwo dostępne, rozbudowane, strukturalne bazy, których wykorzystanie nie było przesadnie skomplikowane. Jednak dynamiczny wzrost rynku i gwałtowny rozwój nowych ofert często powodowały, że liczył się przede wszystkim czas wdrożenia nowej oferty. Architektury systemów schodziły na drugi plan, co utrudnia dostęp do informacji. Dodatkowo, dostosowując się do sytuacji, każdy dostawca starał się możliwie szybko dostarczyć autonomiczne rozwiązanie. Potem pielęgnował swój ogródek i zazdrośnie chronił go przed innymi – w tym przed samym odbiorcą.

Jakość modeli analitycznych, w tym Big Data, zależy od jakości i czystości źródeł danych, które są tym trudniejsze do utrzymania, im bardziej środowisko jest złożone. Jeśli do tego dołożymy dane pochodzące ze źródeł klientów czy partnerów, to obraz dalej się komplikuje. Wewnętrzna organizacja telekomów też zwykle nie sprzyja ekspansji ofert w domenie Internetu Rzeczy. Dział analityków danych jest zwykle umieszczony w Back Office i pracuje jako podwykonawca jednostekbudujących nowe usługi dla klientów.  To utrudnia podejście typu bottom-up, gdzie sprawdzamy, jakie dane do konstrukcji usługi są aktualnie dostępne i co do nich dołożyć, żeby uzyskać najlepsze, wymierne korzyści. Sformalizowane komitety inwestycyjne telekomów, które  koncepcję i przedstawić projekcje przychodów generowanych przez nowy projekt, też nie są czynnikiem sprzyjającym. W praktyce najlepiej jest najpierw przeprowadzić pilotaż (proof-of-concept), a dopiero potem wiarygodnie szacować korzyści z pełnego projektu.

Własne środowisko danych jako baza
Telekomy mogą zacząć od wzbogacenia już posiadanych źródeł danych oraz ich przekazywania i integracji pod kątem specyficznych potrzeb klientów. Trudno jest im jednak w tej chwili konkurować z Google czy Facebookiem na rynku detalicznym. Media społecznościowe od chwili powstania zarezerwowały sobie wszystkie aspekty formalne i techniczne, np. zgody na śledzenie zachowań, funkcje lokalizacji klientów itd. Ich algorytmy analityki danych od lat uczą się wyciągać użyteczne komercyjnie wnioski z masy danych generowanych w sieciach społecznościowych. Inna sytuacja występuje w segmencie klientów korporacyjnych, wymagających głębokiego dostosowania modeli algorytmicznych do specyfiki swojej działalności. Inne czujniki, dane i algorytmy będą wykorzystane do zarządzania ekipami terenowymi i mobilną siecią sprzedaży, a inne do predykcyjnego utrzymania taboru kolejowego.

To, że wiele danych pochodzących z infrastruktury klientów B2B mają już w zasięgu swojej sieci, daje telekomom przewagę. Rozszerzanie zakresu tych źródeł informacji jest dla nich łatwiejsze niż dla wielu innych podmiotów. Ponadto w ramach inicjatyw Przemysłu 4.0 powstają ekosystemy firm, które łączy wymiana dużej ilości danych w ramach wspólnego łańcucha wartości. Najprostsze przykłady dotyczą integracji zamawiania, projektowania, produkcji i logistyki. Wszyscy uczestnicy takiego procesu są już zwykle klientami telekomów, co pozwala im zapewnić wspólną platformę do współpracy w chmurze. Żeby tak się stało, telekomy powinny zbudować zespoły dedykowane budowie specyficznych usług Big Data dla poszczególnych klientów.

Z natury rzeczy muszą być one złożone ze specjalistów z różnych dziedzin, pochodzących z różnych departamentów: analityki danych, sieci, marketingu i sprzedaży B2B. Ponieważ modele analityki danych wymagają też wiedzy dziedzinowej, dobrze byłoby dokooptować do takich zespołów partnerów zewnętrznych, którzy lepiej rozumieją specyfikę związaną z konkretnym przemysłem klienta B2B. Na przykład firma realizująca projekty dla energetyki pozwoli lepiej przygottować model analityczny do predykcyjnego utrzymania sieci średniego napięcia. Jednakże specjaliści z działów technicznych telekomunikacji najlepiej podpowiedzą, jak najlepiej gromadzić i transmitować dane pomiarowe albo lokalizować ekipy remontowe.

W systemach predykcyjnych wypracowanie wiarygodnych algorytmów wymaga wielu iteracji i gromadzenia możliwie szerokiej historii zjawisk-predyktorów. Stąd zespoły w projektach pilotażowych muszą wielokrotnie testować wyniki i mieć szansę uczenia się na błędach. Z doświadczenia wiem, że zwykle można znaleźć na początku obszar, w którym stosunkowo bezpiecznie można zagwarantować pozytywny procentowy wynik przy założeniu, że odpowiednio dobierzemy próbkę i zakres danych. Na przykład przy predykcyjnym utrzymaniu taboru kolejowego można wybrać takie modele wagonów czy rejony podróży, gdzie węglarki najczęściej się psują, i tam zbudować projekt pilotażowy, który da największe szanse na wykazanie oszczędności przy relatywnie krótkim czasie uczenia się algorytmów.

W kolejnych iteracjach gromadzimy więcej danych o większym zakresie, tak że precyzja prognoz się poprawia i można rozszerzać pole działania, stopniowo obejmując całą infrastrukturę W odróżnieniu od automatyzacji i systemów wspierających operacje, gdzie liczą się najlepsze, sprawdzone wzorce, przy Big Data liczy się najlepsze zrozumienie danych w konkretnym środowisku. Wydzielony, interdyscyplinarny zespół pozwoli natomiast szybko nauczyć algorytmy bez potrzeby szukania poparcia kolejnych szczebli organizacyjnych przy każdej iteracji projektu, szczególnie że nie każda będzie równie korzystna.

Wyjść ze strefy komfortu
Według portalu statista.com w skali globalnej w 2016 r. telekomy są na końcu listy pod względem wydatków na R&D w stosunku do przychodów (1,6 proc. vs. 24 proc. lidera, którym są producenci komputerów i elektroniki). Kultowa już koncepcja strategii błękitnego oceanu mówi o tym, że należy przechodzić z rynków zagospodarowanych (czerwony ocean) do rynków nowych możliwości (błękitny ocean). Nasycenie rynku powoduje, że operatorzy muszą wyjść z pułapki czerwonego oceanu swoich podstawowych usług telekomunikacyjnych. Wchodzenie na rynki finansów czy telewizji wygląda jak wejście z deszczu pod rynnę, a prawdziwy błękitny ocean możliwości związany z Internetem Rzeczy i Przemysłem 4.0 jest powoli zagospodarowywany przez inne podmioty. Czy rzeczywiście telekomy mają jeszcze czas, żeby nie wchodzić w tę strefę?