Smart City a Internet Rzeczy

Wyrafinowane sensory generują ogromne ilości danych. Na razie wykorzystuje się z tego tylko 1 proc., ale przyszłość wygląda oszałamiająco

Komercyjnym możliwościom i przykładom zastosowania sensorów było poświęcone tegoroczne Teradata Business Forum, które odbyło się w Wiedniu. Za przykład, jak za ich pomocą można obniżyć koszty i przyczynić się do wzrostu innowacyjności, posłużyła instalacja inteligentnych… koszy na śmieci, którą uruchomiono w Nowym Jorku w połowie 2015 r. jako jeden z elementów projektu Smart City. Na pełny sukces miasto musiało jednak poczekać do tego roku. Wszystko zaczęło się od wyposażenia standardowych koszy na odpadki w inteligentne nadajniki, które, gdy pojemniki były niemal pełne, wysyłały sygnał do służb miejskich, żeby je opróżnić. Dobra realizacja hasła „smart”? I tak, i nie. Kosze mogły być bowiem opróżniane teraz częściej, ale koszty tego przedsięwzięcia nieoczekiwanie powędrowały niebotycznie do góry.

Sęk w tym, że po zainstalowaniu sensorów służby oczyszczania miasta opróżniały tylko te kosze, które „zadeklarowały”, iż są „prawie pełne”, pomijając sąsiadujące z nimi, nawet jeśli do ich wypełnienia brakowało niewiele i do których trzeba było przyjechać ponownie po zaledwie kilku godzinach. A to już miało mało wspólnego z pojęciem „smart”. Problem by się nie pojawiał, gdyby kosze znajdujące się niedaleko od siebie mogły wymieniać między sobą informacje na temat ich zapełnienia. Na szczęście na rynku były już dostępne sensory wyposażone w tę właśnie funkcjonalność, dodatkowo oferując aplikację optymalizującą przejazdy służb odpowiedzialnych za opróżnianie koszy. Efekt przeszedł najśmielsze oczekiwania. Dzięki sprzęgnięciu ze sobą informacji przesyłanych przez sensory z mapą miasta uzyskano czystsze ulice przy kosztach porównywalnych do poprzednich.

Ale to dopiero początek…
Z analizy przesyłanych przez kosze danych można wyciągnąć dużo więcej wniosków, np. na bazie tego, jak szybko są napełniane, można wydedukować, gdzie należy dostawić dodatkowe oraz które usunąć. A także precyzyjnie przewidzieć zwiększenie ilości służb niezbędnych do ich opróżniania, np. w czasie imprez ulicznych. Nowy Jork na tym się jednak nie zatrzymał, bo do sensorów instalowanych w koszach dołożył jeszcze… Wi-Fi (ale to już w oparciu o rozwiązanie innego dostawcy), udostępniając mieszkańcom na terenie praktycznie całego miasta bezpłatny internet o przepustowości 50-75 Mb/s i to zasilany wyłącznie przez baterie słoneczne. Dodatkowo miasto może gromadzić informacje pomocne przy zarządzaniu odpadami, a na koszach na śmieci umieszczać użyteczne informacje dla mieszkańców, np. o alarmach. A dodając do tego narzędzia analityczne do badania sentymentu w kategoriach Big Data na bieżąco badać, jak użytkownikom podoba się cały pomysł. Proste? Owszem, żeby jednak powyższy system był naprawdę „smart”, nie wystarczyłyby mu dane jedynie z sensorów. W jego skład weszły bowiem także: – dane pochodzące z systemów M2M (Machine-to-Machine), które leżą u podstaw wszystkich Internet of Things (IoT), – tradycyjne dane strukturalne z systemów biznesowych typu prognoza pogody, dane demograficzne czy statystyki dotyczące efektywności transportu publicznego, – Big Data z aplikacji, reakcji/feedbacku klientów, mediów społecznościowych i innych źródeł.

Od taśm do Data Lake
Znaczenie konsolidacji danych firmy zaczęły doceniać już w latach 80. i 90. poprzedniego wieku. Dzięki integracji tych produkcyjnych, dostawczych, usługowych i dotyczących klientów można przecież obniżyć ilość i koszty napraw gwarancyjnych oraz koszty świadczenia usług, a jednocześnie zwiększyć satysfakcję klienta oraz jego lojalność. Wtedy wyciągając dane z aplikacji i ich departamentalnych mateczników udało się przełamać silosy pomiędzy systemami oraz pomiędzy funkcjami departamentów. Obecnie są natomiast już dostępne narzędzia do obróbki danych streamingowych, takich jak np. te przysyłane przez IoT. Ponieważ jednak jest ich coraz więcej i reprezentują coraz bardziej heterogeniczne typy, konieczna jest ich unifikacja w nowych strukturach, które określa się terminem Data Lake.

Siemens i Internet Pociągów
Największy problem z sensorami polega na tym, że nie zawsze dostarczają one wiarygodnych danych. Żeby móc to zweryfikować konieczne jest nieustanne analizowanie danych pochodzących z innych urządzeń, a także danych historycznych, prognozowych, finansowych czy logistycznych. W przypadku Siemensa nie byłoby możliwe przewidywanie awarii pociągów tylko na podstawie danych pochodzących z sensorów, a bez odwoływania się do obszernej bazy awarii i ustaleń, dlaczego do nich doszło. Dzięki temu już teraz można prognozować usterki silnika lokomotywy z takim wyprzedzeniem, że nie zakłóca to w najmniejszym stopniu usług świadczonych klientom. W efekcie Siemens może zagwarantować im zwrot pełnej ceny biletu na 500-kilometrowej trasie Barcelona- Madryt, jeśli pociąg spóźni się o więcej niż 15 min. Może, bo obecnie nie zdarza się to częściej niż 1-2 razy do roku. Ale nie byłoby to możliwe bez stosowania rozwiązań analitycznych nowej generacji, w tym tych oferowanych przez Teradata.