Cloud i analiza danych

2

Jakie wyzwania stoją przed firmami w dobie cyfrowej transformacji?
Wiążą się one z gwałtownym rozwojem cloud computingu oraz rosnącymi wymaganiami związanymi z analizą danych na potrzeby korporacyjnych aplikacji trzeciej platformy, czyli najnowszej generacji rozwiązań IT opartych na chmurze i katalogu usług. Cały czas rośnie przy tym rola chmury hybrydowej, dzięki której, używając dotychczasowych rozwiązań w chmurze prywatnej, można jednocześnie czerpać korzyści ze stosowania chmury publicznej. Budowa własnej infrastruktury IT to proces równie drogi co skomplikowany, dlatego wiele firm szuka elastycznych rozwiązań, które uproszczą proces integracji sprzętowej przeprowadzanej we własnym zakresie. Rozwiązania należy szukać w budowie infrastruktury konwergentnej – złożonej z kompatybilnych elementów sprzętowych i software’owych, gwarantujących określone możliwości – która, z jednej strony, ułatwia i przyspiesza dopasowanie oferty dostawców IT do potrzeb biznesu, a z drugiej, obniża całkowity koszt obsługi IT.SolidFire_4Node

Rewolucja w obszarze macierzy dotyczyła przede wszystkim sprzętu.
Nie tylko. Oprócz wielkiej zmiany w obszarze wykorzystania  technologii flash rewolucja dokonała się również w integracji infrastruktury z systemami analizy danych, będącej obecnie kluczowym elementem skutecznego zarządzania biznesem. Bardzo istotne są także obszary związane z monitorowaniem i zarządzaniem całym środowiskiem IT. Obserwujemy tutaj znaczące uproszczenia procesów, które są obecnie dostępne nie tylko dla firm z sektora MŚP, lecz także ogromnych przedsiębiorstw, niezależnie od ich wielkości. Jeden administrator jest w stanie zarządzać 500 PB danych, co przekłada się na np. 20 lat informacji o transakcjach zmagazynowanych na 20 masywnych urządzeniach, do czego kiedyś potrzeba było 10 osób. Dodatkowo dzięki analizie danych, które dotychczas były przechowywane, ale nie wykorzystywane, działy IT są dzisiaj w stanie przekazywać zarządom spółek kompletną informację zarządczą opartą na Big Data, czyli systemach analizy zebranych informacji na dużą skalę. W obszarach dotyczących zarówno klientów i trendów rynkowych, jak i wszystkich dokonywanych przez firmy transakcji. Ta rewolucja jest jeszcze głębsza i bardziej istotna. Działy IT przestają być bowiem działami wsparcia pojmowanymi jako centra kosztowe. Stają się partnerami biznesowymi, a ich znaczenie dla korporacji jest równie kluczowe, co działów sprzedaży i obsługi klienta.

Jak mogą w tym pomóc wasze rozwiązania?
Po zbudowaniu chmury prywatnej klient chciałby mieć możliwość stopniowego przenoszenia aplikacji do chmury publicznej, ale w maksymalnie elastyczny sposób. Wcale bowiem nie jest powiedziane, że po przeniesieniu zasobów do Microsoft Azure nie będzie chciał mieć ich za jakiś czas np. w chmurze Amazon Web Services. Co więcej, praktyka dowodzi, że w miarę rozwoju biznesu, po osiągnięciu pewnego poziomu skali, korzystniej jest zbudować własne centrum danych. To wiąże się jednak z następną migracją – tym razem z chmury publicznej do nowego środowiska, czyli z kolejnym skomplikowanym i kosztownym procesem. Inwestując w naszą technologię chmury hybrydowej – bazującej na rozwiązaniach NetApp Data Fabric – nie tylko unika się tego rodzaju problemów, lecz także zyskuje możliwość integrowania naszych rozwiązań dla danych z własną infrastrukturą IT. Niezależnie od tego, od jakich dostawców pochodzi. Gdy klient ma infrastrukturę od różnych dostawców, może skorzystać z naszego rozwiązania OnCommand Insight, które potrafi je wszystkie monitorować i analizować, optymalizując TCO całego IT. Chodzi tu nie tylko o identyfikowanie problemów i pomoc w ich usunięciu, lecz także o zarządzanie pojemnością, analizę trendów oraz planowanie i budżetowanie zakupów niezbędnych do rozbudowy sprzętowej. Rzecz jasna na naszym sprzęcie świetnie działają również wszystkie rozwiązania do analizy Big Data – kluczowego elementu rewolucji, o której mówiliśmy wcześniej.

Jakiś przykład?
Randstad, jedna z największych na świecie firm doradztwa personalnego, z pomocą NetApp zdecydowała się utrzymać swoje główne centrum danych w klasycznej architekturze, a zapasowe oparła na rozwiązaniach Amazon Web Services. W przypadku awarii podstawowej serwerowni wszystkie ważne systemy Randstadu sprawnie startują w chmurze. Co istotne, koszt funkcjonowania instancji chmurowej jest uzależniony od czasu jej działania. Nie byłoby to możliwe bez skutecznych mechanizmów po stronie utrzymywania i zabezpieczania danych oraz integracji z dostawcą chmury, i to właśnie w tym obszarze wykorzystana została technologia NetApp. W Polsce pierwsze firmy dopiero zaczynają się przymierzać do podobnej koncepcji.

120725portret 1183Elastyczność elastycznością, ale ostatnio bardzo ważna staje się też minimalizacja opóźnienia, z jaką mogą mieć dostęp do macierzy dyskowych np. aplikacje analityczne. Czy NetApp także na to ma gotową receptę?
Receptą są pamięci flash. Są one oferowane na rynku przez wiele firm, jednak nasza oferta – od czasu przejęcia firmy SolidFire z jej wyjątkowym rozwiązaniem all-flash – jest obecnie najbardziej kompleksowa na rynku. Dysponujemy pełnym portfolio produktów idealnie wpasowujących się w dowolne zastosowanie, gwarantując dostęp do danych z szybkością liczoną w gigabajtach na sekundę, opóźnieniem poniżej 1 milisekundy i wydajnością nawet 825 tys. IOPS. Innymi słowy, najszybciej, jak to możliwe, i w tej chwili najlepiej na rynku.

Rozwój rynku pamięci flash bazował początkowo na oczekiwanym przez klientów ogromnym wzroście wydajności, za który trzeba było odpowiednio zapłacić. Dlatego z początku rozwiązania flashowe wykorzystywane były niezwykle oszczędnie – wyłącznie do starannie wyselekcjonowanych zadań. Gdy ceny zaczęły spadać, na tej właśnie technologii zaczęto w całości opierać nowe centra danych. Dzięki metodom oszczędzania pojemności w postaci deduplikacji, kompresji i kompakcji w stosunku nawet 1:4, czyli osiągając 75 proc. odzysku. A wszystko to bez jakiegokolwiek spowolnienia dostępu do danych. Macierz flashowa o pojemności 25 TB stała się równorzędnym odpowiednikiem klasycznej macierzy o pojemności 100 TB, a inwestycja tego rodzaju potaniała czterokrotnie. Ta pierwsza nie tylko jest jednak tańsza i szybsza od macierzy klasycznej, lecz także zajmuje mniej miejsca oraz zużywa mniej prądu, dając w efekcie wymierne oszczędności.

Pamięci flashowe nie mają żadnych wad?
Ponieważ pojedyncza komórka flashowa ma ograniczoną liczbę zapisów, bardzo ważne jest, w jaki sposób oprogramowanie radzi sobie z ich równomiernym wykorzystaniem. Nasz software robi to bardzo dobrze, co pozwala nam na zaoferowanie klientom nawet siedmioletniej gwarancji na użytkowanie macierzy flashowych, bez ograniczeń co do charakterystyki operacji I/O. Na rynku IT oznacza to praktycznie wieczność, a także doskonały zwrot i bezpieczeństwo inwestycji.

Znajduje to wszystko potwierdzenie w waszych wynikach?
Nasze przychody ze sprzedaży pamięci flash w ostatnim roku finansowym przekroczyły 700 mln dol., przy rocznej dynamice wzrostu blisko 240 proc. Rośniemy w tym obszarze trzy razy szybciej niż cały rynek, co pozwoliło nam przesunąć się – w ciągu zaledwie jednego kwartału – z czwartego miejsca na świecie na drugie. Wyprzedziliśmy dotychczasowych iderów rynku: HP i IBM.

Także w Polsce?
Obserwujemy duże zainteresowanie pamięciami flash, które coraz częściej pojawiają się w zapytaniach klientów. Pod względem przychodów ogółem jesteśmy w Polsce na czwartej pozycji. Mimo spadków na rynku utrzymujemy wzrost sprzedaży. Z badań wynika, że rośniemy teraz szybciej niż konkurencja, mimo iż liczba przetargów w sektorze publicznym spadła do 40 proc. wartości sprzed roku.