Do niedawna w ICT rządzili do spółki kreatorzy i inżynierowie sprzętowi oraz deweloperzy oprogramowania, którzy odpowiadali na zapotrzebowanie rynku przedsiębiorstw (i reszty publiczności). Obecne czasy, powodując niebywały wcześniej wzrost wydajności technicznej maszyn i perfekcję w tworzeniu inteligentnego oprogramowania, uczyniły zarządzanie infrastrukturą stosunkowo proste i przewidywalne. Dopiero era Big Data, rewolucja mobilności oraz zbliżający się IoT (Internet Rzeczy) złamały tę, wydawałoby się wieczystą sielankę.
Kto wypuścił dżina z butelki?
Wg mnie Amerykanie, którzy zaczęli budować gigantyczne hub’y pamięci masowych i gromadzić dane. Ta informacja funkcjonująca na rynku, jako Big Data umożliwiła rozpoczęcie operacji analitycznych o nienotowanej wcześniej skali. Oczywiście wymusiło to powstanie odpowiednich narzędzi. Powstały, więc repozytoria pamięci masowych oraz wyrafinowane oprogramowania, które automatyzują analizy dokonywane on-line na podstawie danych masowych. Same niestrukturyzowane dane to jednak dopiero początek.
Mleczna Droga danych
Skoro jak przewiduje IDC 50-krotne zwiększenie się ilości danych do 2020 oznacza, że przechować trzeba będzie 40 lub więcej zetabajtów (ZB) danych, odbiorcy sektora firm skazani są na przesuniecie swojej uwagi (i pieniędzy) na sektor analityczny. Fakt, że obecnie można zbudować każdą maszynę, czyli komputer o dowolnej wydajności i szybkości obliczeń oraz dowolny system analityczny automatyzujący proces oceny nic nie zmienia. Nie oznacza to, bowiem, że mamy gotowe odpowiedzi na postawione pytania biznesowe.
Połączenie technologii mobilnych, strumieni Big Data oraz chmury powoduje, że dzisiaj najlepszym biznesem jest oferowanie rozwiązań konwergentnych: serwerów i systemów pamięci masowych oraz oprogramowań obsługujących systemy enterprise. Ten najlepszy biznes umieszczony w chmurze wyprzedzi za chwilę nowa profesjonalna analityka.
Rewolucja, czyli dostęp do wyników
Liczą się tylko wyniki a i to wyniki zweryfikowane lub tylko weryfikowalne. Cały proces mechanizacji analizy działający w maszynach można, więc sprowadzić do oceny wiarygodności wyników wyprowadzonych z narzędzi programistycznych, (np. HP Vertica) lub zamkniętych systemów analityczno-informacyjnych (IBM Watson). Wyniki te z kolei muszą być weryfikowalne, co zapewnia tylko najwyższej próby (również rynkowo zweryfikowana) analiza dokonana przez uznany zespół ekspertów. Dzisiaj, bowiem można mieć i maszynę i oprogramowanie, ale wyciągać nieprawidłowe wnioski.
Wg mnie w najbliższym czasie w sposób dramatycznie wysoki wzrośnie znaczenie opinii, analiz oraz badań i wyprowadzanych wniosków. Część z nich będzie narzędziowo wspomagana technologią, ale w większości wartość dodana polegać będzie na pracy analityków. Wartość rynkowa takich analiz będzie bardzo wysoka.
Problem w tym, czy wyniki badań analitycznych ujrzą światło dzienne czy posłużą wyłącznie realizacji celów biznesowych (lub innych) właścicieli wyników. Światełkiem nadziei jest proces upubliczniania danych w programach typu open goverment (Otwarty Rząd) oraz obowiązek ujawniania wyników analiz, na podstawie, których administracje rządowe podejmują kluczowe decyzje w sektorze publicznym.
Czy jednak biznes pójdzie tą drogą? Jestem pewien, że nie: działanie biznesowe ma na celu wyłącznie wytworzenie przychodu dla właściciela, za każdą akceptowalną ekonomicznie cenę. Dlatego właśnie to analitycy, którzy przez wyniki badań pokierują biznesem mają przed sobą świetlaną przyszłość.
Autor jest redaktorem naczelnym Magazynu ITReseller
autor: Cezary Tchorek-Helm