59 proc. przedsiębiorstw zmaga się z deficytem dostępności, czyli z różnicą pomiędzy potrzebami użytkowników a możliwościami ich zaspokojenia przez dział IT – wynika z raportu przygotowanego na zlecenie firmy Veeam Software. Ponad 70 proc. firm przyznaje, że nieplanowane przestoje opóźniają wdrażanie rozwiązań informatycznych. Jednocześnie dyrektorzy IT nie znają rzeczywistych, wymiernych kosztów przestojów w swoich firmach.

Ankieta przeprowadzona wśród pięćdziesięciu menadżerów działów IT dużych i średnich przedsiębiorstw wykazała, że jedynie 56 proc. z nich jest pewnych, że aktualnie stosowane przez nich rozwiązania potrafią przywrócić do działania infrastrukturę informatyczną w czasie przewidzianym przez umowę o gwarantowanym świadczeniu usług. Okazuje się bowiem, że w 43 proc. przypadków próby odzyskania danych trwają zbyt długo, a w 41 proc. nie udaje się odzyskać wszystkich informacji. Przeciętny czas przestojów w firmach IT wynosi 29 minut, tymczasem menadżerowie IT są w stanie zaakceptować znacznie krótszy przestój.

– Dyrektorzy podają dwa parametry, w jednym odnoszą się do aplikacji krytycznych dla biznesu firmy, w drugim do aplikacji mniej krytycznych, które nie są tak bardzo ważne dla ciągłości działania firmy. Tolerowany czas przestoju aplikacji najważniejszych dla firmy to zaledwie 12 minut, dla niekrytycznych prawie 5 godzin, to ogromna różnica – mówi w rozmowie z agencją informacyjną Newseria Innowacje Andrzej Niedziałek, dyrektor regionalny Veeam Software, dostawcy rozwiązań zapewniających stałą dostępność usług IT na potrzeby przedsiębiorstw działających non stop.

Poważnym problemem mogą być koszty przestojów. Zależą one od rodzaju przedsiębiorstwa, jego wielkości, rodzaju świadczonych usług czy rynku, na którym działa. Jednak koszty takie mogą być bardzo duże. Ponemon Institute w swoim ubiegłorocznym raporcie informuje, że średni koszt przestoju w centrum bazodanowym wzrósł z 505 tys. dol. w roku 2010 do 740 tys. dol. w 2016 r. Oznacza to wzrost o 38 proc.

Jeszcze szybciej rosną koszty maksymalne, które zwiększyły się w latach 2010–2016 o 81 proc., a wśród badanych przedsiębiorstw rekordowy maksymalny koszt przestoju wyniósł ponad 2,4 mln dol. Najszybciej rosnącą przyczyną przestojów w centrach bazodanowych są ataki cyberprzestępców. W 2010 roku były one przyczyną 2 proc. przestojów, a w roku 2016 już 22 proc.

– Z naszego badania wynika, że dyrektorzy informatyki nie dysponują danymi o kosztach i konsekwencjach finansowych przestojów systemów informatycznych, obecnie rzadko który ma nawet umowy SLA (Service Level Agreement, umowa o jakości usług IT – przyp. red.) ze swoimi klientami biznesowymi poparte takimi wyliczeniami, co oznacza, że ewentualna niedostępność mierzona jest w godzinach, dniach lub w liczbie danych utraconych, nie jest jednak wyceniania w postaci konkretnych wartości finansowych – mówi Andrzej Niedziałek.

Według raportu Gartnera „Critical Capabilities for Application Performance Monitoring” dla małych firm (o rocznych obrotach poniżej 50 mln dol.) średni koszt godzinnego przestoju wynosi 8,5 tys. dol. Dla przedsiębiorstw średniej wielkości (obroty rzędu od 50 mln do 1 mld dol.) koszt ten rośnie już do 215,5 tys. dol., a dla przedsiębiorstw największych wynosi 686 tys. dol. Zaledwie 5 proc. tych kosztów to – jak dowiadujemy się z badań prowadzonych przez IHS – koszty naprawy infrastruktury. Kolejne 17 proc. to koszty związane z utratą możliwości biznesowych w czasie przestoju. Największą część, bo 78 proc. kosztów, stanowi zmniejszona produktywność osób zatrudnionych.

Polscy przedsiębiorcy sceptycznie podchodzą do pomysłów cyfrowej transformacji. Z raportu Veeam Software wynika, że więcej przedsiębiorstw chce konsolidować już posiadaną infrastrukturę – chęć taką wyraża 34 proc. ankietowanych – niż polegać na chmurze prywatnej (27 proc.). Osoby odpowiedzialne za działy IT uważają, że zamiast inwestować w chmurę, należy się skupić na bardziej tradycyjnych działaniach, takich jak zwiększenie wirtualizacji serwerów (43 proc.), aktualizacja systemów operacyjnych (39 proc.) oraz rozbudowa pamięci masowych (36 proc.). Jedynie 20 proc. respondentów uważa, że chmura zapewnia wyższy poziom usług w porównaniu z firmowym działem IT, a 57 proc. uważa, że nie potrzebują chmury, gdyż jakość obu usług jest porównywalna.

– Dyrektorzy deklarują wolę, chęć i potrzebę transformacji cyfrowej, zauważają rynek, który się zmienia, trendy, które wymuszają taką właśnie transformację cyfrową, ale z drugiej strony cyfrowa transformacja oznacza, że dyrektor IT przestaje być funkcją operacyjną, a staje się funkcją usługową, która w krytyczny sposób wspiera biznes firmy. To oznacza, że musi być gotowy nie tylko dostarczać infrastrukturę i usługi, lecz także ponosi odpowiedzialność za dostępność tych systemów i musi gwarantować swoją osobą i swoim biznesem ciągłość biznesu firmy. To już się dzieje na Zachodzie, my będziemy gotowi na to za kilka lat –stwierdza ekspert.

Obecnie w chmurze działa tylko 11 proc. aplikacji używanych przez badane przedsiębiorstwa. Zauważalne jest jednak coraz większe zainteresowanie usługami chmurowymi. Z badań wynika, że w ciągu najbliższych dwóch lat odsetek ten może wzrosnąć do 23 proc.