Korzystaj z technologii i rozwijaj się

W dobie gospodarki post-pandemicznej, rozchwianej przez skutki konfliktu zbrojnego za wschodnią granicą, koszty działalności usiłują wymknąć się spod kontroli, coraz trudniej o odpowiednie kompetencje, a kwestie bezpieczeństwa niejednemu spędzają sen z powiek. Jak radzą sobie service providerzy z wymienionymi wyzwaniami? Czy potrafią zapanować nad kosztami świadczenia usług, optymalizować je? Niedawno zaprosiliśmy przedstawicieli service providerów i firm technologicznych, by wspólnie zastanowić się, dokąd będziemy, jako rynek usług, zmierzać w najbliższej przyszłości i jak stawiać czoła rosnącym kosztom, wymogom środowiskowym i potrzebom klientów.

Kiedy myślimy o trendach w rozwoju technologii informatycznych, to na pierwszy plan wyłaniają się rozwiązania chmurowe. Wielcy gracze – operatorzy chmury publicznej stale zwiększają swój udział w globalnym IT. Wydatki na nią w 2020 roku w regionie Europy Środkowo-Wschodniej osiągnęły poziom 4 mld USD, a w samej Polsce było to około 610 mln USD. I te wartości wciąż wzrastają. Prognozy z początku tego roku zakładały skok w regionie do 6,3 mld USD, z czego w Polsce do 960 mln USD. Dla organizacji posiadających własne DC i świadczących usługi chmurowe czy kolokacji jest to bardzo optymistyczna perspektywa wzrostu. Jednocześnie staje jednak przed nimi coraz więcej wyzwań. Szczególnie w dobie gospodarki post-pandemicznej, rozchwianej przez skutki konfliktu zbrojnego koszty działalności usiłują wymknąć się spod kontroli, coraz trudniej o odpowiednie kompetencje, a kwestie bezpieczeństwa niejednemu spędzają sen z powiek. A to tylko czubek góry lodowej. Ostatnie dwa lata, jak i obecny czas, to niekończąca się próba dostosowania do zmiennej rzeczywistości rynkowej, wszak zmiana modelu świadczenia pracy nie pozostała bez wpływu na dostawców technologii.

Czy ta próba była udana? Jak poradzili sobie service providerzy z wymienionymi wyzwaniami? Czy potrafią zapanować nad kosztami świadczenia usług, optymalizować je? Gdzie dziś znajduje się chmura? Niedawno zaprosiliśmy przedstawicieli service providerów i firm technologicznych, by wspólnie zastanowić się, dokąd będziemy, jako rynek usług, zmierzać w najbliższej przyszłości i jak stawiać czoła rosnącym kosztom, wymogom środowiskowym i potrzebom klientów.

Zobacz również:

  • Sustainability. Nie pytaj: „po co?”, tylko „jak”?

Była to kilkugodzinna dyskusja nasycona licznymi wątkami merytorycznymi, dzieleniem się uwagami, spostrzeżeniami, predykcjami. Przedstawiamy kilka istotnych tematów z naszego spotkania.

Wyzwania środowiskowe

Zrównoważony rozwój oraz szeroko rozumiane ESG wybija się na czołową pozycję wśród obecnych trendów. Jak dziś, w dobie nieuchronnie nadciągającej katastrofy klimatycznej wywołanej nadmierną konsumpcją zasobów naturalnych oraz energii, powinno wyglądać odpowiedzialne podejście do tematu dalszego rozwoju technologii? Energochłonność centrów danych, w połączeniu z rosnącymi wciąż cenami jednostki energii, musi być przyczynkiem do głębszej refleksji nad całościowymi kosztami świadczenia usług przez centra danych.

Opinie były różne. Bo i sam temat nie jest jednoznaczny. Co to znaczy podążać dziś ścieżką zrównoważonego rozwoju?

Inwestycja w „zielone” to optymalizacja technologiczna DC oraz pozyskanie odpowiednich, ogólnie uznanych certyfikatów potwierdzających ten fakt. A to koszt. Jak zauważył Paweł Olszynka, Business Unit Director w PMR, wiele „zielonych akcji” nie przekłada się wprost na wyniki operacyjne organizacji. Czasem należy zadać pytanie, czy klienci centrów danych chcą płacić więcej za usługi tylko dlatego, że firma ma np. wykupiony zielony certyfikat pozyskiwania energii.

Marcin Lenarczyk, Sales Engineer Poland, Equnix: „Dla dużych międzynarodowych klientów temat certyfikacji nie jest kluczowy. Istotna jest natomiast reputacja dostawcy i to jakie dodatkowe usługi mogą uzyskać, wiążąc się z danym dostawcą (np. Equinix Fabric czy też punkt wymiany ruchu internetowego). W przypadku klientów polskich temat certyfikacji pojawia się głównie w projektach dla klientów z rynku publicznego. Klientom komercyjnym bardziej zależy na jakości usług i SLA niż certyfikatach”.

„Jeśli chodzi o zrównoważony rozwój to jest to polityka, z którą zaczęliśmy występować na rynku kilka lat temu” – potwierdził Michał Zajączkowski, prezes zarządu HPE w Polsce. „Ekonomia obiegu zamkniętego i nasze podejście do sprzedaży rozwiązań IT ma minimalizować emisję dwutlenku węgla. Jako firma mamy w tych kwestiach jasne cele. Na rynku też dużo się zmienia. U naszych klientów powstały działy albo wręcz za zagadnienie sustainability odpowiadają menedżerowie wysokiego szczebla. My już nie spotykamy się po prostu z technicznymi ludźmi z IT, którzy chcą tylko doprecyzowania konfiguracji sprzętowej, ale z ludźmi, którym bardzo zależy na tym, by to miało sens, żeby rzeczywiście te rozwiązania wspierały odpowiedzialną strategię firmy. Widzę coraz częściej zainteresowanie takimi rozwiązaniami, które wykorzystujemy do budowy chmury prywatnej. Projektujemy je tak, by potem ponownie wykorzystać sprzęt”.

Jednak wspomniany koszt przejścia na „zieloną stronę mocy” można postrzegać również, jako konieczny zakup biletu do dalszego uczestnictwa w grze rynkowej.

„To ważna kwestia, bo dzisiaj nie spełnianie wymagań „bycia zielonym” może skutecznie nam zamknąć drogę do współpracy z wieloma klientami. W dużych korporacjach – nie tylko amerykańskich – to jest dzisiaj bardzo często warunek przetargowy. Coraz więcej klientów, wdraża swoje strategie i polityki ESG, a do tego grona na pewno należą również polskie spółki giełdowe. Chociaż należy wspomnieć, że na rynku małych i średnich przedsiębiorstw w Polsce nie przywiązuje się jeszcze do tego aż tak dużej wagi” – dodaje Jacek Szczepański, dyrektor zarządzający Pionu Usług Atende SA.

Modernizacja ukierunkowana na podniesienie energoefektywności rozwiązań idealnie wpisując się w nurt „eko” przynosi wymierne korzyści. Umożliwiając zachowanie odpowiedniej marży jednocześnie pozwala na obniżenie ceny dla klienta końcowego i tym samym daje szansę na zdobycie szerszego rynku odbiorców.

Konrad Kobylecki, Dyrektor IT, Netia: „Posiadamy zarówno stare jak i nowe, bardziej ekologiczne DC. Nie mamy jeszcze całkowitego zasilania z farm fotowoltaicznych, ale te obiekty, które oddaliśmy w zeszłym roku do eksploatacji, mają o klasę lepszą efektywność energetyczną. Dla nas oznacza to wyraźne przełożenie na cenę końcową dla klientów. Jednak niekoniecznie osiągamy to za sprawą posiadanych certyfikatów, które swoją drogą, oczywiście też mamy”.

„Certyfikat to jest tylko jeden element” – zaznaczył Robert Paszkiewicz, szef regionu Europy Środkowo-Wschodniej, OVHcloud. – „Jeżeli chcemy mówić o ekologii w tym obszarze, musimy myśleć o systemach chłodzenia, tak jak my – od 19 lat chłodzimy cieczą. To pozwala nam osiągać PUE na poziomie 1,09, a przy tradycyjnej klimatyzacji, w klasycznym centrum danych, taki współczynnik efektywności zużycia energii elektrycznej jest prawie niemożliwy do osiągnięcia. I dziś, gdy rośnie cena energii, zużywając tej energii mniej, jesteśmy w stanie dać klientowi lepszą ofertę. W podejście eko wpisuje się też kwestia gospodarki odpadami w rozumieniu komponentów. Dwa lata temu co piąty komponent byliśmy w stanie ponownie użytkować. Dzisiaj już co trzeci komponent wykorzystujemy ponownie do konstrukcji naszych usług. Takie działania wprost przekładają się na niższą cenę”.

Wątek idealnie podsumował Paweł Olszynka: „To tylko pokazuje, że sustainability to jest bardzo szeroki temat. Oczywiście: optymalizacja, nawet wymiana oświetlenia na ledowe generuje obniżkę kosztów i jesteśmy bardziej eko. Optymalizacja przyczynia się do obniżenia kosztów, ale ostatecznie nie uciekniemy od tego, że czymś to trzeba zasilić. I jeżeli ma to być energia ze źródeł odnawialnych, to ona musi na razie kosztować”.

Szanse dla lokalnych chmur

Wszyscy obserwujemy dynamikę rynku chmurowego. „Jakbyśmy na nią nie patrzyli, jakich byśmy metodologii nie przyjmowali, to wzrost jest bardzo mocny” – zaznaczył Paweł Olszynka. Jednak, co jest wyśmienitą wiadomością, daleko tu jeszcze do nasycenia rynku. Adopcja modelu chmurowego, forsowanego przez hiperscalerów czy innych dostawców chmury publicznej, jest w Polsce jeszcze na stosunkowo niskim poziomie. To wyróżnia nas na tle regionu. Optymistycznie licząc udział chmury w całym IT, to nadal tylko 5-7% całości. W innych krajach regionu często jest to 10-11%. „Z drugiej strony skala polskiego rynku jest nieporównywalna z nowym potencjałem. W całym regionie, liczonym bez Wschodu, wydatki na chmurę to ok 2 mld euro. Polska będzie miała trochę ponad 1/3 tego rynku. To są najnowsze wyliczenia” – dodaje.

Wyzwaniem przyszłości jest intensywność wykorzystania chmury w polskich organizacjach. Często konsumpcja zatrzymuje się na chmurowych platformach komunikacyjnych, dostarczanych przez największych graczy.

Miłosz Błasiak, Support Solution Architect w HPE zauważył, że często pod pojęciem chmura, w rozumieniu organizacji, kryje się chmura publiczna, dostarczana przez hiperscalerów, gdy tymczasem, jest wielu lokalnych dostawców, którzy w niespokojnym czasie nabierają znaczenia. „W mojej ocenie, gdy rozmawiam z wieloma osobami przy okazji kryzysu ukraińskiego, to patriotyzm lokalny zaczyna mieć istotne znaczenie. Jest to blisko, jest bezpieczniejsze, z różnych względów, jest pod kontrolą. Czy PMR ma dane, które by mówiły o chmurach w podziale na firmy lokalne i hiperscalerów?” – dopytywał.

„Eksplorujemy temat lokalności – odpowiedział Paweł Olszynka – O ile jeszcze kilka lat temu byliśmy zapatrzeni w zachodni model konsumpcji, obecnie widać zmianę na model sięgania do lokalności. Oraz to, że z naszego badania z I kwartału tego roku wynika, że jedna na dziesięć firm w Polsce mierzy się z wdrożeniem chmury samodzielnie. To pole dla partnerów wdrożeniowych, więc znów pojawia się aspekt lokalności”.

Sylwester Grzebień, Doradca Zarządu, AssecoCloud, zwrócił uwagę na ciekawy aspekt – na rynku nie ma zerojedynkowego wyboru między chmurą publiczną a własną infrastrukturą, podobnie jak między dostawcami lokalnymi a globalnymi. Te światy przenikają się. „W przemyśle, moim zdaniem, ze względu na wymagania technologiczne i techniczne, niezbędna jest chmura hybrydowa. Również inne sektory muszą szukać równowagi technologicznej. W Niemczech na przykład - półtora roku temu - rząd wydał zakaz kupowania chmurowych rozwiązań na rynek edukacyjny. Dlaczego? Ponieważ nie ma możliwości skontrolowania tych danych. Z chmury publicznej dane są transmitowane poza granice Unii Europejskiej, a to spowodowało, że środek ciężkości właśnie zaczął się przechylać na lokalnych dostawców, bo oni robią de facto publiczną chmurę w wersji prywatnej na rynek niemiecki” - wyjaśniał.

Chmura nie jest prosta

Czy firmy rozumieją chmurę? Czy potrafią, sięgając po całą paletę technologicznych możliwości, wykorzystać te atrybuty, które pojawiły się wraz z rozwojem cloud computingu? Na pewno do tego potrzebne są kompetencje, a tych – jak wskazują eksperci, często na rynku brakuje.

Miłosz Błasiak, odwołując się do ubiegłorocznego badania HPE dotyczącego stanu technologicznego rozwoju organizacji w Polsce, zwrócił się do pozostałych uczestników debaty: „To, co uderzało w tym badaniu, to gigantyczna awersja do jakiegokolwiek ryzyka, podszyta generalnie brakiem odpowiednich kwalifikacji i kompetencji. Właściwie wszyscy wskazali, że tej wiedzy o technologii chmurowej nie ma. To są najintensywniej poszukiwane kompetencje. Dla was, przy kompetencjach waszych kadr, jest to gigantyczna przestrzeń do rozwoju” – zaznaczył.

Sylwester Grzebień: „Klientom czasem wydaje się, że wystarczy wziąć swoje zasoby, aplikacje i przenieść je do innego data center, postawić na wirtualnych maszynach i to jest cloud computing. A to nie działa w ten sposób. Rozwiązanie chmurowe często oznacza napisanie aplikacji na nowo, w oparciu o nowe narzędzia, w nowej technologii i dopiero wówczas pojawią się korzyści ekonomiczne i technologiczne. Jeżeli przenosimy stare (legacy) na nową platformę, to jakkolwiek byśmy tego nie zmigrowali, to będzie kosztowne i potem drogie w utrzymaniu. I często, jak pokazuje doświadczenie, niezawodność tego rozwiązania może być gorsza, bo mamy więcej warstw, które trzeba opanować”.

„Z naszego doświadczenia wynika, że niektórym organizacjom wydaje się, że chmura publiczna jest można powiedzieć, prosta do wyklikania. Powszechna dostępność usług chmury publicznej powoduje, że stosunkowo łatwo jest zrobić pierwszy krok, konta są praktycznie darmowe, a wiele usług w pierwszym rok podlega innym zasadom rozliczania. Nasze doświadczenie w organizacji jest takie, że firmy dość łatwo robią ten pierwszy krok i w konsekwencji popełniają podstawowe błędy w budowie rozwiązania i myśleniu o aplikacjach w architekturze chmury publicznej.” – mówił Tomasz Piętak, Cloud Solutions Architect, NTT DATA Business Solutions.

Takie spojrzenie potwierdził też Marcin Lenarczyk z Equinix, zwracając uwagę na to, że właśnie wspomniane już “proste wyklikanie chmury” może firmy prowadzić do błędu. “Trzeba się dobrze zastanowić nad architekturą aplikacji, co wziąć z dostępnego stosu technologicznego dostępnego, co zostawić jako legacy i nie ruszać. Należy w wielu przypadkach zastanowić się nad rozsądnym miksowaniem technologii” – stwierdził.

Tomasz Piętak wskazując na pewien mankament lokalnych dostawców usług chmurowych podkreśla, że istotnym problemem jest wśród firm brak pełnej świadomości własnego zaplecza IT, ograniczeń i zależności obecnie posiadanych systemów. „Łatwość dostępu do chmury publicznej stała się tak powszechna, że organizacje nie myślą o takich dostawcach jak my, którzy nie mają tak powszechnie dostępnych portali, łatwości zakładania kont itd. Wiemy, że rzeczywiście realną wartością jest podejście cloud native, czyli budowanie rozwiązań w oparciu o stosy technologiczne i usługi, które są dostępne. W tym zakresie chmury publiczne wyprzedzają nas o lata. Ale firmy zapominają, że mają u siebie cały czas ciężkie systemy legacy i taki stan utrzyma się jeszcze wiele lat. Wchodzą więc w chmurę publiczną, migrują swoje ciężkie aplikacje do IaaS’a, a następnie wycofują się zawiedzeni, uważając, że to nie działa, bo koszty są jednak wyższe niż zakładali, bo wydajność jest niższa niż oczekiwali, bo jest mnóstwo problemów, których nie przewidzieli”. Według niego to duże pole do działania dla tych dostawców, którzy co prawda nie mają takich stosów technologicznych jak hiperskalerzy, ale mają wiele lat doświadczeń na polu utility computing czy private cloud i potrafią skutecznie działać w środowiskach hybrydowych.

W czasie dyskusji pojawił się również inny istotny aspekt blokujący rozwój chmury, który wynika z silnej konkurencji przekładającej się na presję na cenę. W konsekwencji oferenci rozwiązań tworzą swoje produkty w sposób holistyczny oczekując marży na każdej z dostarczanych warstw. Konrad Kobylecki powiedział: „Jednocześnie jestem twórcą i tworzywem, to w przypadku Netii znaczy, że oferujemy chmurę i równocześnie kupujemy aplikacje, które mogą z chmury korzystać. Często mam taki problem, że przychodzi do mnie oferent software’u i chce sprzedać aplikację wraz ze sprzętem, ponieważ wcześniej skalkulowali sobie wewnętrznie marże, budżet, przychody. W takiej sytuacji nie będą mnie przekonywać do chmury, szczególnie zestandaryzowanej, ponieważ mają zupełnie inny interes”.

Badania pokazują, że większość przedsiębiorstw przesuwa swoje wydatki na IT w kierunku modeli opartych na rzeczywistym zużyciu. Czasy planowania na wyrost odchodzą w niepamięć. A skoro tak, to jak dostawcy powinni liczyć koszty świadczenia usług na rynku?

Podczas, gdy wszyscy zgadzają się, że pełnię korzyści z chmury można wyciągnąć jedynie wówczas, gdy zastosuje się nowoczesny, chmurowy stos technologiczny (co w przypadku rozwiązań legacy ciągnie za sobą konieczność replatformingu czy wręcz przepisania rozwiązania), to niezmiennie istotnym elementem staje się koszt koniecznych wysokich kompetencji dla opracowania takiego rozwiązania. Łukasz Słoniewski, Dyrektor ds. R&D, Comarch, zwrócił uwagę na to, że organizacje coraz częściej mogą stawać przed dylematem customizacji dużych aplikacji u siebie ze względu na koszty. „Rynek przestanie być stać na to, żeby płacić za duże projekty customowe i dostarczanie software’u w takiej dobrze dostosowanej formie. Oczywiście, to się będzie działo w przypadku dużych korporacji jeszcze długo, natomiast globalnie rynek będzie szukał coraz bardziej standardowych rozwiązań. Z punktu widzenia firm, które tworzą software, muszą zacząć tworzyć rozwiązania cloud native, inaczej za kilka lat stracą dużą część rynku, jeśli nie wykonają tego kroku teraz. Największy problem dzisiaj stanowią zasoby ludzkie – chociażby developerzy aplikacji. Oprogramowanie musi zmierzać w stronę standardu, pudełka. Klient musi zacząć to akceptować, ponieważ nie będzie go stać na rozwiązania dedykowane ze względu na to, jakie są koszty pracy programistów”.

Ostatnim aspektem poruszonym w tym wątku dyskusji była customizacja. Rozwiązania wyjątkowe w wielu przypadkach stanowią w oczach biznesu fundament do pozyskania przewagi konkurencyjnej. Ważną kwestią pozostaje w jakim stopniu oraz jak tę wyjątkowość pozyskiwać. Sylwester Grzebień z Asseco Cloud wskazał na zjawisko przeskalowywania potrzeb aplikacyjnych. Sektor enterprise potrzebuje bardziej autorskich aplikacji, ale, jak zauważa, 80% customizacji, której chcą firmy zamawiające, nigdy nie jest używane. Jego opinie potwierdził ekspert z NTT Data Business Solutions, który jako wyzwanie dla dostawców wskazał nieuzasadnione biznesowo customizacje aplikacji. Cena wdrożenia rośnie, gdy tymczasem zamawiane funkcjonalności nigdy nie są używane.

Jak liczyć IT?

Inwestycje rozwojowe czy koszty bieżące są elementem nieodłącznym prowadzenia działalności gospodarczej. Jednak podstawą dla utrzymania rentowności oraz zachowania płynności, która w obecnej sytuacji makroekonomicznej jest szczególnie krytyczna jest świadomość kosztów. A skoro mowa o kosztach, to jak je liczyć w przypadku IT? Jak zapanować nad wewnętrznymi kosztami, jak również uzyskać pełną przejrzystość kosztową u klientów? Konieczność podejmowania dynamicznych decyzji nie ułatwia zadania. Jacek Szczepański wspomniał, że bywają takie oczekiwania rynkowe, by jednocześnie realizować projekty w modelach hybrydowym czy multicloudowym, lub na przykład każdy w oparciu o inną chmurę. A czasem bywa i tak, że firmy dokupują usługi aaS dla konkretnych działów i nawet nie wiedzą, kiedy stają się właścicielem kilku chmur… W jaki sposób więc zapanować nad czytelnością ekonomiczną i kontrolować zużycie zasobów? I jak je, w 2022 roku i dalej, konsumować?

Uczestnicy spotkania wskazywali, że to nie model chmurowy albo on-premise powinien być przedmiotem dyskusji, ale raczej sama efektywność przetwarzania danych. Wszak z danych płynie wiedza, która ma organizacjom zapewnić przewagę konkurencyjną i wysoką skuteczność operacji. A tę, również w obszarze płynności i kosztów można zapewnić poprzez wykorzystanie odpowiedniego modelu usługowego, niezależnie od miejsca świadczonej usługi – chmury publicznej, własnego DC, chmury prywatnej.

Jacek Szczepański dodał, że menedżerom, którzy właśnie zastanawiają się, które zasoby warto zmigrować do chmury radzi zacząć od przygotowania solidnego business case’u. Bazą dla analizy powinien być tzw. Total Cost of Ownership, czyli całkowity koszt posiadania infrastruktury IT - nie tylko sprzętu serwerowego, sieciowego czy dyskowego wraz z oprogramowaniem, ale także kolokacji, zasilania, chłodzenia i wsparcia technicznego, w tym koszty pracy administratorów, zespołu wsparcia, zarządzania i obsługi systemów. Z drugiej strony porównania będzie koszt usług cloudowych, który już uwzględnia większość elementów. Z adopcją chmury wiążą się jednak dodatkowo koszty samej migracji, a ponadto szkoleń czy kursów przydatnych do efektywnego korzystania z usług cloud.

Prawo własności nie rozwiązuje problemów. Sylwester Grzebień, Asseco Cloud: „Pokutuje jeszcze takie myślenie, że jeśli coś mam u siebie, to to kontroluję”. Miłosz Błasiak z HPE nazwał to swojego rodzaju mitem posiadania.

Marcin Lenarczyk porównał to do współczesnych samolotów pasażerskich. Dziś nikt nie kupuje samolotu z silnikami, ponieważ te są wynajmowane na godziny lotu. Dzisiaj taki model ekonomiczno-operacyjny dojrzał i w IT będzie analogicznie – takim silnikiem w technologii będzie chmura.

Ta hybryda rozwiązań technologicznych i sposobów świadczenia usług wydaje się być przyszłością dla rynku. Nieważne, skąd, ważne, by było dopasowane do mojej działalności i przynosiło efekty. Jak zaznaczył Michał Zajączkowski z HPE, duże organizacje, które mają swoje chmury, na przykład w niektórych obszarach związanych z AI korzystają z dostawców chmur publicznych.

Tomasz Piętak podał natomiast przykład dużego gracza z branży e-commerce, który wykorzystuje efektywnie model hybrydowy, opierając się na zasobach własnych i jednocześnie współpracując z hiperscalerami, unikając przy tym ryzyka związania się z jednym vendorem.

Ta „współpraca” między zasobami własnymi a dostawcami chmury pozawala umiejętnie wykorzystywać dostępny potencjał. Łukasz Słoniewski przypomniał, że np. w branży retail są momenty, gdy zapotrzebowanie na moc obliczeniową i dane wzrastają wielokrotnie i skalowanie własnej infrastruktury pod jednostkowy maksymalny peek w skali roku jest zupełnie nieuzasadnione.

Tu pojawia się ważny wątek współczesnego IT. Badania pokazują, że większość przedsiębiorstw przesuwa swoje wydatki na IT w kierunku modeli opartych na rzeczywistym zużyciu. Czasy planowania na wyrost odchodzą w niepamięć. A skoro tak, to jak dostawcy powinni liczyć wspomniane już niejednokrotnie koszty świadczenia usług na rynku? Firmy korzystające z centrów danych, dostarczających usługę czy to chmury publicznej czy prywatnej, cenę końcową znają, choć często nie mają wiedzy, co się na nią składa. A jak sami dostawcy liczą wartość tego, co dostarczają odbiorcy końcowemu? Marek Hojda, Channel and Ecosystem Sales Leader, HPE podzielił się na koniec propozycją swojej firmy, usługowym modelem HPE GreenLake, czyli całym zestawem usług i narzędzi służących do zarządzania, ciągłego pomiaru i optymalizacji procesu przetwarzania danych w organizacjach. Do tego, jak zgodzili się uczestnicy spotkania, sprowadza się przyszłość IT – do korzystania z technologii, nie do jej ciągłego nabywania.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200