Badania nad zmianą

Pańscy koledzy z Microsoftu i Intela nie obawiają się wcale, że sami nie zdążą z dostarczeniem odpowiednich technologii. Przede wszystkim wyrażają obawę, że system edukacyjny nie przygotowuje należycie informatyków, programistów do nowych wyzwań. Wskazują, że niewielu programistów na świecie potrafi posługiwać się technikami programowania równoległego.

W mojej opinii to nie jest tak czarno--białe. Techniki programowania równoległego znane są od lat, zwłaszcza w nauce. Jako student pisałem programy pracujące równolegle na wielu maszynach, a było to dawno, dawno temu. Nie jest więc tak źle. Zgadzam się, że trzeba czasu, aby przestawić myślenie twórców aplikacji na nowe tory. Ale jest też dobra wiadomość - ta wiedza jest dobrze udokumentowana. Należy szeroko uświadamiać konieczność rozpowszechnienia tych umiejętności, które niebawem będą niezbędne przemysłowi IT.

Gdzie najpełniej ujawnia się konwergencja informatyki i telekomunikacji? Po stronie urządzeń końcowych czy infrastruktury?

Spróbuję odpowiedzieć w inny sposób. Przez wiele lat komputery i towarzysząca im infrastruktura były wykorzystywane do podnoszenia indywidualnej produktywności pracowników. Współcześnie w coraz większym stopniu posługujemy się nimi do komunikacji i współpracy. Nie wiem, czy zgodzimy się nazwać to zjawisko konwergencją, w pewnym sensie na pewno tak. Istotna jest jednak przede wszystkim zmiana w sposobie wykorzystania komputerów, aplikacji i usług zapewniających interakcję w czasie rzeczywistym. Tej zmiany doświadczają zarówno konsumenci, jak i przedsiębiorstwa. W pracy używasz narzędzi i usług do komunikacji ze współpracownikami w innych częściach świata. Następnie korzystasz z nich w domu, choć za pośrednictwem innych sieci.

W jakiej dziedzinie szczególnie wyraźnie widać zacieranie się różnic między rozwiązaniami adresowanymi do biznesu i do konsumenta?

Ciekawe rzeczy zachodzą w obszarze zarządzania informacją w przedsiębiorstwach. Tradycyjnie większość danych, jakimi posługiwał się biznes, miała charakter strukturalny. W tej chwili, gdy w coraz większym stopniu przedsiębiorstwa opierają swoje funkcjonowanie na Internecie, następuje konieczność posługiwania się ogromną ilością danych niestrukturalnych. Wielką szansą dla firm jest dostarczanie narzędzi pozwalających zarządzać "bogatymi" danymi niestrukturalnymi, przeszukiwać i dystrybuować w oparciu o mechanizmy stosowane w Internecie.

Często podkreśla pan, że HP pozostało jedną z niewielu firm, która inwestuje w badania. Dlaczego stało się to taką rzadkością?

Nie mogę odpowiadać za innych. Naszym celem jest dostarczanie spójnych rozwiązań. Bez badań naukowych nad nowymi technologiami nie moglibyśmy być konkurencyjni na tym rynku.

Proszę wskazać przykłady ostatnio wprowadzonych technologii, które zrodziły się w HP Labs?

Jedną z nich jest Dynamic Smart Cooling, rozwiązanie do zarządzania zasilaniem i chłodzeniem centrów danych. Widząc, jak rośnie zagęszczenie centrów danych, uruchomiliśmy kilka lat temu program badawczy. Ten początkowo niewielki projekt laboratoryjny przekształcił się w rozwiązanie, którym dzisiaj interesują się CIO z największych firm. Dynamic Smart Cooling pozwala zredukować wydatki na zasilanie i chłodzenie o 30-40%, wiemy, o jak wielkich pieniądzach rozmawiamy. Innym przykładem projektu, który wyrósł z laboratoriów HP, jest intuicyjny interfejs TouchSmart, opracowany we współpracy z działem Personal Systems.

Produkty HP są dostępne praktycznie w każdym zakątku ziemi. Jakie rodzi to wyzwania na etapie projektowania produktów?

Wystarczy powiedzieć, że działamy w ponad 170 krajach, przeszło 2/3 naszego biznesu pochodzi spoza Stanów Zjednoczonych. Każdy nasz produkt, od wtyczki zasilającej, po interfejs, musi być dopasowany do wymagań rynków lokalnych. Z jednej strony to wyzwanie, z drugiej zaś nasza przewaga. HP przez dekady zdobywało wiedzę o tym, jak działać w skali globalnej. Należymy do wąskiego grona firm na świecie, które to potrafią.


TOP 200