10 innowacji, które mogą na nowo zdefiniować IT

CIO muszą obserwować horyzont. Wyliczamy przyszłościowe strategie i technologie zaczynające zyskiwać na popularności i mogą mieć wpływ na następną dekadę IT.

GORODENKOFF / SHUTTERSTOCK

Tempo innowacji jest nieubłagane. Dyrektorzy ds. informatyki muszą zwracać uwagę na kolejne generacje nowych technologii, ponieważ nowe oprogramowanie może w mgnieniu oka przejść od marzeń jakiegoś sprytnego programisty do istotnej części każdego sklepu IT. Rzeczy, których jeszcze nie tak dawno wydawały się nie do pomyślenia, takie jak duże modele językowe, uczenie maszynowe i przetwarzanie języka naturalnego, przeszły z laboratoriów na pierwszą linię frontu. Następna generacja obiecuje dostarczyć tę samą niepowstrzymaną paradę innowacji.

Przedstawiamy dziewięć wielkich idei, modnych haseł i rozwijających się technologii, które już dziś zaczynają nabierać rozpędu. Przyjęcie pomysłu, zanim będzie gotowy, może być ożywcze - jeśli masz rację. Zwlekanie z wprowadzeniem nowych rozwiązań może być bezpieczniejsze, ale może sprawić, że zostaniesz w tyle za konkurencją.

Zobacz również:

  • 8 błędów strategii danych, których należy unikać

Działy IT muszą być na bieżąco z nowo pojawiającymi się pomysłami i technologiami w miarę ich ewolucji i ustalać, kiedy - i czy - nadszedł właściwy moment, aby wdrożyć je do poważnej pracy. Tylko Ty wiesz, kiedy może nadejść TEN WŁAŚCIWY MOMENT dla Twojego stosu technologii.

Obliczenia analogowe

Najczęstszym paradygmatem obliczeń był sprzęt cyfrowy zbudowany z tranzystorów, które mają dwa stany: włączony i wyłączony. Teraz niektórzy architekci sztucznej inteligencji zwracają uwagę na dawno zapomniany model obliczeń analogowych, w którym wartości są wyrażane jako napięcia lub prądy. Zamiast tylko dwóch stanów, mogą one mieć prawie nieskończoną liczbę wartości, a przynajmniej tyle, ile precyzja systemu może dokładnie zmierzyć. Fascynacja tym pomysłem wynika z obserwacji, że modele sztucznej inteligencji nie wymagają takiej samej precyzji jak, powiedzmy, księgi bankowe. Jeśli niektóre z miliardów parametrów w modelu dryfują o 1%, 10% lub nawet więcej, inne to zrekompensują, a model często będzie równie dokładny. Mamy nadzieję, że te nowe układy analogowe będą zużywać znacznie mniej energii, dzięki czemu będą przydatne we wszystkich aplikacjach mobilnych i rozproszonych na maszynach, które nie zawsze są podłączone do zasilania.

Potencjalny wyborca: każdy deweloper, który z radością zamieni odrobinę precyzji na dużą oszczędność energii elektrycznej.

Szansa na sukces: Sukces lub porażka będą prawdopodobnie zależeć od charakteru aplikacji. Jeśli będzie mniejsza potrzeba absolutnej precyzji, a większa potrzeba oszczędzania energii elektrycznej, chipy będą miały większe szanse na wygraną.

Lepsza kontrola API

Dawno, dawno temu różnica między interfejsem API a stroną internetową była niewielka. Skoro informacje są publiczne, to po co je rozróżniać? Ale teraz wielu zdaje sobie sprawę, że dane mogą być wykorzystywane na różne sposoby i być może dostęp do nich musi być bardziej regulowany. Największe obawy pochodzą ze stron internetowych, które zdają sobie sprawę, w jaki sposób ich dane mogą być wykorzystywane do trenowania modeli sztucznej inteligencji. Niektórzy obawiają się, że modele zbudowane na podstawie skrobania ich witryny będą niewłaściwie wykorzystywać lub źle rozumieć dane. Czy modele mogą narazić użytkowników na wycieki prywatności, gdy sztuczna inteligencja wyrzuci jakiś szczegół w niewłaściwym czasie? Inni po prostu chcą mieć udział w IPO, gdy model zadebiutuje.

Niektóre witryny już teraz ściśle kontrolują dostęp do danych wideo i tekstowych, których pragną twórcy sztucznej inteligencji. Ograniczają pobieranie plików i zaostrzają warunki korzystania z usługi, by w razie czego móc wytoczyć proces. Inni budują nową warstwę inteligencji w swoich interfejsach API, aby można było podejmować mądrzejsze, bardziej przemyślane biznesowo decyzje dotyczące udostępniania informacji.

Główni uczestnicy: firmy kontrolujące dostęp do dużych bloków danych, które mogą być przydatne w zautomatyzowanej analizie.

Szansa na sukces: ten moment już nadszedł. Firmy ponownie analizują swoje interfejsy API i ustanawiają silniejsze kontrole. (Głębszym pytaniem jest to, jak zareagują użytkownicy. Czy ścisła kontrola może skończyć się odcięciem niektórych wspaniałych funkcji udostępnianych przez API?

Zdalna współpraca

Pandemia COVID-19 może być dla wielu wspomnieniem, ale walka o miejsca pracy i bliskość będzie kontynuowana. Po jednej stronie są ludzie, którzy cenią synergię wynikającą z umieszczenia ludzi w tym samym pomieszczeniu. Z drugiej strony są ludzie, którzy mówią o czasie i kosztach dojazdów. Dział IT odgrywa dużą rolę w tej debacie, ponieważ testuje i wdraża narzędzia do współpracy drugiej i trzeciej generacji. Podstawowe czaty wideo są zastępowane przez bardziej wyspecjalizowane narzędzia umożliwiające spotkania na stojąco, swobodne dyskusje i pełne, wielodniowe konferencje.

Debata ma nie tylko charakter techniczny. Na niektóre decyzje wpływają inwestycje poczynione przez firmę w komercyjną przestrzeń biurową. (Niektórzy sugerują nawet znalezienie sposobu, aby pracownicy mogli dosłownie mieszkać w biurze). Inni liderzy mają silne osobiste opinie na temat najlepszego sposobu prowadzenia zespołu. Zespoły IT muszą znaleźć najlepszy sposób na wsparcie większej misji za pomocą lepszych narzędzi i praktyk.

Potencjalny wyborca: każdy zespół, który musi zrównoważyć bliskość z wydajnością. Każdy zespół z ludźmi, którzy muszą poświęcić czas na dojazdy do pracy w porównaniu do wartości interakcji twarzą w twarz.

Szansa na sukces: bitwa pomiędzy miłośnikami pracy zdalnej i niezdalnej już się rozpoczęła. Prawdziwe pytanie brzmi, czy zespoły zajmujące się oprogramowaniem do współpracy będą w stanie stworzyć narzędzia, które będą tak dobre, że nawet miłośnicy spotkań twarzą w twarz zaczną mówić: „Dlaczego wszyscy razem nie zalogujemy się do narzędzia z tej sali konferencyjnej?”.

Fizyczne bezpieczeństwo systemów cyfrowych

Kiedy większość informatyków myśli o bezpieczeństwie komputerowym, myśli o sprytnych hakerach, którzy infiltrują ich systemy przez Internet. Martwią się o ochronę danych cyfrowych przechowywanych w bazach danych, sieciach lub serwerach. Świat blokowania drzwi i ochrony fizycznego dostępu pozostawia się ślusarzom, stolarzom i kierownikom budowy.

Jednak bezpieczeństwo fizyczne staje się prawdziwym zmartwieniem, a menedżerowie IT nie mogą brać go za pewnik. Najlepszym przykładem połączenia bezpieczeństwa fizycznego i cybernetycznego mogą być złodzieje samochodów, którzy odkryli, że mogą podważyć szew przy reflektorze, podłączyć się do magistrali danych i wstrzyknąć odpowiednią wiadomość, aby otworzyć drzwi i uruchomić silnik. Gwiazda Śmierci nie była jedynym cudem techniki zniszczonym przez niestrzeżony port fizyczny.

Podobne ataki na sprzęt znajdujący się w komputerach stacjonarnych lub laptopach zaczynają uderzać w działy IT. (Tworzenie urządzeń, które są zabezpieczone zarówno przed atakami cyfrowymi, jak i fizycznymi, jest bardzo trudne.

Najważniejsze czynniki: najbardziej zszokowane są często firmy, które padają ofiarą słabo chronionego ataku fizycznego, ale każdy musi wziąć pod uwagę zagrożenia.

Szansa na sukces: podstawowe bezpieczeństwo fizyczne jest tak proste, jak zamknięcie drzwi na klucz. Prawdziwe bezpieczeństwo fizyczne może być niemożliwe. Działy IT muszą znaleźć praktyczną równowagę, która będzie odpowiednia dla ich danych, a przynajmniej poprawić swoją grę, aby pokonać nową generację atakujących.

Niezawodne przetwarzanie danych

Godne zaufania systemy zawsze były celem programistów, ale ostatnio niektóre głośne wydarzenia przekonują niektórych menedżerów IT, że konieczne są lepsze architektury i praktyki. Wiedzą oni, że wielu twórców oprogramowania wpada w pułapkę obserwowania, jak ich kod działa idealnie na pulpicie i zakładania, że zawsze tak będzie w prawdziwym świecie. Szereg głośnych awarii oprogramowania w firmach takich jak Southwest Airlines czy EasyJet pokazuje, że kod, który działa dobrze przez większość czasu, może również ulec spektakularnej awarii.

Wyzwaniem dla zespołów IT jest próba przewidzenia tych problemów i wbudowania w kod kolejnej warstwy odporności. Niektóre systemy, takie jak bazy danych, zostały zaprojektowane z myślą o wysokiej niezawodności. Teraz programiści muszą przenieść to na wyższy poziom, dodając jeszcze lepsze zabezpieczenia. Niektóre z nowszych architektur, takie jak mikrousługi i projekty bezserwerowe, oferują lepszą ochronę, ale często wiążą się z własnymi problemami.

Deweloperzy ponownie oceniają swoje mikrousługi i masywne monowarstwy, mając na uwadze zrozumienie, w jaki sposób i kiedy upadają.

Główna grupa docelowa: firmy takie jak linie lotnicze, które nie mogą żyć bez swojej technologii.

Szansa na sukces: firmy, które są w stanie poprawić niezawodność i uniknąć nawet sporadycznych wpadek i katastrof, będą tymi, które przetrwają. Te, które tego nie zrobią, zostaną wykrwawione przez utracone kontrakty i możliwości.

Tworzenie stron internetowych

Wiele z ostatnich kilku dekad rozwoju oprogramowania poświęcono na powielanie łatwości i szybkości natywnego kodu desktopowego w ramach bezpieczeństwa nowoczesnej przeglądarki internetowej.

Wyniki były ogólnie dobre, ale wkrótce będą jeszcze lepsze dzięki pojawieniu się web assembly (WASM). Technologia ta otwiera przed programistami możliwość pisania bardziej złożonego kodu, który oferuje użytkownikowi bardziej wyrafinowane i elastyczne interfejsy. Wyrafinowane narzędzia, takie jak edytory zdjęć i bardziej wciągające środowiska stają się możliwe.

Technologia ta otwiera również opcje dla bardziej złożonego, ciężkiego obliczeniowo kodu z bardziej wyrafinowanymi modelami sztucznej inteligencji i lepszym, bardziej responsywnym kodem. Narzędzia takie jak CheerpJ, Wasmer i Cobweb to tylko trzy przykłady narzędzi wprowadzających języki takie jak Java, Python i COBOL do świata, który kiedyś był krainą JavaScript.

Główna grupa docelowa: zespoły, które muszą dostarczać złożony, reaktywny kod do odległych użytkowników. Jeśli znaczna część pracy wykonywana jest na komputerze klienckim, montaż sieciowy może często przyspieszyć tę warstwę. Menedżerowie, którzy chcą mieć pewność, że na całym sprzęcie działa ten sam kod, uznają tę prostotę za atrakcyjną.

Szansa na sukces: fundamenty już są, głębszym problemem jest zbudowanie kompilatorów i mechanizmów dystrybucji, aby umieścić działający kod na maszynach ludzi. Największym wyzwaniem może być to, że pobieranie i instalowanie kodu wykonywalnego nie jest tak trudne dla wielu użytkowników.

Zdecentralizowana tożsamość

Idea podziału naszej tak zwanej tożsamości ewoluuje na dwóch poziomach. Z jednej strony zwolennicy prywatności tworzą sprytne algorytmy, które ujawniają wystarczającą ilość informacji, aby przejść przez jakąkolwiek kontrolę tożsamości, zachowując wszystko inne o danej osobie w tajemnicy. Jednym z potencjalnych algorytmów może być na przykład cyfrowa licencja na picie, która gwarantowałaby, że kupujący piwo ma ukończone 21 lat bez ujawniania miesiąca, dnia, a nawet roku urodzenia.

Inna wersja wydaje się ewoluować w odwrotnym kierunku, ponieważ branża reklamowa szuka sposobów na połączenie wszystkich naszych pseudonimów i półanonimowego przeglądania sieci. Jeśli pójdziesz do sklepu z katalogami, aby kupić parasole, a następnie zaczniesz oglądać reklamy parasoli na stronach z wiadomościami, możesz zobaczyć, jak to się rozwija. Nawet jeśli się nie logujesz, nawet jeśli Główna grupa docelowa: przedsiębiorstwa takie jak opieka medyczna lub bankowość, które zajmują się danymi osobowymi i przestępczością.

Szansa na sukces: podstawowe algorytmy działają dobrze; wyzwaniem jest opór społeczny.

Procesory graficzne

Procesory graficzne zostały po raz pierwszy opracowane w celu przyspieszenia renderowania złożonych scen wizualnych, ale ostatnio deweloperzy odkrywają, że układy te mogą również przyspieszać algorytmy, które nie mają nic wspólnego z grami lub światami 3D. Niektórzy fizycy już od jakiegoś czasu wykorzystują procesory graficzne do złożonych symulacji. Niektórzy twórcy sztucznej inteligencji wykorzystują je do przetwarzania zestawów treningowych.

Teraz deweloperzy zaczynają badać możliwości przyspieszenia bardziej powszechnych zadań, takich jak przeszukiwanie baz danych, przy użyciu układów GPU. Układy te sprawdzają się, gdy te same zadania muszą być wykonywane równolegle na ogromnych ilościach danych. Przy odpowiednim podejściu, mogą one przyspieszyć pracę od 10 do 1000 razy. Nie tylko to, ale firmy takie jak Apple i AMD wykonują świetną robotę integrując GPU z CPU, aby stworzyć coś, co może dobrze wykonywać oba rodzaje zadań.

Główni odbiorcy: przedsiębiorstwa oparte na danych, które chcą badać wyzwania wymagające dużych mocy obliczeniowych, takie jak sztuczna inteligencja lub złożona analityka.

Szansa na sukces: inteligentni programiści od lat wykorzystują układy GPU do specjalnych projektów. Teraz uwalniają potencjał w projektach, które dotykają problemów, z jakimi boryka się większa liczba firm.

Ekologiczne obliczenia

Każdego dnia słyszymy nowe historie o ogromnych centrach danych wypełnionych potężnymi komputerami, które zasilają chmurę i uwalniają moc niezwykle skomplikowanych algorytmów i aplikacji sztucznej inteligencji. Po tym, jak uczucie zachwytu znika, dwa rodzaje ludzi się wzdrygają: dyrektorzy finansowi, którzy muszą płacić rachunki za energię elektryczną, oraz zwolennicy ekologii, którzy martwią się o to, co to robi ze środowiskiem. Obie grupy mają jeden wspólny cel: zmniejszenie ilości energii elektrycznej wykorzystywanej do tworzenia magii. Okazuje się, że wiele algorytmów można ulepszyć, co napędza dążenie do ekologicznych obliczeń. Czy ten algorytm uczenia maszynowego naprawdę musi badać jeden terabajt danych historycznych, czy też może uzyskać te same wyniki przy kilkuset gigabajtach. A może wystarczy dziesięć, pięć lub jeden? Nowym celem dla projektantów algorytmów jest generowanie tej samej mocy przy znacznie mniejszym zużyciu energii elektrycznej, oszczędzając w ten sposób pieniądze, a może nawet planetę.

Główna grupa docelowa: każdy podmiot, który dba o środowisko (lub płaci rachunki za media).

Szansa na sukces: programiści byli chronieni przed prawdziwymi kosztami uruchamiania ich kodu przez prawo Moore’a. Jest mnóstwo miejsca na lepszy kod, który pozwoli oszczędzać energię elektryczną.

Zdecentralizowane finanse

Niektórzy nazywają to blockchainem. Inni wolą bardziej przyziemne określenie „rozproszona księga rachunkowa”. Tak czy inaczej, wyzwaniem jest stworzenie wspólnej wersji prawdy - nawet jeśli wszyscy się nie dogadują. Ta „prawda” ewoluuje, gdy wszyscy dodają zdarzenia lub transakcje do wspólnej rozproszonej listy. Kryptowaluty, które w dużej mierze opierają się na takich matematycznie gwarantowanych listach w celu śledzenia, kto jest właścicielem różnych wirtualnych monet, rozsławiły ten pomysł, ale nie ma powodu, by sądzić, że zdecentralizowane podejścia tego typu muszą ograniczać się tylko do waluty.

Zdecentralizowane finanse są jedną z takich możliwości, a ich potencjał wynika po części z faktu, że obejmowałyby one kilka firm lub grup, które musiałyby współpracować, mimo że tak naprawdę nie ufają sobie nawzajem. Łańcuch transakcji przechowywanych w rozproszonej księdze może śledzić płatności ubezpieczeniowe, zakupy samochodów lub dowolną liczbę aktywów. Tak długo, jak wszystkie strony zgadzają się, że księga jest prawdziwa, poszczególne transakcje mogą być gwarantowane.

Nadal istnieje również realne zainteresowanie transakcjami niewymienialnymi (NFT), nawet jeśli szum wokół nich ucichł. Mogą one mieć praktyczną wartość dla każdej firmy, która chce dodać warstwę autentyczności do cyfrowego doświadczenia. Być może drużyna baseballowa może wydać wersję NFT karty wyników każdemu, kto kupił prawdziwy bilet, aby usiąść na trybunach. Być może firma produkująca sneakersy mogłaby rozdawać NFT z dostępem do następnego zrzutu określonej kolorystyki.

Główna grupa docelowa: każdy, kto musi zarówno zaufać, jak i zweryfikować swoją pracę z inną firmą lub podmiotem. Przedsiębiorstwa pracujące z elementamij cyfrowymi, które potrzebują większej autentyczności i być może sztucznego niedoboru.

Szansa na sukces: uż tu jest, ale tylko w światach kryptowalut. Bardziej konserwatywne firmy powoli podążają za nimi.

Źródło: CIO

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200