Computerworld.pl
Konferencje
Badania redakcyjne
Tematy
Agile
AI (Artificial Intelligence)
Aplikacje Biznesowe
Bezpieczeństwo
Big Data
Cloud Computing
DataCenter
SDN
Sieci
Smart City
Sprzęt B2B
Praca w IT
Przemysł 4.0
Digital Leaders
Badanie AudIT
Biblioteka IT
TOP200
Strefy tematyczne
Efektywna praca hybrydowa
Sieci w logistyce
Raportowanie ESG - wszystko, co trzeba wiedzieć
Atman 30 lat Internetu komercyjnego
×
Szukaj
Konferencje
Wiadomości
CIO Executive
Podcasty
Badania redakcyjne
Okiem Prezesa
Wywiady
Badanie AudIT
Biblioteka IT
Praca w IT
Tematy
Agile
AI (Artificial Intelligence)
Aplikacje Biznesowe
Bezpieczeństwo
Big Data
Cloud Computing
DataCenter
SDN
Sieci
Smart City
Sprzęt B2B
Praca w IT
Przemysł 4.0
Digital Leaders
Strefy tematyczne
Efektywna praca hybrydowa
Sieci w logistyce
Raportowanie ESG - wszystko, co trzeba wiedzieć
Atman 30 lat Internetu komercyjnego
TOP200
Kiosk
Archiwum
Newslettery
Strona główna
Centrum tematyczne
DataCenter
DataCenter
Rośnie liczba dużych centrów danych w Polsce
Wiesław Pawłowicz
W październiku 2021 Orange otworzył ośrodek w Łazach koło Warszawy, a w grudniu T-Mobile uruchomił nowe centrum danych w Warszawie.
Co się będzie działo w świecie danych w 2022 roku?
Patrick McFadin, DataStax
Dane stały się kluczowe dla firm, ale jak powinniśmy zarządzać tym kluczowym aktywem w przyszłości? I jak w odpowiedzi na to zmieni się infrastruktura, polityka i koszty biznesowe?
Chmura w MŚP - wolno, ale wciąż do przodu
Grzegorz Stech
Polski rynek MŚP uchmurawia się konsekwentnie choć nieśpiesznie – wynika z nowego badania OVHcloud oraz Intel. Co hamuje szybki, pionowy start rozwiązań chmurowych? Polscy „średniacy” wciąż mocno tkwią w infrastrukturze własnej. Nie oznacza to jednak, że nie korzystają z chmury. A ta w czasie pandemii cieszy się wyjątkową popularnością.
Materiał promocyjny
Wirtualizacja aplikacji
Computerworld
Podcast
Rok podcastów Tech Trends
Grzegorz Stech
Minął rok. 10 grudnia 2020 na stronie Computerworld pojawiła się zakładka Podcasty. I pierwszy podcast. Za nami 4 sezony rozmów o technologiach. O czym rozmawialiśmy z ekspertami? Jak robimy nasze produkcje? O tym opowiadamy w tym odcinku specjalnym.
W 2022 roku Polska będzie miała strefę lokalną AWS
Grzegorz Stech
Kolejny gigant internetowy bardziej otwiera się na Polskę. Amazon Web Services (AWS) ogłosił powstanie tzw. strefy lokalnej (Local Zone) w Polsce. Łącznie ogłosił ponad 30 nowych stref, m.in. w Czechach i Grecji. Są to pierwsze strefy lokalne powstałe poza terytorium USA. Polski rynek cloudowy jest na tyle duży, że wielcy gracze nie mogą przejść obok niego obojętnie.
W ciągu 6 lat rynek obliczeń kwantowych osiągnie wartość 8,6 mld USD
Anna Ładan
IDC prognozuje, że światowy rynek obliczeń kwantowych wzrośnie do 8,6 mld USD w 2027 r. To przeszło 16-krotny wzrost, który mają napędzić przełomy technologiczne i platformy do obliczeń kwantowych w modelu aaS. W ciągu następnej dekady ma nastąpić zmierzch klasycznych obliczeń.
Czy możliwa jest dominacja komputerów kwantowych?
Chris Nerney
Twórcy komputerów kwantowych starają się wykazać, że mogą one przewyższyć komputery klasyczne, ale być może ich nie zastąpią.
Instancje serwerów skonfigurowanych w chmurach padają zbyt często ofiarą hakerów
Janusz Chustecki
Google przeprowadził badanie ujawniające ciekawe szczegóły dotyczące włamań do jego chmurowej platformy GCP (Google Cloud Platform). W wielu przypadkach hakerzy po przejęciu kontroli nad instancją działają bardzo szybko i już po kilkunastu minutach potrafią zagnieździć w niej malware kopiący kryptowaluty i czerpać z tego procederu niemałe zyski.
Bayer i Microsoft będą wspólnie cyfryzować rolnictwo
Anna Ładan
Platformy Bayer Climate FieldView™ i Microsoft Azure planują wspólnie stworzyć nowe rozwiązania cyfrowe w celu optymalizowania i rozwoju cyfrowych możliwości w ramach łańcucha wartości w branży produkcji żywności, pasz, paliw i błonnika.
Kolejny amerykański start-up błyskawicznie pozyskał finansowanie na budowę komputera kwantowego
Anna Ładan
Jak podała agencja Reuters, QuEra Computing – start-up założony przez naukowców z Uniwersytetu Harvarda i Massachusetts Institute of Technology (MIT) w celu produkcji komputerów kwantowych zebrał zebrał 17 mln USD od inwestorów, w tym japońskiego giganta e-commerce Rakuten Inc.
Computerworld
Technologia to przede wszystkim korzyści
Computerworld
W ciągu ostatnich lat podejście do wyboru platformy serwerowej mocno się zmieniło. IT zaczyna patrzeć na dostępne opcje z perspektywy zapewnianych korzyści biznesowych. Pod tym względem wciąż najlepiej prezentuje się IBM Power. Jego zalety doceniają coraz częściej nie tylko największe, ale także średnie i mniejsze firmy - rozmowa z Andrzejem Gładyszem, wiceprezesem firmy integratorskiej Averbit oraz Sebastianem Jelińskim, pełniącym funkcję Senior Server Solutions Consultant w IBM.
Data Driven Innovation 2021 - fotogaleria
Computerworld
Świat, który znamy dzisiaj nie może istnieć bez paliwa jakim jest nowa ropa, czyli dane. Dzięki rozwojowi technologii wytwarzamy i magazynujemy ich ogromne ilości. Dobrze wykorzystane mogą stać się naszym najlepszym sprzymierzeńcem na konkurencyjnych rynkach w szybko zmieniającym się świecie.
Materiał promocyjny
Pamięci masowe IBM Storage w hybrydowych środowiskach wielochmurowych
Computerworld
Modernizacja infrastruktury związanej z ochroną danych jest w pierwszej piątce najważniejszych zadań działów IT. Wskazuje na to 73% respondentów badania „Trends in Modern Data Protection” . Cyfrowy świat staje się coraz bardziej złożony i dynamiczny. Tradycyjne tworzenie kopii zapasowych i odzyskiwanie danych musi sobie radzić z ich wykładniczym przyrostem objętości i nowymi funkcjami analitycznymi.
Stacje bazowe 5G będzie można zasilać drogą bezprzewodową
Janusz Chustecki
Dwie firmy (PowerLight Technologies i Ericsson) pracują nad nowatorskim rozwiązaniem, dzięki któremu stacje bazowe 5G będzie można zasilać nie w tradycyjny sposób (czyli za pomocą miedzianego okablowania), ale bezprzewodowo, używając do tego celu lasera.
Jak zmieniają się centra danych
Wiesław Pawłowicz
Mechanizmy pozwalające na automatyzację typowych procedur i wykorzystanie sztucznej inteligencji to podstawowe kierunki rozwoju technologii centrów przetwarzania danych.
Udowadniamy wartość analityki na brzegu sieci
Bob Violino
Edge computing oferuje duże potencjalne korzyści dla firm z różnych branż. Ten model obliczeń rozproszonych, który przybliża przechowywanie i analizę danych do ich źródeł, może zapewnić organizacjom lepszy czas reakcji, mniejsze opóźnienia w sieci, niższe koszty przepustowości, a nawet większe bezpieczeństwo. Wprowadzając więcej możliwości analitycznych tam, gdzie gromadzone są dane, organizacje osiągają większą szybkość reakcji i wydajność. Oto trzy historie sukcesu analityki edge computing.
Edge computing: 5 potencjalnych pułapek
Bob Violino
Wśród wielu zalet edge computing znajdują się lepsze reagowanie w czasie zbliżonym do rzeczywistego oraz analitykadla IoT, ale mimo wszystko temu rozwiązaniu daleko do plug and play.
Poprzednia
strona
1
...
9
10
11
12
13
...
146
Następna
strona
Redakcja poleca
AI może doprowadzić świat do katastrofy energetycznej
Janusz Chustecki
Architektura jest jednak kontekstem
Paula Rooney
AI ma duży apetyt na prąd. Google znalazł na to sposób
Grzegorz Kubera
Polcom - jeszcze więcej środków na inwestycje
Computerworld
Biblioteka IT
Firmowe dane z jeszcze lepszym silnikiem przetwarzania
Jak technologie IBM Power i Oracle mogą przyspieszyć firmowy biznes? Firmowe aplikacje, pracujące w oparciu o bazy danych Oracle, mogą działać jeszcze wydajniej i być tańsze w utrzymaniu bez utraty jakości i ciągłości przetwarzania danych. Jest to możliwe dzięki zaawansowanym technologicznie i wydajnym platformom serwerowym IBM Power, które mogą przenieść firmowy computing na znacznie wyższy poziom. Przeczytaj i przekonaj się, w jaki sposób partnerstwo technologiczne IBM i Oracle może zmienić zasady gry w scyfryzowanym świecie.
Jak HPE ProLiant może pomóc przekształcić zarządzanie danymi i zwiększyć wyniki biznesowe dzięki analizie danych
Ilość danych rośnie szybciej niż większość organizacji jest w stanie sobie z tym poradzić. Oczekuje się, że w 2025 r. wzrost ilości danych wyniesie ponad 200 zettabajtów. 57% niedawno ankietowanych liderów biznesowych twierdzi, że ich firmy nie są w stanie nadążyć za tą ilością danych i zdają sobie sprawę, że nie są gotowi na przyszłość. W tych danych kryją się przełomowe spostrzeżenia dotyczące innowacji, usług i środków bezpieczeństwa, ale można je zrealizować tylko wtedy, gdy dane zostaną połączone i oswojone w celu analizy. Oznacza to połączenie milionów wątków danych w jednolitą strukturę, zautomatyzowaną i dostępną od brzegu sieci do chmury. W jaki sposób modernizacja danych może sprostać największym wyzwaniom?
Mistrzowie migracji danych
Czy można skrócić czas migracji między niekompatybilnymi systemami z 70 do 14 godzin? Inżynierowie firmy Comarch opracowali i przeprowadzili projekt, w którym to się udało. Klient z branży ubezpieczeniowej musiał mieć dodatkowo zapewnione najwyższe standardy bezpieczeństwa. Operacja przeprowadzona w sposób tradycyjny - wykonania kopii zapasowej na taśmach magnetycznych w ośrodku klienta i transport taśm do ośrodka Comarch, gdzie miałaby nastąpić operacja odtworzenia, znacznie przekroczyłyby czas niedostępności. Konieczne było więc nieszablonowe podejście i bardzo dobrze zaplanowany proces, wsparcie partnerów biznesowych i przede wszystkim ogromne doświadczenie ekspertów. Zapraszamy do lektury niezwykle inspirującego case study, w którym zostały przedstawione krok po kroku szczegóły migracji opartej na macierzach dyskowych IBM FlashSystem i SVC.
Zapewnienie ciągłości działania systemów informatycznych
Cyfryzacja kolejnych procesów biznesowych wykładniczo zwiększa złożoność oraz zależność systemów informatycznych. W efekcie funkcjonowanie współczesnych organizacji w niespotykanym wcześniej stopniu zależy od pełnej dostępności środowisk IT. Wydarzenia ostatnich miesięcy sprawiły, że prawdopodobieństwo wystąpienia zdarzeń, które istotnie mogą wpłynąć na zakłócenie procesów biznesowych przedsiębiorstwa, znacząco wzrosło. Pandemia COVID-19 i wojna w Ukrainie wymusiła na firmach rewizję planów zachowania ciągłości działania pod kątem zdarzeń, które, w głębokim przekonaniu, nie miały prawa się zdarzyć. Dzisiaj w analizie ryzyka, obok awarii infrastruktury czy katastrof naturalnych, w większym niż kiedykolwiek wcześniej stopniu należy przyjrzeć się ryzykom wynikającym z niespokojnej sytuacji geopolitycznej (ataki cybernetyczne, wojna, kryzys energetyczny). Konsekwencje zaburzenia ciągłości działania mogą być poważne – od niezrealizowanej sprzedaży po brak możliwości realizacji większości operacji przedsiębiorstwa, a w efekcie narażenie firmy na konsekwencje prawne i utratę zaufania klientów. Badanie „Computerworld” miało na celu znalezienie odpowiedzi na pytania: W jaki sposób rodzime przedsiębiorstwa podchodzą do kwestii zapewnienia sprawności procesów? Jaki wpływ na biznes ma utrata ciągłości działania systemów IT? Czy firmy mają gotowe plany zachowania ciągłości i przywracania procesów po awarii? W jakim stopniu zapasowe centra danych, nowoczesne techniki backupu i chmura obliczeniowa mogą pomóc w zwiększeniu dostępności systemów i danych?
Reklama zamknie się za 15 sekund. Przejdź do serwisu »