Computerworld.pl
Konferencje
Badania redakcyjne
Tematy
Agile
AI (Artificial Intelligence)
Aplikacje Biznesowe
Bezpieczeństwo
Big Data
Cloud Computing
DataCenter
SDN
Sieci
Smart City
Sprzęt B2B
Praca w IT
Przemysł 4.0
Digital Leaders
Badanie AudIT
Biblioteka IT
TOP200
Strefy tematyczne
Efektywna praca hybrydowa
Sieci w logistyce
Raportowanie ESG - wszystko, co trzeba wiedzieć
Atman 30 lat Internetu komercyjnego
×
Szukaj
Konferencje
Wiadomości
CIO Executive
Podcasty
Badania redakcyjne
Okiem Prezesa
Wywiady
Badanie AudIT
Biblioteka IT
Praca w IT
Tematy
Agile
AI (Artificial Intelligence)
Aplikacje Biznesowe
Bezpieczeństwo
Big Data
Cloud Computing
DataCenter
SDN
Sieci
Smart City
Sprzęt B2B
Praca w IT
Przemysł 4.0
Digital Leaders
Strefy tematyczne
Efektywna praca hybrydowa
Sieci w logistyce
Raportowanie ESG - wszystko, co trzeba wiedzieć
Atman 30 lat Internetu komercyjnego
TOP200
Kiosk
Archiwum
Newslettery
Strona główna
Centrum tematyczne
DataCenter
DataCenter
AlphaServer z 64 procesorami
Paweł Szczepaniak
Rozbudowany model GS 1280, nowy serwer klasy podstawowej i ulepszone systemy operacyjne Tru64 UNIX oraz OpenVMS, to nowości na platformie HP AlphaServer.
Gigantyczna biblioteka taśmowa
Janusz Chustecki
StorageTek ujawnił, że przygotowuje się do wprowadzenia na rynek gigantycznej biblioteki taśmowej, która może w maks. konfiguracji obsłużyć 50 razy więcej kaset niż największe dostępne obecnie produkty tego typu.
HP poszerza ofertę
Janusz Chustecki
HP ogłosił wczoraj poszerzenie swojej oferty o kilka nowych serwerów (w tym nową rodzinę ProLiant) oraz dwa nowe klastry linuksowe.
Nowe możliwości macierzy Eva
Janusz Chustecki
HP poszerza funkcjonalność swoich macierzy wirtualnych rodziny Eva (StorageWorks Enterprise Virtual Array), o rozwiązanie HP StorageWorks Continuous Access Eva v1.1 oraz szereg nowych usług.
Ruszyły serwery
Andrzej Maciejewski
Według szacunków Gartnera, w trzecim kwartale rynek serwerów odnotował 20-proc. wzrost w porównaniu z analogicznym okresem ubiegłego roku. W III kw. na rynek trafiło łącznie 1,37 mln serwerów.
Primergy RXI600 z Itanium2
Anna Machol
Nowy serwer typu high-end jest przeznaczony do obsługi wymagających aplikacji w dużych firmach. Kompatybilność 64-bitowych procesorów Intel Itanium2 z 32-bitowym sprzętem zapewnia współpracę z 32-bitowym oprogramowaniem.
Serwery e3000 odchodzą do historii
Janusz Chustecki
HP informuje, że wstrzymuje produkcję serwerów linii e3000. Są to serwery średniej klasy pracujące pod firmowym systemem operacyjnym MPE/iX.
Bezpieczne, długotrwałe przechowywanie danych
Janusz Chustecki
EMC jest twórcą pamięci masowej typu content addressed storage. EMC Centera to pamięć masowa służąca do przechowywania danych, które są rzadko zmieniane i muszą być magazynowane przez dłuższy okres.
Obiektowa pamięć masowa
Janusz Chustecki
Wydawać by się mogło, że w dziedzinie pamięci masowych trudno jest opracować jakąś nową technologię. A jednak jest inaczej. Okazuje się, że pamięci masowe mogą przechowywać dane, które mają postać obiektów.
IPS 4300 połączy odległe sieci SAN
Janusz Chustecki
Do połączenia ze sobą odległych sieci SAN można użyć wieloprotokołowego przełącznika IPS 4300 (Nishan, obecnie McData), który potrafi obsłużyć pamięci masowe typu Fibre Channel, NAS i SCSI.
Platynowy NAS
Paweł Szczepaniak
Maxdata zaprezentuje podczas targów Systems 2003 w Monachium pierwsze rozwiazanie NAS (Network Attached Storage). Nowy, prosty w obsłudze system poszerza ofertę niemieckiej firmy w sektorze pamięci masowych.
Nowy moduł SAN dla MDS 9000
Janusz Chustecki
IBM i Cisco wprowadzą w grudniu br. na rynek nowy moduł SAN dla przełączników rodziny MDS 9000 (Cisco), którym będzie zarządzać oprogramowanie stosowane do tej pory w urządzeniach pamięci masowej SAN Volume Controller (IBM).
Ulepszone pamięci Shark
Janusz Chustecki
IBM wprowadzi do pamięci masowej Shark Enterprise Storage System (ESS) Model 800 szereg usprawnień (w tym wsparcie dla sieci Fiber Channel), które zwiększą jej wydajność oraz ułatwią zarządzanie.
Nowa linia serwerów ProLiant
Janusz Chustecki
HP poszerzy wkrótce rodzinę serwerów ProLiant o linię 100 i informuje, że będzie je można używać do budowania tanich, wysoko wydajnych klastrów.
Wideomonitorowanie z MCX Systems
Adam Urbanek
Spółka MCX Systems wdrożyła w warszawskiej firmie SEMIH teleinformatyczny system kontroli obrazowej otoczenia o łącznej wartości 600 000 zł netto.
Milion do kwadratu
Paweł Szczepaniak
Klaster o szczytowej wydajności 1,3 biliona (milion milionów) operacji zmiennoprzecinkowych na sekundę uruchomiono w Centrum Informatycznym TASK przy Politechnice Gdańskiej. Superkomputer dostarczony przez firmę Optimus zbudowano w oparciu o architekturę Intela i procesory Itanium 2. Jest to najszybszy klaster w Polsce i dziewiąty na świecie.
Szybszy serwer pSeries 615
Janusz Chustecki
IBM wprowadzi do swojej oferty pod koniec tego tygodnia ulepszoną wersję pSeries 615 (serwer klasy podstawowej platformy Unix/Linux).
Rozproszony system plików dla sieci SAN
Janusz Chustecki
IBM opracował oprogramowanie oparte na rozproszonym systemie plików, które pozwala zarządzać danymi przechowywanymi w sieciach SAN opartych na serwerach i macierzach dyskowych wyprodukowanych przez różne firmy.
Poprzednia
strona
1
...
118
119
120
121
122
...
146
Następna
strona
Redakcja poleca
AI może doprowadzić świat do katastrofy energetycznej
Janusz Chustecki
Architektura jest jednak kontekstem
Paula Rooney
AI ma duży apetyt na prąd. Google znalazł na to sposób
Grzegorz Kubera
Polcom - jeszcze więcej środków na inwestycje
Computerworld
Biblioteka IT
Firmowe dane z jeszcze lepszym silnikiem przetwarzania
Jak technologie IBM Power i Oracle mogą przyspieszyć firmowy biznes? Firmowe aplikacje, pracujące w oparciu o bazy danych Oracle, mogą działać jeszcze wydajniej i być tańsze w utrzymaniu bez utraty jakości i ciągłości przetwarzania danych. Jest to możliwe dzięki zaawansowanym technologicznie i wydajnym platformom serwerowym IBM Power, które mogą przenieść firmowy computing na znacznie wyższy poziom. Przeczytaj i przekonaj się, w jaki sposób partnerstwo technologiczne IBM i Oracle może zmienić zasady gry w scyfryzowanym świecie.
Jak HPE ProLiant może pomóc przekształcić zarządzanie danymi i zwiększyć wyniki biznesowe dzięki analizie danych
Ilość danych rośnie szybciej niż większość organizacji jest w stanie sobie z tym poradzić. Oczekuje się, że w 2025 r. wzrost ilości danych wyniesie ponad 200 zettabajtów. 57% niedawno ankietowanych liderów biznesowych twierdzi, że ich firmy nie są w stanie nadążyć za tą ilością danych i zdają sobie sprawę, że nie są gotowi na przyszłość. W tych danych kryją się przełomowe spostrzeżenia dotyczące innowacji, usług i środków bezpieczeństwa, ale można je zrealizować tylko wtedy, gdy dane zostaną połączone i oswojone w celu analizy. Oznacza to połączenie milionów wątków danych w jednolitą strukturę, zautomatyzowaną i dostępną od brzegu sieci do chmury. W jaki sposób modernizacja danych może sprostać największym wyzwaniom?
Mistrzowie migracji danych
Czy można skrócić czas migracji między niekompatybilnymi systemami z 70 do 14 godzin? Inżynierowie firmy Comarch opracowali i przeprowadzili projekt, w którym to się udało. Klient z branży ubezpieczeniowej musiał mieć dodatkowo zapewnione najwyższe standardy bezpieczeństwa. Operacja przeprowadzona w sposób tradycyjny - wykonania kopii zapasowej na taśmach magnetycznych w ośrodku klienta i transport taśm do ośrodka Comarch, gdzie miałaby nastąpić operacja odtworzenia, znacznie przekroczyłyby czas niedostępności. Konieczne było więc nieszablonowe podejście i bardzo dobrze zaplanowany proces, wsparcie partnerów biznesowych i przede wszystkim ogromne doświadczenie ekspertów. Zapraszamy do lektury niezwykle inspirującego case study, w którym zostały przedstawione krok po kroku szczegóły migracji opartej na macierzach dyskowych IBM FlashSystem i SVC.
Zapewnienie ciągłości działania systemów informatycznych
Cyfryzacja kolejnych procesów biznesowych wykładniczo zwiększa złożoność oraz zależność systemów informatycznych. W efekcie funkcjonowanie współczesnych organizacji w niespotykanym wcześniej stopniu zależy od pełnej dostępności środowisk IT. Wydarzenia ostatnich miesięcy sprawiły, że prawdopodobieństwo wystąpienia zdarzeń, które istotnie mogą wpłynąć na zakłócenie procesów biznesowych przedsiębiorstwa, znacząco wzrosło. Pandemia COVID-19 i wojna w Ukrainie wymusiła na firmach rewizję planów zachowania ciągłości działania pod kątem zdarzeń, które, w głębokim przekonaniu, nie miały prawa się zdarzyć. Dzisiaj w analizie ryzyka, obok awarii infrastruktury czy katastrof naturalnych, w większym niż kiedykolwiek wcześniej stopniu należy przyjrzeć się ryzykom wynikającym z niespokojnej sytuacji geopolitycznej (ataki cybernetyczne, wojna, kryzys energetyczny). Konsekwencje zaburzenia ciągłości działania mogą być poważne – od niezrealizowanej sprzedaży po brak możliwości realizacji większości operacji przedsiębiorstwa, a w efekcie narażenie firmy na konsekwencje prawne i utratę zaufania klientów. Badanie „Computerworld” miało na celu znalezienie odpowiedzi na pytania: W jaki sposób rodzime przedsiębiorstwa podchodzą do kwestii zapewnienia sprawności procesów? Jaki wpływ na biznes ma utrata ciągłości działania systemów IT? Czy firmy mają gotowe plany zachowania ciągłości i przywracania procesów po awarii? W jakim stopniu zapasowe centra danych, nowoczesne techniki backupu i chmura obliczeniowa mogą pomóc w zwiększeniu dostępności systemów i danych?
Reklama zamknie się za 15 sekund. Przejdź do serwisu »