Epoka wirujących talerzy

W ciągu 50 lat istnienia dyski twarde zrobiły wielką karierę, osiągając ogromną pojemność. Obecnie dyski stoją przed barierą wydajności, co może doprowadzić do ich zastąpienia przez nowe technologie.

W ciągu 50 lat istnienia dyski twarde zrobiły wielką karierę, osiągając ogromną pojemność. Obecnie dyski stoją przed barierą wydajności, co może doprowadzić do ich zastąpienia przez nowe technologie.

Wszystko zaczęło się na początku lat 50., a dokładnie w 1951 r., gdy na rynek trafił Univac - pierwszy komputer stworzony dla administracji i biznesu, a nie stricte do celów wojskowych. Zamiast kart perforowanych, wykorzystywanych w pierwszych komputerach IBM, Univac wykorzystywał do zapisu danych taśmy magnetyczne. IBM szybko jednak nadrobił zaległości, wprowadzając własne rozwiązania taśmowe, które szybko zdobyły popularność.

Taśma była pożyteczna, ponieważ była znacznie bardziej pojemna niż karty perforowane, miała jednak podstawowy mankament: nie umożliwiała szybkiego dostępu do plików. Dane na taśmie zapisywane są sekwencyjnie i aby uzyskać do nich dostęp, trzeba ja przewinąć. IBM miał świadomość, że stworzenie technologii z natychmiastowym (jak na owe czasy) dostępem do danych dałoby mu przewagę nad konkurentem i stworzyło nową falę popytu.

Znaleźć sposób, by zagiąć taśmę

Firma postanowiła zainwestować w badania. W 1952 r. do laboratorium IBM w San Jose w Kalifornii wysłany został doświadczony inżynier Raynold Johnson. Otrzymał zadanie, by stworzyć rozwiązanie pozwalające na magnetyczny (to już było pewne) zapis i odczyt danych z dowolnego pliku, bez względu na jego umiejscowienie na nośniku fizycznym. Efektem tych prac był IBM 350 RAMAC (Random Access Method of Accounting and Control) - podsystem dyskowy zintegrowany z komputerem IBM 305, który zaprezentowano we wrześniu 1956 r.

Opracowany przez (głównie) Raynolda Johnsona mechanizm zapisu wykorzystywał 50 stalowych talerzy o średnicy 24 cali zamontowanych jeden nad drugim i obracających się na wspólnej osi. Zapis i odczyt danych wykonywany był za pomocą dwóch niezależnych ramion z głowicami. Urządzenie pozwalało na zapis 5 mln 7-bitowych znaków, czyli mniej więcej 5 MB. Całość - komputer i zestaw dysków - miała gabaryty małego samochodu (w dzisiejszym ujęciu, ówczesne były znacznie większe) i ważyła ok. tonę.

W 1961 r. IBM zastąpił IBM 350 RAMAC wymiennymi IBM 1301 Disk Storage Unit. Istotne jest to, że wymianie podlegały same dyski (o pojemności 2 mln znaków), głowice były natomiast traktowane jako stały element systemu składującego dane.

Pierwszym urządzeniem integrującym dyski i głowice w szczelnej obudowie był wprowadzony w 1973 r. system dyskowy 3340 o kodowej nazwie Winchester (dwa talerze po 30 mln znaków). Winchester powstał dla komputerów mainframe IBM System/370. Notabene, dla tych samych komputerów (jeszcze w 1969 r.) IBM opracował pierwsze dyski elastyczne.

Dysk w pracy, w domu, a nawet w kieszeni

Dziś dyski twarde są obecne nie tylko w najwydajniejszych komputerach działających w laboratoriach rządowych i wielkich firmach, lecz w każdym komputerze, a ostatnio w elektronice powszechnego użytku (przenośne odtwarzacze muzyki, magnetowidy cyfrowe itp.) Upowszechnienie się twardych dysków było możliwe dzięki skali popytu, jaką wygenerowała popularyzacja komputerów osobistych.

Ciągłe inwestycje w badania nad nośnikami, metodami zapisu, technologię głowic sprawiły, iż obecnie oczekujemy, że za rok standardowe dyski twarde będą mieć mniej więcej dwukrotnie większą pojemność. Na rynku dostępne są dziś standardowe dyski 3,5" o pojemności 500 GB, a więc 100 tys. razy pojemniejsze niż ich protoplasta. Niedawno odbyła się premiera dysków o pojemności 750 GB, a do końca roku do sprzedaży trafić mają pierwsze w historii urządzenia o nominalnej pojemności 1 TB.

Rynek elektroniki użytkowej wykreował popyt na dyski o mniejszej pojemności, a przy tym znacząco mniejszych rozmiarach. Nawet jednak najmniejsze dyski twarde z talerzami o średnicy 0,8 cala mają dziś pojemność ponad tysiąc razy większą niż RAMAC. Najnowsze doniesienia związane z rozwojem techniki pionowego zapisu (perpendicular recording) mówią o możliwości stworzenia dysków o gęstości zapisu rzędu 2,5 Tb na cal kwadratowy.

Pojemność rośnie, wydajność nie

Przyszłość dysków twardych jako urządzeń do obsługi aplikacji transakcyjnych i analitycznych nie wygląda dziś jednak różowo. Choć pojemność dysków rośnie, wydajność zapisu/odczytu danych stoi praktycznie w miejscu. Najwydajniejsze dyski twarde z talerzami wirującymi z prędkością 15 tys. obr./min pozwalają na stały transfer danych transakcyjnych z prędkością co najwyżej kilkudziesięciu megabajtów (zwykle poniżej 20).

Zwiększanie prędkości zapisu/odczytu danych w urządzeniach wykorzystujących dyski twarde może się obecnie odbywać praktycznie tylko przez zwiększanie liczby dysków. Nie jest to, niestety, wspaniała perspektywa, ponieważ prowadzi w prostej linii do komplikacji infrastruktury. Projektowanie wydajnych do zastosowań transakcyjnych już dziś jest bardzo trudne.

Pewne możliwości tkwią jeszcze zapewne w konstrukcji głowic. Być może zwiększenie liczby głowic okaże się jakimś rozwiązaniem. Żaden przełom raczej się tu jednak nie szykuje. Na pewno nie będzie zwiększania szybkości obrotowej talerzy ze względu na emisję ciepła. Z tych samych powodów nie będzie zwiększania liczby talerzy w ramach jednej obudowy.

Dyski bez większych perspektyw

Przyszłość pamięci masowych do zastosowań transakcyjnych i analitycznych leży – na krótką metę – w technologiach półprzewodnikowych. Na początek będą to zapewne większe pamięci buforowe w samych dyskach twardych, Później będą to urządzenia, w których dyski twarde będą stanowić „drugą linię”. W końcu zostaną jednak wyparte przez technologie zapewniające wielką szybkość zapisu z wielkim pasmem I/O.

DO technologii tego rodzaju należy całkiem dziś realnie wyglądająca pamięć Magnetic RAM – szybsza niż SDRAM, a jednocześnie nie tracąca danych po zaniku napięcia. Obiecująco, zwłaszcza w świetle ostatnich doniesień Samsunga wygląda przyszłość pamięci typu Ovonics (zwanych bardziej fachowo phase change) czy nawet nowe generacje pamięci Flash mogą stworzyć pomost dla nowej jakości. Co je ostatecznie zastąpi – tego nie wie nikt. Być może będą to biopamięci, a może nanopamięci na rurkach węglowych.