Rozwiązania definiowane programowo i hiperkonwergentne: wprowadzenie


Tikiri Wanduragala, starszy konsultant w dziale systemów serwerowych x86 w Lenovo EMEA, mówi o dwóch gorących tematach: rozwiązaniach definiowanych programowo oraz technologiach konwergentnych, a także o relacji pomiędzy nimi.

Co mamy na myśli, mówiąc rozwiązania definiowane programowo albo ‘software-defined’?

Tym, co chcemy przekazać, używając tego wyrażenia, jest przede wszystkim odniesienie do wirtualizacji. Kiedy zwirtualizujemy serwer i uruchamiamy na nim wiele instancji, to znaczy, że wzięliśmy coś fizycznego i zamieniliśmy to – ostatecznie – w plik binarny. To oznacza, że możemy wgrać wiele kopii, co pozwala lepiej zutylizować serwer i zyskać większą elastyczność.

Mówimy o serwerach, ale warianty tej technologii mogą być również wykorzystane w obszarze pamięci masowej i sieci. Kiedy połączymy wszystkie elementy w jednym rozwiązaniu, wówczas zyskujemy możliwość definiowania sprzętu programowo, co oznacza, że całe środowisko może być kontrolowane przez oprogramowanie.

Korzyści takiego podejścia to przede wszystkim skrócenie dystansu do aplikacji, co jest istotne, ponieważ tam właśnie znajduje się logika biznesowa. Ponadto, rozwiązania software-defined zapewniają większą automatyzację i są prostsze – nie trzeba zajmować się fizycznym sprzętem.

Dlatego obecnie cała branża zmierza w tym kierunku, gdyż wirtualizacja obejmująca pamięć masową, sieci i serwery stała się tak popularna. Chodzi przede wszystkim o wyeliminowanie silosów. IT w przedsiębiorstwach tradycyjnie składało się z silosów – baz danych, serwerów, pamięci masowej, aplikacji i sieci – ale teraz wszystkie elementy łączą się w świecie definiowanym programowo.

Mówiąc bardziej precyzyjnie, zmienia się natura silosów. Dotychczas istniały np. silosy sieciowe, w ramach których specjaliści budowali najlepsze sieci, jakie były możliwe do stworzenia. To samo dotyczyło pamięci masowej, serwerów i pozostałych obszarów. W świecie rozwiązań software-defined jest inaczej. Silosy będą powstawać wokół aplikacji. Warto znowu przypomnieć: tam znajduje się logika biznesowa.

Modna hiperkonwergencja

Zrozumienie co to znaczy ‘hiper’, najpierw wymaga wyjaśnienia, co rozumiemy przez infrastrukturę konwergentną. W ogromnym skrócie: systemy kasetowe, czyli blade’y. Dlaczego to rewolucyjne rozwiązanie? Ponieważ mamy jedną wielką obudowę, która działa jak małe centrum danych: mamy serwery, przełączniki, sieć i pamięć masową, a także narzędzia zarządzające pozwalające wszystko zharmonizować, dzięki czemu możemy mówić o konwergencji technologii.

Każdy z tych elementów można odpowiednio dobrać do konkretnych potrzeb - technologię podłączenia pamięci masowej, typy serwerów i przełączniki sieciowe.

Hiperkonwergencja umożliwia zblokowanie pamięci masowej, przełączników sieciowych, możliwości serwerów itd. Następnie całość zostaje zwirtualizowana. Dzięki temu zyskujemy coś w rodzaju klocków, z których bardzo szybko możemy składać i uruchamiać gotowe rozwiązania. Firma kupuje takie pudełko z inteligentnym oprogramowaniem, a następnie nabywa kolejne, dzięki któremu może skalować infrastrukturę.

Najważniejszą rzeczą w hiperkonwergencji jest łączenie i klastrowanie jednostek pamięci masowej. Dotychczas urządzenia pamięci masowej były oferowane niezależnie od serwerów, z którymi komunikowały się za pośrednictwem zaawansowanych protokołów. W świecie hiperkonwergencji, pamięć masowa znajduje się w serwerze, wykorzystując znajdującą się w nim inteligencję – co oczywiście wyjaśnia, dlaczego to pojęcie jest tak istotne dla rynku pamięci masowej. W rzeczywistości bowiem to prawdziwa rewolucja.

Jak rozwiązania definiowane programowo mają się do rozwiązań hiperkonwergentnych: drugie są podzbiorem pierwszych.

Jaką rolę odgrywa w tym wszystkim Lenovo?

W obydwu przypadkach mamy do czynienia ze wzrostem znaczenia serwerów. Różne role są obecnie kontrolowane przez serwery, ponieważ w nich znajduje się wszystko, co najważniejsze; na nich znajdują się aplikacje. Lenovo specjalizuje się w tworzeniu serwerów, które pozwalają zrealizować te koncepcje, a zarazem mają rozmaite specyfikacje, dzięki czemu mogą zaspokajać różne potrzeby klientów.

Lenovo współpracuje także z największymi producentami oprogramowania w celu zagwarantowania, że ich software będzie niezawodnie działać na serwerach Lenovo – ma to kluczowe znaczenie w środowiskach definiowanych programowo. Dlatego ostatecznie mamy szczególną pozycję – oferujemy serwery potrzebne do uruchamiania oprogramowania, ale nie jesteśmy od niego uzależnieni.

Dlaczego to wszystko dzieje się teraz? Najważniejszym elementem tych zmian jest pamięć flash – dostarcza bowiem serwerom znacznie większych możliwości. Co to znaczy? Mogą być dwa powody kupowania tradycyjnych dysków z wirującymi talerzami: wydajność lub pojemność. Obydwa elementy są ze sobą powiązane. Jeśli wydajność nie jest wystarczająca, trzeba kupić dużo pojemności, ponieważ nie można mieć jednego bez drugiego.

Dzięki pamięci flash można oddzielić wydajność od pojemności. To oznacza znacznie mniej wirujących dysków w centrach danych, zwiększenie wydajności, ograniczenie zużycia energii, mniejsze wymagania w zakresie chłodzenia, a także mniejsze zapotrzebowanie na fizyczną przestrzeń. W rzeczywistości mamy do czynienia z efektem domina – pamięć flash zmienia centra danych.

Zapisz się na bezpłatny newsletter. Dowiesz się o webinarach, nowych case study oraz white paperach.