Kryzys w gospodarce? Nie dla pamięci masowych!

Jak wygląda rynek pamięci masowej w czasach niekorzystnej sytuacji gospodarczej? Okazuje się, że ma się świetnie. Jak będzie wyglądał w najbliższej przyszłości? Jak mawiał Yogi Berra: "Przewidywanie jest trudne, zwłaszcza przewidywanie przyszłości". Spróbujmy zatem przyjrzeć się z bliska obecnym i przyszłym trendom technologicznym na rynku pamięci masowej.

Kluczowi gracze na rynku storage - EMC, IBM, NetApp, Brocade - w ostatnim kwartale bieżącego roku zanotowali dwucyfrowy wzrost dochodów ze sprzedaży swoich produktów. Jak podaje najnowszy raport analityków z firmy IDC, w obecnym kwartale globalny wzrost dochodów uzyskanych ze sprzedaży zewnętrznych urządzeń dyskowych wyniósł 16% i osiągnął wysokość 5,1 miliardów dolarów, przez co stanowi wzrost największy od dwóch lat. W sumie sprzedano 1,777 petabajtów pojemności dyskowej, o blisko 44% więcej niż w roku ubiegłym.

Wszystko wskazuje na to, że tendencja wzrostu sprzedaży urządzeń dyskowych utrzyma się przez najbliższe lata. Jak przewidują badania przeprowadzone przez analityków IDC, pojemności dostarczanych systemów dyskowych ulegać będą podwojeniu co dwa lata.

W ciągu czterech najbliższych lat wydatki na przestrzeń dyskową sięgną 34 bilionów dolarów. Do 2012 roku głównym akceleratorem zapotrzebowania na przestrzeń dyskową będzie szybki rozwój biznesu opartego na kontencie cyfrowym w obszarach telekomunikacji, mediów/rozrywki oraz Web 2.0. Telewizja cyfrowa, telewizja mobilna, Video on Demand, IPTV oraz serwisy społecznościowe korzystają w głównej mierze z kontentu cyfrowego.

Nie ulega wątpliwości, że do wzrostu sprzedaży na rynku pamięci masowej przyczyni się również zauważalna tendencja coraz powszechniejszego wykorzystywania technologii backupu dyskowego oraz wprowadzenie przepisów prawnych nakładających obowiązek archiwizowania informacji elektronicznej. Spowolnienie gospodarcze nie pozostanie jednak bez wpływu na decyzje zakupowe klientów. Plany budżetowe będą bardziej restrykcyjne, ukierunkowane w pierwszej kolejności na optymalne wykorzystanie już posiadanych zasobów. W związku z tym na popularności zyskają technologie poprawiające utylizację przestrzeni dyskowej. Na sytuację rynkową pamięci masowej duży wpływ będą miały także inicjatywy podejmowane na rzecz ochrony środowiska.

Dyski twarde

Klienci zdają sobie sprawę z faktu, że nie potrzebują maksymalnej wydajności dla wszystkich typów danych. Wiele firm wybiera tanie systemy dyskowe o wysokiej pojemności, aby przechowywać na nich informacje o mniejszym znaczeniu biznesowym.

Cel, jaki przyświeca tym działaniom, to budowa optymalnego rozwiązania, które bazuje na warstwach pamięci masowej. W zależności od wymagań funkcjonalnych, część danych organizacji składowana jest na warstwie szybkich i wydajnych dysków, natomiast pozostałe dane przechowywane są na warstwie tanich i pojemnych nośników. W związku z powyższym, stale rośnie wykorzystanie znacznie tańszych od dysków FC, szybkoobrotowych dysków SAS (Serial Attached SCSI) w zewnętrznych podsystemach dyskowych klasy entry-level.

Pozycja sprawdzonej i dojrzałej technologii dysków FC w systemach dyskowych klasy high-end wydaje się być niezagrożona do czasu osiągnięcia dojrzałości przez technologię SAS. W najbliższym czasie na rynku pojawią się dyski FC oraz SAS o pojemności 450 GB oraz dyski SATA 1,5 TB. Do warstwowego modelu pamięci masowej coraz częściej włączane będą - jako tier zero-storage - dyski SSD (Solid State Disks). Ze względu na oferowaną wysoką wydajność operacji I/O, znajdą one zastosowanie w wymagających środowiskach systemów transakcyjnych. Takie rozwiązania oferuje już w swoich macierzach firma EMC.

Thin provisioning

W sytuacji lawinowo rosnącej ilości informacji, największym problemem w wielu firmach jest to, jak w większym stopniu wykorzystać już posiadane zasoby dyskowe. Rozwiązań jest kilka, a do jednego z nich zaliczyć można thin provisioning. Technologia ta oferuje elastyczność alokacji przestrzeni dyskowej, w przeciwieństwie do stosowanej dotychczas alokacji tradycyjnej, polegającej na sztywnym przypisaniu wolnej przestrzeni do danej aplikacji. Jakiekolwiek zabiegi zmierzające do zmiany wielkości wolumenu wymagały do tej pory złożonych operacji administracyjnych. Zaalokowany wolumen może być natomiast zwiększany lub zmniejszany w zależności od potrzeb, bez przerywania pracy korzystających z niego systemów. Czołowi producenci podsystemów dyskowych implementują tę technologię w swoich macierzach i cieszy się ona coraz większym zainteresowaniem wśród klientów.

Wirtualizacja podsystemów dyskowych

Wirtualizacja pamięci masowej nie jest już postrzegana jako technologia niszowa, lecz główny nurt technologiczny w najbliższym czasie. Po wirtualizacji serwerów nastał czas wirtualizacji podsystemów dyskowych. Zwirtualizowanie macierzy dyskowych pochodzących od różnych producentów pozwoli skonsolidować dane w centralnie zarządzanej puli zasobów. Proces spójnego mapowania logicznej przestrzeni danych na fizyczną przestrzeń dyskową obsługiwany jest przez dedykowane oprogramowanie, zewnętrzny motor wirtualizacji lub system operacyjny macierzy dyskowej.

Deduplikacja danych

W najbliższym czasie deduplikacja danych będzie jedną z kluczowych technologii na rynku pamięci masowej, ze względu na znaczną - potencjalną - redukcję kosztów oraz zwiększenie efektywności działania systemów. Zarówno producenci oprogramowania do tworzenia kopii zapasowych, jak i dostawcy rozwiązań dyskowych powszechnie implementują deduplikację w swoich produktach. Technologia ta może być stosowana w różnych miejscach sieci pamięci masowych, włącznie z deduplikacją źródła, deduplikacją przesyłanych danych oraz deduplikacją w miejscu docelowym. Do największych możliwości, jakie niesie ze sobą technologia deduplikacji, zaliczyć można redukcję miejsca zajmowanego przez dane. W zależności od środowiska, redukcja taka może nawet osiągnąć poziom 50:1.

Backup dyskowy

Zapotrzebowanie na coraz krótsze okna backupu oraz czas odtwarzania danych po ich utracie przyczynia się do coraz częstszego wdrażania systemów tworzenia kopii zapasowych, w oparciu o technologie dyskowe. Posiadają one mechanizmy zabezpieczania danych przy użyciu kopii migawkowych, jak również wyżej wspomnianą deduplikację. Rośnie także popularność technologii wirtualnych bibliotek taśmowych - VTL, umożliwiając poprawę wydajności całego systemu backupu. Biblioteki VTL, oparte najczęściej na pojemnych dyskach SATA, oferują szybki dostęp do kopii zapasowych plików i katalogów. Wirtualna biblioteka taśmowa działa jak fizyczna biblioteka, eliminując typowe problemy związane z taśmami fizycznymi.

SaaS, czyli storage jako usługa

Analitycy z firmy IDC przewidują, że przychody firm świadczących usługi backupu i archiwizacji online wyniosą w 2011 roku 715 milionów dolarów, notując w latach 2006-2011 wzrost na poziomie 33,3%. Doug Chandler z IDC twierdzi, że obecnie największą przyczyną stosunkowo niewielkiej popularności tego typu rozwiązań jest brak wiary przedsiębiorców w skuteczność stosowanych systemów zabezpieczeń. W jego opinii operatorzy usług będą musieli przekonać potencjalnych klientów, że ich dane będą bezpieczne i możliwe do odzyskania w krótkim czasie. Zdaniem ekspertów obecność dużych dostawców na rynku aplikacji typu online backup może w pierwszej kolejności zachęcić mniejsze firmy do wypróbowania takich systemów. Za ich przykładem mogą pójść największe organizacje, które nie chcą inwestować w kolejne systemy pamięci masowych lub są zainteresowane replikacją danych w celu maksymalizacji skuteczności swoich systemów disaster recovery.

Archiwizacja danych

Dramatycznie rośnie ilość danych, zarówno strukturalnych (bazy danych), jak i niestrukturalnych (wiadomości e-mail). Ograniczenie pojemności pojedynczej skrzynki pocztowej (quota) znacznie wzrosło, z wystarczających jeszcze do niedawna 200 MB do ponad 2 GB obecnie. W takiej sytuacji potrzebne jest wdrożenie odpowiednich polityk archiwizacji danych. Błyskawicznie powiększające się rozmiary skrzynek pocztowych, obowiązek legislacyjny archiwizacji dokumentów, optymalizacja zajętości przestrzeni dyskowej - to główne motory napędowe archiwizacji danych, coraz powszechniej wprowadzanej przez firmy. Projekty archiwizacji i optymalnego zarządzania składowanymi informacjami znalazły się w wielu budżetach IT. Rosnąca ilość różnego typu urządzeń (RFID, sensory) każe szukać rozwiązań w rodzaju pojemnego archiwum, które pozwoli sprawnie wyszukiwać potrzebne informacje w zbiorach różnego typu danych.

Nowe standardy na łączach

Wzrost mocy obliczeniowej serwerów i kontrolerów macierzy dyskowych, technologia wirtualizacji oraz konsolidacja zrodziły potrzebę zwiększenia dotychczasowej przepustowości sieci LAN oraz SAN. Ponieważ potrzeba jest matką wynalazków, ogłoszono dwa nowe standardy komunikacyjne: 10Gb/s Ethernet oraz 8Gb/s Fibre Channel.

Z pojawieniem się 10Gb/s Ethernetu ściśle łączy się dostępność technologii FCoE (Fibre Channel over Ethernet). Najprościej rzecz ujmując, jej działanie polega na opakowaniu komend FC w ramkę Ethernet i przesłaniu do celu. FCoE pozwoli ograniczyć straty będące wynikiem utraty pakietów, które to zjawisko występuje nagminnie w sieciach Ethernet. Inaczej niż standardowe przełączniki Ethernet, protokół Fibre Channel nie toleruje strat pakietów. Klienci zdecydowani na wdrożenie w przyszłości technologii Fibre Channel mają do wyboru albo standard FC 8Gb/s, albo implementację FCoE 10Gb/s. Dostępność technologii FCoE umożliwi budowę konwergentnej sieci w Data Center. Na rynku dostępne są już przełączniki i adaptery CNA (Converged Network Adapters) wspierające takie rozwiązania. Dzięki kartom CNA ograniczona zostanie ilość kart sieciowych w serwerze, portów na przełącznikach oraz kabli połączeniowych, co przełoży się na niższe całkowite koszty energii i chłodzenia.

Ze zwiększenia dostępnego pasma korzyści osiągną przede wszystkim systemy, których aplikacje wykorzystują duży blok danych przy sekwencyjnych operacjach I/O (modelowanie, strumień wideo, analiza danych, fotografie medyczne) oraz oczywiście wirtualizacja, generująca duży ruch operacji wejścia/wyjścia.

iSCSI

Technologia iSCSI umacnia swoją pozycję na rynku pamięci masowej, oferując możliwość budowy względnie taniej sieci SAN. Rośnie jej popularność w sektorze SMB, ponieważ działa ona w oparciu o powszechnie znany Ethernet. W przewidywaniach analityków, w najbliższym czasie zyski ze sprzedaży pamięci masowej opartej o standard Ethernet (iSCSI, NAS) osiągną 7 miliardów dolarów. Dla porównania przewidywane zyski ze sprzedaży rozwiązań opartych o Fibre Channel wyniosą 11 miliardów. Czynnikiem, który na pewno się do tego przyczyni, będzie możliwość wykorzystania przez iSCSI sieci 10Gb/s. Stopniowe obniżanie się cen interfejsów 10Gb/s oraz pojawienie się kart sieciowych wyposażonych w funkcję TOE (TCP Offload Engine) umożliwi wdrożenie wysoce wydajnej sieci IPSAN w oparciu o Ethernet. Większa przepustowość portów w przełączniku wyeliminuje konieczność agregacji łączy, co przełoży się na oszczędności w przeliczeniu na ilość portów urządzenia.

Green IT

Dlaczego hasło "Green IT" stało się obecnie takie modne? Odpowiedź jest prosta. Ocieplenie klimatu następuje obecnie w tempie dużo szybszym niż przewidywano. Na świecie systematycznie zaostrza się poziom dopuszczalnej normy emisji CO2, a jednym z głównych źródeł powstawania dwutlenku węgla jest proces wytwarzania energii. Wobec powyższego, podstawowym działaniem, jakie może podjąć IT dla środowiska naturalnego, jest ograniczenie zużycia energii elektrycznej przez sprzęt komputerowy. Pojawienie się technologii konsolidacji, wirtualizacji serwerów i pamięci masowej umożliwia znaczną redukcję energii dostarcznej na zasilanie i chłodzenie serwerowni. Przy rosnących cenach energii w prosty sposób przekłada się to na obniżenie kosztów (TCO) utrzymania całej infrastruktury IT. Tak więc Green IT jako inicjatywa na rzecz ochrony środowiska ogranicza jednocześnie wydatki z budżetu.

A co z taśmą magnetyczną?

Wydawać by się mogło, że wraz z rosnącą popularnością technologii disk backup nastaje schyłek taśmy magnetycznej. Nic bardziej mylnego. Taśmy posiadają pewne właściwości, które wpisują się doskonale w tendencje rynkowe. W procesie retencji ostatnią warstwę składowania danych stanowi najczęściej taśma magnetyczna. Oferuje wysokie pojemności, dużą wydajność, szyfrowanie 256-bitowym kluczem oraz funkcjonalność zapisu tylko do odczytu. Ponieważ jest ona medium przenośnym, może być składowana poza serwerownią, nie zabierając w niej cennego miejsca. Możliwość przenoszenia taśm ma niebagatelne znaczenie także w kontekście zabezpieczenia danych na niej składowanych. Na wypadek DR mogą być one na przykład przewiezione i zabezpieczone w sejfie o odległej lokalizacji. Co więcej, przechowując dane taśma nie pobiera jakiejkolwiek energii, przez co w "zielonych" czasach dodatkowo punktuje na rzecz ochrony środowiska.

Najbardziej popularny obecnie na rynku format taśm LTO w przyszłym roku doczeka się kolejnej, już piątej generacji. Taśma LTO 5 umożliwi przechowanie 1,6 TB danych (bez kompresji) oraz zaoferuje prędkość zapisu na poziomie 180 MB/s. Z informacji podanych przez konsorcjum firm skupionych przy pracy nad tym standardem wynika, że pojawi się on w pierwszym lub drugim kwartale 2009 roku. Na "mapie drogowej" prac umiejscowiono już pojawienie się w 2011 roku generacji LTO 6, oferującej 3,2 TB pojemności i 270MB/s prędkość zapisu. Co czeka taśmę magnetyczną po 2011 roku wciąż jeszcze nie wiadomo. Na tej dacie "mapa drogowa" na razie się kończy.

***

Autorem artykułu jest Szymon Pomorski.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200