Mirosław Chełmecki w Backup Expert Days

Im bardziej „świat cyfrowy” przenika do aktywności świata rzeczywistego, wzrasta wartość cyfrowych danych i konieczność dbania o ich bezpieczeństwo . Proces zabezpieczania i zapewniania ciągłości działania systemów informatycznych, co równoznaczne jest z ciągłością pracy całego przedsiębiorstwa, stał się strategicznym celem każdej firmy. Regulacje prawne wymuszają także dodatkowe procedury, jakie należy spełnić w celu ochrony danych i informacji wewnątrz organizacji publicznych, militarnych czy branż związanych z poprawnym funkcjonowaniem państwa. Ciągły rozwój technologiczny urządzeń i oprogramowania do backupu z jednej strony ułatwia zarządzanie i automatyzuje procesy odtwarzania, ale z drugiej wymaga ciągłego monitorowania i uaktualniania systemów, co może być kosztowne.

Czy można wskazać jeden najlepszy sposób backupu danych? Czy jest uniwersalne medium, które można polecić każdemu? W jaki sposób zapewnić najszybsze przywrócenie systemu IT do działania po awarii?

Rodzaj prowadzonej działalności przez przedsiębiorstwo, ilość posiadanych i szybkość przyrastania nowych danych, czas potrzebny do przywrócenia „do życia” systemu po awarii i wspomniane już regulacje prawne wprowadzają tak wiele zmiennych, że nie da się na powyższe pytania odpowiedzieć jednoznacznie.

Jedno bezsprzecznie można stwierdzić – backup należy mieć!

Backup danych wykonuje się w określonym celu – aby w awaryjnej sytuacji przywrócić system do działania w maksymalnie krótkim czasie i odtworzyć utracone dane. Ważnym dodatkowym czynnikiem jest też ekonomiczna strona przedsięwzięcia, czyli koszty związane z zakupem, posiadaniem i zarządzaniem systemem bezpieczeństwa.

W zależności od założeń strategii ochrony danych można przyjąć różne formy backupu (pełny, przyrostowy, różnicowy) oraz wykorzystać różne media do zapisu i przechowywania danych. Ogólnie przyjęta uniwersalną zasada, zgodnie z którą należy wykonywać backup, nosi nazwę „metody 3-2-1”. Zgodnie z nią powinno wykonywać się 3 kopie danych – dwie na różnych urządzeniach i jedną, która znajdzie się poza miejscem gdzie ulokowana jest serwerownia lub znajdują się urządzenia backupujące.

W wypadku nieprzestrzegania takiego sposobu przygotowania backupu, tj. ograniczenia liczby kopii zapasowych czy posiadania backupu tylko tam, gdzie są główne serwery produkcyjne, bezpieczeństwo danych nie będzie pełne. Mogą zaistnieć sytuacje, w których dane utracimy bezpowrotnie i nie będzie można przywrócić działania systemów IT. Przykładowo, gdy posiadamy kopię danych tylko w siedzibie przedsiębiorstwa, odtworzymy dane systemowe np. przy awarii wielu dysków w macierzy dyskowej, ale w wypadku zalania czy pożaru serwerowni zniszczeniu ulegną wszystkie informacje, zarówno z systemów produkcyjnych, jak i backupowe. Z punktu widzenia IT to prawdziwa katastrofa.

W takim razie jak wykonywać backup i jakie medium do zapisu wybrać, aby spełniał on nasze założenia?

Stawiając sobie za cel maksymalnie szybkie otworzenie danych oraz przywrócenie ich stanu najbliżej momentu sprzed wystąpienia awarii, wykorzystuje się metody zbliżone do ciągłego kopiowania danych. To najlepszy sposób ochrony systemu IT. Patrząc od strony backupu, administratorzy najczęściej żonglują backupami pełnymi i  przyrostowymi. Jako medium mają do wyboru backup na dyski, taśmę i do chmury.

Backup pełny wykonuje się raz na jakiś czas (powiedzmy raz na tydzień), a backupy przyrostowe dużo częściej, nawet bardzo często.

Optymalnym medium do takiego sposobu jest backup na urządzenie dyskowe. Niestety taśma nie spełnia wielu oczekiwań stawianych przed głównym medium do backupu.

Najczęściej wykorzystywane obecnie napędy taśmowe wykorzystują technologię zapisu liniowego LTO, gdzie na bardzo szybko przesuwającą się nad głowicą taśmę zapisuje się na równoległych do siebie ścieżkach dostarczane do napędu dane. Aby zapewnić odpowiednią siłę sygnału zapisu i redukcję szumów, taśma musi poruszać się z dużą szybkością. Wiąże się to z koniecznością dostarczania do napędu taśmowego ciągłej, nieprzerwanej, odpowiednio dużej ilości danych. Dlatego ważnym parametrem dla taśmy jest zarówno maksymalna jak i minimalna szybkość transferu danych przy odczycie i zapisie.

Biorąc pod uwagę nawet nieco starszy typ napędu LTO 6 HPE minimalna ilość zapisywanych danych w czasie to 54 MB/s bez kompresji (ponad 100 MB z kompresją).

I tu właśnie jest clou problemu – ile danych musi przyrastać w organizacji na każdym serwerze, aby zapewnić odpowiednie ich dostarczanie do zapisu podczas backupu?

Jeżeli dane nie są wysyłane z wystarczającą prędkością, napęd musi się zatrzymać, a następnie po zgromadzeniu w buforze odpowiedniej ilości danych ponownie pozycjonować taśmę z ostatnim zapisem. Wtedy dopiero wykonywany jest kolejny zapis, do momentu gdy danych znów nie braknie. Wtedy proces zatrzymywania i ponownego pozycjonowania znów się powtarza.

Możemy spotkać się z głosami: „Przecież można równocześnie na napęd przesłać dane z kilku backupowanych przyrostowo serwerów”. Oczywiście, że tak. Napęd będzie zapisywał „płynnie”, ale ewentualne odtworzenie pojedynczego serwera zdecydowanie się wydłuży, bo konieczne będzie odczytanie danych z dłuższego odcinka taśmy, ze wszystkich ścieżek, a następnie odrzucenie danych z tych niepotrzebnych.

Często słyszy się, że napędy taśmowe są wolniejsze od dysków. To nie jest prawda. Backup na taśmę może być szybszy niż na dysk. Szybkość zapisu/odczytu LTO 8 sięga 750MB/s przy włączonej kompresji), a w typowych dyskach 7200 rpm wynosi około 160MB/s.

To sposób wykonywania backupu sprawia, a nie szybkość transferu sprawia, że dyski są lepszym medium.

Jakie więc inne funkcjonalności, poza brakiem wymogów ciągłego odpowiednio szybkiego przesyłania danych do zapisu, które kierują administratorów jeszcze bardziej w stronę backupu na dyski?

Są to deduplikacja i replikacja danych, całkowicie nieosiągalne dla taśmy. Deduplikacja powoduje, że dane „rozbijane” na bloki dane w łatwy sposób mogą być replikowane do dowolnej zdalnej lokalizacji na świecie. Zgodnie z metodą 3-2-1 ten parametr jest konieczny, aby zapewnić posiadanie kopii danych poza miejscem robienia backupu. W wypadku korzystania z taśmy nie da się dokonywać deduplikacji, a nośniki trzeba fizycznie przewieźć do wskazanej lokalizacji. Jest to czasochłonne i wymaga zaangażowania człowieka.

Stosując deduplikację i replikację cały proces backupu można automatyzować ograniczając lub eliminując zależność od „czynnika ludzkiego”. Wystarczy kawałek wolnego zasobu dyskowego w zdalnej lokalizacji w przedsiębiorstwie wielooddziałowym lub backup w chmurze.

Wykorzystując dyski jako medium backupu, można również skorzystać z opcji eliminowania wielokrotnego zapisywania tych samych plików, jak również backupu wykonanych na macierzy snapshotów systemu produkcyjnego. Większa część tworzonych kopi migawkowych jest ta sama i różni się tylko niewielkim zakresem danych. Tylko ta niewielka część uszczupla miejsce na dyskach przeznaczonych do backupu.

Kolejną funkcjonalnością jaką daje backup na dyski jest szybkie i ekonomiczne stworzenie środowiska testowego ze stworzonej uprzednio kopii danych. Z jednej strony praktycznie w czasie rzeczywistym dostajemy informacje z systemu o gotowości środowiska, a z drugiej nie ma konieczności inwestowania w podwójnie większą przestrzeń. System środowiska testowego pracuje na „starych” danych, a zapisywane są tylko ich modyfikacje, co bardzo mocno redukuje koszty związane z zakupami nowej przestrzeni.

Backup na dyski ma jeszcze jedną, najistotniejszą moim zdaniem funkcjonalność. Gdy coś złego z naszymi serwerami zacznie się dziać, istnieje możliwość uruchomienia serwerów wirtualnych bezpośrednio z backupu. Proces odtwarzania odbywa się w tle, ale system jest dostępny, może nie z pełną produkcyjną wydajnością, ale działa praktycznie natychmiast w momencie wykrycia awarii.

Wspomniałem już wcześniej, iż powyższe funkcjonalności nie są dostępne na taśmie, stąd jako główne urządzenie do wykonywania backupu należy wybierać rozwiązana dyskowe, macierze, czy specjalne dyskowe urządzenia do backupu, tzw. „appliance”. Dzięki nim będziemy mogli skorzystać z różnych opisanych wcześniej opcji a czas przywrócenia systemu w wypadku awarii będzie maksymalnie krótki.

Zatem czy jest jeszcze miejsce gdzie wygrywa taśma? Tak, wykorzystanie napędów i bibliotek taśmowych świetnie sprawdza się tam gdzie wymagane jest długoterminowe przechowywanie danych, lub backup danych, które się nie deduplikują – np. dane z monitoringów video, czy plików audiowizualnych.

W tych przypadkach dokonuje się backupu całych zasobów i dużych rozmiarów plików. Możemy wykorzystać szybkość zapisu napędów, elastyczność zmieniania nośników przez robota w bibliotece i w dalszym ciągu posiadać możliwość przewiezienia kopii taśm do zdalnej lokalizacji. Przestrzeń, jaką dają rozwiązania taśmowe, jest większa niż to, co oferują dziś dyski.

Korzystanie z rozwiązań taśmowych pozwala również oszczędzić na energii elektrycznej. Pojedyncze taśmy nie muszą być ciągle zasilane, nie pobierają energii, co jest zdecydowanie oszczędniejsze od dysków, nawet przy ich „usypianiu” , wyłączaniu kręcenia talerzy,  gdy nie są przez pewien czas używane.

Taśma jest również dobrym medium jako druga warstwa backupu u usługodawców chmurowych. Przechowują oni ogromne ilości danych różnych zleceniodawców, a umowy pomiędzy stronami nie zobowiązują ich do zabezpieczania danych, ale też nie określają czasu ich odtworzenia. Ponadto transmisja dużej ilości danych do chmury jest technologicznie problematyczna.

Tak więc biorąc pod uwagę aspekty ekonomiczne, wciąż najkorzystniej wypada backup na taśmę.

A w jaki sposób przepisy determinują wybór odpowiedniego nośnika do backupu?

Oprócz backupu zgodnie z metodą 3-2-1, regulacje określają konieczność szyfrowania, wyboru konkretnej technologii zapisu, miejsca gdzie dane mogą być przesyłane i czy w ogóle można powierzać je innemu podmiotowi, przekazywać poza granice kraju, a nawet to, jakie osoby mogą mieć dostęp do danych. Takie przepisy mogą całkowicie ograniczać wykorzystanie chmury publicznej, albo zawęzić liczbę potencjalnych dostawców do tych, którzy gwarantują zgodność z obowiązującymi normami.

W niektórych przypadkach konieczne może być zagwarantowanie niezmienności danych w czasie. Taką możliwość daje technologia zapisu na dedykowanych taśmach WORM (zapisane raz dane nie mogą być już zmieniane czy skasowane, mogą natomiast być odczytywane dowolną ilość razy).

Jak zatem przeprowadzać backup?

Podsumowując, w zależności od szybkości odtworzenia i dodatkowych funkcjonalności wykorzystania zasobów backupu, preferowanym medium backupu powinny być urządzenia dyskowe. Dodatkowym miejscem backupu powinna być chmura, bądź urządzenie taśmowe, o ile taśmy zostaną wywiezione poza miejsce, gdzie znajduje się serwerownia i backup główny.

Biorąc pod uwagę aspekt ekonomiczny, zwycięzcą jest taśma – backup przy użyciu streamera czy biblioteki taśmowej jest zdecydowanie najtańszą opcją do wyboru w przeliczeniu gigabajtów na złotówki. Taśma to także najlepsza opcja w wypadku długoterminowego przechowywania i archiwizowania danych.

Chmura natomiast jest bardzo wygodnym medium, ale barierą wciąż pozostaje cena. W niektórych wypadkach nie można też zaproponować backupu do chmury publicznej ze względu na ograniczenia prawne.

W zależność od specyfiki backupu, należy odpowiednio dobrać parametry technologiczne i zderzyć je z ekonomicznymi. Uwzględniając wszystkie kryteria wybrać najwłaściwszą technologię backupu danych.

Bez względu na wybór technologii backupu trzeba pamiętać o wprowadzeniu precyzyjnej, spisanej procedury tworzenia kopii zapasowych i odtworzenia danych. Wszystkie działania pod presją czasu, stresu, czy wykonywane w warunkach ekstremalnej odpowiedzialności  (za taką uznaję  np. awarię systemu informatycznego) powinny być realizowane zgodnie procedurami postępowania, pokazującymi następujące po sobie zadania. Pozwala to uniknąć chaosu, błędów i sprzeczek pomiędzy osobami, na których spoczywa obowiązek przywrócenia środowiska „do normalności” w jak najkrótszym czasie.

Procedury dają również możliwość testowania czy cały system rzeczywiście jest przygotowany na awaryjną sytuację, zanim ona nastąpi i uwzględnia wszystkie możliwe zagrożenia. Przy okazji testów, proces backupu i odtwarzania można modyfikować i wprowadzać ulepszenia.

W związku z tym, że dane są kluczowym elementem funkcjonowania firmy, a ich utrata grozi dużymi kosztami związanymi z przestojem i utratą wizerunku przedsiębiorstwa, dobrym rozwiązaniem jest skorzystanie z wiedzy specjalistów, integratorów, którzy wdrażali tego typu rozwiązania w wielu miejscach. Ich doświadczenie i porady są w nieraz bezcenne, przyspieszają proces wdrożenia polityk backupu, optymalizują i gwarantują bezpieczeństwo funkcjonowania firmy.