Jerzy Skiba w Backup Expert Days

Bezpieczeństwo serwerów wirtualnych

Budowane dziś środowiska IT, które wykorzystują architekturę x64, w większości opierają się o rozwiązania wirtualizacyjne. Znajdziemy tu najpowszechniej stosowane platformy, takie jak VMware czy Hyper-V oraz te mniej popularne, do rozwiązań pochodzących ze świata OpenSource. Zdarzają się też rozwiązania, w których system operacyjny i aplikacja działają bezpośrednio na sprzęcie bez warstwy wirtualizacji.

Z punktu widzenia bezpieczeństwa trudno różnicować zabezpieczenia serwerów fizycznych i wirtualnych. Niezależnie od rozwiązania ważne jest, by kopie bezpieczeństwa wykonywać w taki sposób, aby udało się skutecznie przywrócić dane, a co ważniejsze – wznowić działanie konkretnej usługi. Nieistotne są tu poszczególne składowe i to, czy jej część lub całość oparta jest o serwery fizyczne, czy wirtualne.

Platformy wirtualne (nie wszystkie) oferują mechanizmy wbudowane w hypervisor, czyli API do backupu, ułatwiające wykonywanie kopii bezpieczeństwa. Wówczas nie trzeba traktować każdej maszyny wirtualnej tak, jakby to był serwer fizyczny. Natomiast w platformach, gdzie takich funkcji brak, należy wykonywać kopie bezpieczeństwa maszyny wirtualnej jako „niezależnego bytu”.

W tym drugim przypadku rozwiązanie backupu staje się bardziej złożone, ale możliwe do realizacji. Tam, gdzie mamy API, możemy dużo łatwiej wdrożyć proces zabezpieczania danych. Zazwyczaj dostępny jest również szerszy wachlarz możliwości w procesie backupu (backup całej maszyny lub wyłącznie zmian) oraz łatwiejsze są metody odtwarzania pełnej maszyny i jej fragmentów.

Przy budowie rozwiązania backupu należy więc zwrócić uwagę na wszystkie aspekty ochrony – wykorzystać oferowane funkcjonalności API platformy i przygotować oraz przetestować procedury odtwarzania.

Niezależnie od tego, czy mamy do czynienia ze środowiskiem fizycznym, czy wirtualnym, sposób tworzenia kopii zapasowych musi prowadzić do odtworzenia danych i umożliwiać przywrócenie działania usługi biznesowej w racjonalnie krótkim czasie.

Backup lokalny i backup chmurowy

Projektując rozwiązanie ochrony danych wzawsze staniemy przed wyborem odpowiedniego repozytorium na kopie zapasowe. Dziś najczęściej wybierane są rozwiązania dyskowe z deduplikacją danych, bądź nośniki taśmowe wraz z automatyką, czyli tzw. biblioteki taśmowe. Takie repozytoria najczęściej umiejscowione są lokalnie w ośrodku przetwarzania danych. Wspomniane rozwiązania wykorzystuje się do różnych celów. Repozytoria oparte o dyski służą do przechowywania danych o krótkiej retencji (liczonej w tygodniach), a rozwiązania taśmowe wykorzystywane są dla danych o długim czasie przetrzymywania.

Alternatywą dla obu rozwiązań mogą być repozytoria chmurowe.

Większość dostawców oprogramowania do backupu, np. AWS, AZURE i inni, umożliwia zapis w chmurze, ale zainteresowanie klientów w naszym kraju jest dość ograniczone. Owszem, klienci czasami decydują się na składowanie danych backupowych poza własnym data center u lokalnych dostawców takich usług, jednak rzadko decydują się na umieszczenie backupu w chmurze publicznej.

Warto jednak pamiętać, że takie repozytoria są dostępne i po przełamaniu obaw związanych z potencjalnym niepowołanym dostępem do danych backupowych – bo takie przewijają się najczęściej – można je wykorzystywać. Technologia już na to pozwala. Co więcej, w innych krajach, a zwłaszcza w USA, takie repozytoria stanowią już sporą cześć zasobów backupowych.

U nas póki co chmura jako repozytorium backupu nie jest pierwszym i podstawowym zasobem. Może jednak stanowić uzupełnienie repozytoriów lokalnych, czy to dyskowych, czy taśmowych.

Koszty backupu – jakie nośniki wybierać i jak backupować dane?

Koszt wdrożenia rozwiązania do backupu to kluczowa kwestia obok aspektów związanych z funkcjonalnością, obsługą lub czasem uruchomienia. Wydatki zależą od wyboru oprogramowania, sprzętu oraz bardzo często usług związanych z implementacją. Natomiast przy wyborze rodzaju nośników dla danych kopii zapasowych będziemy się kierować parametrami RPO i RTO, wydajnością, sposobem dostępu, czy też czasem przechowywania.

Do dyspozycji mamy zarówno nośniki dyskowe, najczęściej wykorzystujące deduplikację danych, a także nośniki taśmowe i repozytoria chmurowe. Najkrócej rzecz ujmując – wszędzie tam gdzie chcemy wykorzystać zaawansowane cechy rozwiązania, takie jak Instant Recovery, backup syntetyczny, granularne odtwarzanie, itp. będziemy wybierali nośniki dyskowe. Jednocześnie godzimy się na to, że ich pojemność będzie ograniczona, a co za tym idzie, dane wymagające długiej retencji raczej nie będą tam składowane. Z kolei dla danych o długiej retencji i danych archiwalnych wybór z pewnością padnie na nośniki taśmowe.

Po tym, jak wybrane zostanie odpowiednie oprogramowanie i sprzęt, przychodzi czas na wdrożenie. Tu niestety pojawia się pokusa, żeby szukać oszczędności w obszarze usług związanych z implementacją. Nie warto tego robić.

Należy dobrze określić oczekiwania wobec systemu i wybrać odpowiedniego integratora, który ma wiedzę i doświadczenie w obszarze wybranych technologii. Pójście na skróty na tym etapie może spowodować, że rozwiązanie jako całość nie będzie do końca efektywne. Wdrożenie obejmie tylko główne funkcjonalności, a te trochę bardziej zaawansowane, pokazujące moc i wszechstronność rozwiązania, nawet nie zostaną zaprezentowane.

Przy takim podejściu może się okazać, że nawet spora inwestycja w sprzęt i oprogramowanie nie będzie do końca spełniać oczekiwań z nią związanych.