#HowToBackup – Jerzy Skiba (Exclusive Networks)

Wydajność w backupie nabiera kluczowego znaczenia

  • Jak na przestrzeni ostatnich lat zmieniło się podejście polskich firm do backupu?

Coraz więcej przedsiębiorstw podchodzi do kwestii backupu bardzo świadomie. Wiedzą już, że nie jest to po prostu jedna z czynności do „odhaczenia”, lecz proces ten powinien być integralnym składnikiem procedur disaster recovery, a więc gwarantować odzyskanie dostępu do danych i środowisk w przypadku awarii. Rzeczą praktycznie niespotykaną wcześniej jest, że firmy uruchamiają zapasowe ośrodki przetwarzania danych, które zapewnią dostęp do danych i usług w przypadku dużej katastrofy lub awarii w ośrodku podstawowym – wcześniej takie podejście było charakterystyczne tylko dla największych przedsiębiorstw, głównie tych objętych prawnymi rygorami. Generalnie, największą zmianą jest to, że kilkanaście lat temu o wielu z tych rzeczy się mówiło, a dziś się je dość powszechnie realizuje.

  • Czy polskie przedsiębiorstwa nadążają za wszystkimi nowinkami technicznymi, pojawiającymi się ostatnio w kwestii środowisk backupowych?

Stosowane rozwiązania backupowe są pochodną rodzaju środowisk, z których dane są zabezpieczane. Dlatego obecnie najczęściej mowa jest o wdrażaniu procesów backupu platform wirtualizacyjnych – VMware, Hyper-V i innych. Rośnie też zainteresowanie backupem środowisk kontenerów. Nośnikiem backupu, szczególnie gdy zabezpieczonych danych było bardzo dużo, najczęściej były taśmy, ale już od lat są wypierane przez repozytoria dyskowe z zaimplementowanym mechanizmem deduplikacji. Natomiast taśma nie odchodzi w zupełne zapomnienie, bo nadal jest najtańszym i najbardziej ekologicznym nośnikiem danych, sprawdza się jednak głównie w największych środowiskach backupu i do archiwizacji. Widać też rosnącą popularność repozytoriów chmurowych jako nośnika kopii backupowych.

  • Czy poprawiła się sytuacja, jeśli chodzi o umiejętność planowania procedur związanych z backupem, wyliczania parametrów RPO/RTO, jak też dobierania do nich właściwych rozwiązań technicznych?

W tej kwestii jest trochę lepiej, znaczna grupa firm już doskonale wie, czego potrzebuje, aby skutecznie prowadzić backup i jest świadoma, że stworzenie i przestrzeganie procedur jest kluczowe dla sukcesu, gdy przyjdzie konieczność odzyskania danych. Ale wciąż wielu klientów ma tę wiedzę ograniczoną, więc sporo działań edukacyjnych przed nami. Zjawisko to można zaobserwować czasami w przypadku przetargów publicznych, gdy w specyfikacji warunków zamówienia w kwestii dotyczącej backupu pojawiają się niespełnialne wymagania, np. zastosowanie repozytorium taśmowego, ale jednoczesne zagwarantowanie bardzo szybkiego procesu odtwarzania środowiska. Nie najlepiej jest też w mniejszych firmach, w których działy IT mają niewiele pracowników, a ich właściciele nie przykładają należytej wagi do procedur disaster recovery i będącego ich częścią backupu.

  • Może zatem pomocne będą tu wprowadzane na przestrzeni ostatnich lat przez producentów oprogramowania do backupu mechanizmy umożliwiające automatyzację tego procesu? Czyż nie w tym właśnie celu one powstały – aby walczyć z niewiedzą lub ignorancją?

Rzeczywiście, coraz częściej można spotkać ciekawe rozwiązania umożliwiające automatyzację procedur disaster recovery, ale – trzeba to jasno powiedzieć – ich wdrożenie i przetestowanie nie jest proste. Do zastosowania takich narzędzi trzeba się dobrze przygotować, przede wszystkim zapewnić zapasowe środowisko, na które nastąpi automatyczne przełączenie pracy w przypadku dużej awarii lub katastrofy, a także utrzymywać je w stanie gotowości i regularnie testować. To zaś generuje niemałe koszty, a w obecnych czasach, gdy dostępność zaawansowanych rozwiązań IT jest ograniczona, takie podejście mogłoby wręcz być traktowane jako ekstrawagancja. Tak więc jeszcze przez pewien czas trzeba będzie sobie radzić w sposób, jaki dopuszcza obecna w firmie sytuacja.

  • Odpowiedzią na wspomniane problemy z dostępnością sprzętu mogłyby być usługi backupu w chmurze. Czy są one już wystarczająco dojrzałe, aby można na nich polegać w dużej skali?

Swoją chmurową „odnogę” mają już praktycznie wszyscy dostawcy oprogramowania do backupu. Mają własne repozytoria na dane w chmurze publicznej lub współpracują z centrami danych w różnych krajach, ale też umożliwiają wykonywanie kopii do wykupionej bezpośrednio przez klienta przestrzeni dyskowej. Proces dojrzewania tego typu rozwiązań cały czas trwa – widać to po nieustannie rozbudowywanych funkcjach. W kontekście procedur disaster recovery chmura daje wiele możliwości, szczególnie dla firm korzystających ze środowiska wirtualizacyjnego. Kluczową jest funkcja uruchomienia na serwerze wirtualnym w chmurze kopii wirtualnej maszyny, gdy posiadane przez klienta środowisko on-premise ulegnie poważnej awarii lub katastrofie. Nadal jednak klienci preferują własne systemy backupowe, bo gwarantują one krótszy czas zarówno wykonywania kopii, jak też późniejszego odzyskiwania danych.

  • W kwestii backupu do chmury pojawia się jeszcze jeden wątek. W dobie pracy zdalnej wielu użytkowników przekonało się, że trzeba backupować także te dane, które w tej chmurze zostały wytworzone. Czy klienci są świadomi tego, że w tym przypadku trzeba wykonywać backup w drugą stronę – z chmury do własnego repozytorium lub innej usługi chmurowej?

Niestety, nie bardzo. Przez lata w marketingowych przekazach dostawców usług chmura była pokazywana jako wyjątkowo bezpieczne środowisko, przez co narosło wokół niej wiele mitów. O tym, że istnieje coś takiego jak model współdzielonej odpowiedzialności większość użytkowników dowiaduje się dopiero wtedy, gdy stracą jakieś dane. Wówczas okazuje się, że aplikacje chmurowe gwarantują dostęp do usługi, ale niekoniecznie do danych, nie chronią też na przykład przed przypadkowym usunięciem pliku przez użytkownika. Trzeba więc nieustannie podkreślać, że dane są zabezpieczone najlepiej wówczas, gdy zadbamy o nie sami. Na szczęście funkcja backupu różnego typu zasobów chmurowych jest już dostępna u wszystkich dostawców rozwiązań do backupu.

  • Nowym trendem wśród twórców rozwiązań do backupu jest zapewnianie ochrony przed zaszyfrowaniem danych w ramach ataku ransomware. Wiadomo, że backup jest najtańszym rozwiązaniem chroniącym przed skutkami takiego ataku, bo umożliwia odzyskanie danych bez konieczności płacenia okupu, ale czy jest sens wprowadzanie do oprogramowania do backupu klasycznych mechanizmów antywirusowych chroniących przed złośliwym kodem?

Większość klientów korzysta już w swoim środowisku IT z rozwiązań antywirusowych, zintegrowanych z innymi systemami zabezpieczającymi. Dlatego obecność kolejnego mechanizmu antywirusowego w kliencie backupowym mogłaby powodować nadmierne obciążenie zasobów mocy obliczeniowej. Z tego powodu twórcy oprogramowania do backupu raczej idą w kierunku integracji go z zewnętrznymi narzędziami ochronnymi, aby weryfikowane były także zabezpieczane dane. A zresztą ich weryfikacja podczas kopiowania też nie jest najlepszym pomysłem, bo wydłuża cały proces, co jest niedopuszczalne w obliczu kurczących się okien backupu. Dla przykładu, Veeam rozwiązał ten problem w taki sposób, że zapewnia kontrolę bezpieczeństwa podczas odzyskiwania danych lub maszyny wirtualnej, a nie backupowania.

  • Czy rzeczywiście istnieje ryzyko, że ofiarą ataku ransomware padną także kopie backupowe?

Teoretycznie tak, dlatego w poprawnie zaplanowanym środowisku backupowym uwzględnione powinny być nienaruszalne repozytoria. Wszyscy liczący się twórcy oprogramowania do backupu tworzą pliki z kopią w zamkniętym formacie, aby ransomware ich nie zaszyfrował. W tym kontekście wraca też temat taśm, bo umożliwiają one fizyczne odseparowanie nośnika od potencjalnie atakowanego środowiska produkcyjnego. Alternatywnym dobrym zabezpieczeniem są również obiektowe repozytoria chmurowe, do których dane kopiowane są poprzez protokół Amazon S3. Jak do tej pory one jeszcze nigdy padły ofiarą cyberprzestępców, którzy szyfrują głównie zasoby w zwykłych systemach plików oraz udostępniane poprzez standardowe protokoły sieciowe, jak NFS i CIFS.

  • Rosnąca funkcjonalność narzędzi backupowych może spowodować wzrost ryzyka popełnienia błędów przez klientów. Z jakimi można spotkać się najczęściej?

Zazwyczaj permanentnie pomijana jest kwestia wydajności – zarówno tworzenia kopii, jak też późniejszego odzyskiwania danych, które w stresującej sytuacji powinno być jak najbardziej płynnym procesem. Tymczasem u firm widać tendencje do wykorzystywania jako repozytorium backupowe macierzy dyskowych o bardzo dyskusyjnej wydajności. Traktowane są jako pojemny „worek” na dane, ale gdy nagle administrator odkryje w oprogramowaniu do backupu nowe funkcje, jak np. możliwość uruchomienia wirtualnej maszyny bezpośrednio z kopii, zazwyczaj bardzo szybko zaczyna brakować wydajności samej macierzy, przepustowości sieci, do której jest podłączona itd. Bardzo rzadko uwzględniany jest też fakt, że gdy w takiej macierzy dyskowej awarii ulegnie jeden lub kilka dysków, procedura odbudowania struktury RAID będzie trwała dość długo i w bardzo dużym stopniu obciąży dyski, co też przełoży się na spowolnienie wykonywania kopii i ewentualnego odzyskiwania danych.

  • Czy istnieje jakieś kompromisowe rozwiązanie tego problemu?

Co ciekawe, do niedawna absurdalnym pomysłem wydawało się wykorzystanie półprzewodnikowych nośników flash jako repozytorium backupu, ale obecnie zaczyna to nabierać sensu. Jeśli firmy chcą z uruchamiać wirtualne maszyny bezpośrednio z kopii backupowych, analizować znajdujące się w nich dane pod kątem trendów biznesowych albo wykorzystywać do prowadzenia testów nowych wersji oprogramowania, to wydajność nabiera kluczowego znaczenia. Przy spadających cenach dysków SSD i w kontekście faktu, że trwałość ich komórek pamięci ulega degradacji tylko przy częstym zapisie, a ten w przypadku backupu odbywa się relatywnie rzadko, zastosowanie takich nośników może spowodować kolejny etap rozwoju środowisk disaster recovery.

Jerzy Skiba – Senior Storage Consultant w firmie Exclusive Networks Poland
#HowToBackup