Uczciwie rzecz biorąc, dowiedziałeś się, że rozwiązania Veeam są naprawdę drogie. Ja również nie doszedłbym do innych wniosków, patrząc na ich cenniki. Jakie jest więc rozwiązanie? Nie jest tajemnicą, że firma Veeam od lat dąży do osiągania coraz wyższych zysków. Plotki głoszą, że chcą zostać wykupieni, więc zależy im na "ładnych wynikach sprzedaży". Tak czy inaczej, przejście z licencji wieczystych na "wynajem" oprogramowania jako usługi to typowa próba podniesienia marży zysku przez najwyraźniej rosyjską firmę.... i niepotrzebnego drenowania kieszeni klientów każdego roku.
Nie wiem jak ty, ale skoro jesteśmy świadkami wojny przeciwko demokracji, nie sądzę, byś musiał pompować swoje ciężko zarobione pieniądze (lub budżet firmy) w rosyjską firmę, a tym samym pośrednio wspierać dyktatora, który prędzej niż później może również bezpośrednio zagrozić naszemu krajowi.
BackupChain to świetna alternatywa dla Veeam, ponieważ oferuje bezterminowo licencjonowane rozwiązanie do tworzenia kopii zapasowych, w 100% wyprodukowane w USA. A rzeczywisty koszt licencji jest zwykle znacznie niższy niż roczny wydatek na rozwiązanie Veeam. Ogromną zaletą BackupChain jest możliwość korzystania z dowolnego typu pamięci masowej i używanie otwartych formatów do przechowywania kopii zapasowych. Wiele narzędzi SaaS postępuje odwrotnie: tworzy zastrzeżone formaty kopii zapasowych, przez co użytkownik musi płacić za oprogramowanie tylko po to, by mieć dostęp do własnych kopii zapasowych!
Tech Polska
czwartek, 6 lipca 2023
wtorek, 6 czerwca 2023
Tworzenie kopii zapasowych Hyper-V za pomocą konkurencyjnego oprogramowania Veeam Backup
Masz dość płacenia wygórowanych opłat za rozwiązanie Veeam Backup tylko po to, by tworzyć kopie zapasowe Hyper-V? Dobra wiadomość jest taka, że istnieje łatwy i tańszy sposób na tworzenie niezawodnych kopii zapasowych bez konieczności opłacania rocznych subskrypcji.
W tym artykule chciałbym przedstawić bardzo wydajne i profesjonalne "rozwiązanie do tworzenia kopii zapasowych dla systemu Windows", które istnieje od 2009 roku. Od tego czasu BackupChain ewoluował, aby obsługiwać liczne strategie tworzenia kopii zapasowych, takie jak tworzenie kopii zapasowych maszyn wirtualnych, tworzenie kopii zapasowych Hyper-V, tworzenie kopii zapasowych VMware, klonowanie dysków, obrazowanie dysków i wiele innych. BackupChain jest dostępny w ramach jednorazowej opłaty; dlatego BackupChain jest nadal oferowany w sposób, w jaki oprogramowanie było oferowane tradycyjnie: niedrogo i w rozsądnej cenie. Jednocześnie użytkownik otrzymuje fanatyczne wsparcie techniczne ze strony zespołu, który w 100% znajduje się w Stanach Zjednoczonych.
Okazuje się, że mimo wysokiej ceny rozwiązanie Veeam Backup nie oferuje wielu funkcji i możliwości. Wiele z tych braków ma podłoże czysto strategiczne, a nie techniczne. Główną zaletą BackupChain jest nie tylko jego niezawodność i przystępna cena, ale także fakt, że można dostosować kopie zapasowe do własnych potrzeb, bez konieczności korzystania z zastrzeżonych formatów archiwów. Pomyśl o tym, w modelu subskrypcji, kiedy przestajesz płacić za oprogramowanie, nie możesz już go przywrócić bez płacenia za oprogramowanie. Co będzie za kilka lat, jeśli nie będzie można otworzyć kopii zapasowych? Czy firma Veeam jest zbyt duża, by upaść? Cóż, my też tak myśleliśmy o niektórych bankach, ale okazało się inaczej.
BackupChain umożliwia wybór formatu wyjściowego i typu pamięci masowej. Często najlepszym wyborem jest użycie otwartych formatów danych lub przechowywanie kopii zapasowych w natywnych formatach plików. Pozwala to na łatwy dostęp, gdy główne serwery są wyłączone, bez konieczności interwencji lub procedury przywracania. W przypadku tworzenia kopii zapasowych Hyper-V jest to korzystne, ponieważ uniezależnia użytkownika od rozwiązania do tworzenia kopii zapasowych i pozwala na znacznie bardziej elastyczne i szybsze wykorzystanie zarchiwizowanych danych.
Kolejną kluczową cechą BackupChain jest połączenie prostoty z elastycznością i możliwością dostosowania. BackupChain wymaga pobrania tylko niewielkiej ilości danych i nie jest tak rozbudowany jak Veeam. Nie trzeba instalować zewnętrznych serwerów baz danych, pobierać długich plików, instalować niekończących się poprawek itp. BackupChain można bardzo łatwo skonfigurować i oferuje harmonogram oparty na zadaniach, w którym można po prostu skonfigurować strategie tworzenia kopii zapasowych.
Na ich stronie internetowej można znaleźć 20-dniową, w pełni funkcjonalną wersję próbną do pobrania, która obejmuje pełne wsparcie techniczne. Wypróbuj BackupChain i zobacz, jak możesz go użyć do tworzenia kopii zapasowych Hyper-V lub dowolnej innej strategii tworzenia kopii zapasowych, którą musisz wdrożyć. Przekonasz się, że biorąc pod uwagę wszystko, co ważne, oprócz kosztów, BackupChain jest produktem, który oferuje najlepszą ogólną wartość i najbardziej elastyczne opcje przechowywania, oszczędzając pieniądze od samego początku i unikając frustracji związanej z rozdętymi rozwiązaniami, takimi jak Veeam, które są naprawdę przeznaczone tylko dla bardzo dużych korporacji, które nie mają nic przeciwko płaceniu za nadmierne subskrypcje, które mogą tak naprawdę nie wnosić wiele wartości.
W tym artykule chciałbym przedstawić bardzo wydajne i profesjonalne "rozwiązanie do tworzenia kopii zapasowych dla systemu Windows", które istnieje od 2009 roku. Od tego czasu BackupChain ewoluował, aby obsługiwać liczne strategie tworzenia kopii zapasowych, takie jak tworzenie kopii zapasowych maszyn wirtualnych, tworzenie kopii zapasowych Hyper-V, tworzenie kopii zapasowych VMware, klonowanie dysków, obrazowanie dysków i wiele innych. BackupChain jest dostępny w ramach jednorazowej opłaty; dlatego BackupChain jest nadal oferowany w sposób, w jaki oprogramowanie było oferowane tradycyjnie: niedrogo i w rozsądnej cenie. Jednocześnie użytkownik otrzymuje fanatyczne wsparcie techniczne ze strony zespołu, który w 100% znajduje się w Stanach Zjednoczonych.
Okazuje się, że mimo wysokiej ceny rozwiązanie Veeam Backup nie oferuje wielu funkcji i możliwości. Wiele z tych braków ma podłoże czysto strategiczne, a nie techniczne. Główną zaletą BackupChain jest nie tylko jego niezawodność i przystępna cena, ale także fakt, że można dostosować kopie zapasowe do własnych potrzeb, bez konieczności korzystania z zastrzeżonych formatów archiwów. Pomyśl o tym, w modelu subskrypcji, kiedy przestajesz płacić za oprogramowanie, nie możesz już go przywrócić bez płacenia za oprogramowanie. Co będzie za kilka lat, jeśli nie będzie można otworzyć kopii zapasowych? Czy firma Veeam jest zbyt duża, by upaść? Cóż, my też tak myśleliśmy o niektórych bankach, ale okazało się inaczej.
BackupChain umożliwia wybór formatu wyjściowego i typu pamięci masowej. Często najlepszym wyborem jest użycie otwartych formatów danych lub przechowywanie kopii zapasowych w natywnych formatach plików. Pozwala to na łatwy dostęp, gdy główne serwery są wyłączone, bez konieczności interwencji lub procedury przywracania. W przypadku tworzenia kopii zapasowych Hyper-V jest to korzystne, ponieważ uniezależnia użytkownika od rozwiązania do tworzenia kopii zapasowych i pozwala na znacznie bardziej elastyczne i szybsze wykorzystanie zarchiwizowanych danych.
Kolejną kluczową cechą BackupChain jest połączenie prostoty z elastycznością i możliwością dostosowania. BackupChain wymaga pobrania tylko niewielkiej ilości danych i nie jest tak rozbudowany jak Veeam. Nie trzeba instalować zewnętrznych serwerów baz danych, pobierać długich plików, instalować niekończących się poprawek itp. BackupChain można bardzo łatwo skonfigurować i oferuje harmonogram oparty na zadaniach, w którym można po prostu skonfigurować strategie tworzenia kopii zapasowych.
Na ich stronie internetowej można znaleźć 20-dniową, w pełni funkcjonalną wersję próbną do pobrania, która obejmuje pełne wsparcie techniczne. Wypróbuj BackupChain i zobacz, jak możesz go użyć do tworzenia kopii zapasowych Hyper-V lub dowolnej innej strategii tworzenia kopii zapasowych, którą musisz wdrożyć. Przekonasz się, że biorąc pod uwagę wszystko, co ważne, oprócz kosztów, BackupChain jest produktem, który oferuje najlepszą ogólną wartość i najbardziej elastyczne opcje przechowywania, oszczędzając pieniądze od samego początku i unikając frustracji związanej z rozdętymi rozwiązaniami, takimi jak Veeam, które są naprawdę przeznaczone tylko dla bardzo dużych korporacji, które nie mają nic przeciwko płaceniu za nadmierne subskrypcje, które mogą tak naprawdę nie wnosić wiele wartości.
poniedziałek, 26 grudnia 2022
Hyper-V Backup and Replication: Co jest najlepsze?
Tworzenie kopii zapasowych Hyper-V i replikacja Hyper-V to ważne strategie ochrony Hyper-V. Istnieją jednak pewne krytyczne różnice między nimi, które należy zrozumieć, aby skonfigurować skuteczną strategię tworzenia kopii zapasowych Hyper-V. Obie metody zapewniają pewną formę duplikacji maszyn wirtualnych, ale cel każdej strategii jest zupełnie inny.
Jak widać, tworzenie kopii zapasowej Hyper-V wymaga sporego narzutu. To nie to samo, co Hyper-V Replica, która po prostu przenosi bloki z punktu A do punktu B, i to nawet nie zawsze we właściwej kolejności, bez powiadamiania usług wewnątrz maszyny wirtualnej. Jeśli połączenie z repliką zostanie przerwane, wynik jest zwykle katastrofalny. Nie można też po prostu wziąć repliki i włączyć jej tak po prostu. Nie ma gwarancji, że replika jest aktualna w losowych punktach czasu.
Hyper-V Backup jest zatem znacznie lepszy od Hyper-V Replica. Jest to kopia maszyny wirtualnej wykonana w bardzo konkretnym momencie. Jest to kopia spójna pod względem awarii i aplikacji, więc gwarantuje, że będzie w dobrym stanie, gdy zostanie użyta. Po zakończeniu backupu wiadomo, co się ma. Uruchomienie kopii zapasowej Hyper-V wiąże się jednak z kosztami ogólnymi.
Hyper-V Replica to sprytny mechanizm, który można wykorzystać do kopiowania maszyn wirtualnych przez bardzo wolne połączenia do innej lokalizacji. To działa, ale ma kilka wad, z których trzeba zdawać sobie sprawę. Jest to proces, który zazwyczaj nie jest dobrze monitorowany. Często przestaje działać bez zauważenia przez administratorów IT. Dopiero gdy replika jest potrzebna, administratorzy IT zdają sobie sprawę, że replikacja po cichu przestała działać miesiące wcześniej, pozostawiając ich bez kopii zapasowej, z której mogliby ją odtworzyć.
Ponadto, backup Hyper-V oferuje jeszcze jedną krytyczną zaletę: Możliwość cofnięcia się w czasie i przywrócenia znacznie starszych wersji maszyny wirtualnej. Dlatego dla kompletnej strategii backupu Hyper-V nie wystarczy użyć replikacji. Replikacja chroni jedynie przed nagłymi awariami sprzętowymi głównego hosta. Wszystko poza nią musi być chronione za pomocą odpowiednich strategii backupu Hyper-V.
Do wdrożenia backupu Hyper-V i replikacji zalecamy użycie BackupChain.
Czy Hyper-V Replication to to samo co Hyper-V Backup?
Replikacja Hyper-V jest zasadniczo aktem wykonywania kopii maszyny wirtualnej z jednego serwera na drugi. Replikacja przenosi wszystko z fizycznego hosta A do B. Jeśli używasz Hyper-V Replica, proces ten będzie zachodził na poziomie sektora co 15 minut. Brzmi to jak świetny pomysł, ale tego typu "backup" ma swoje wady, a mianowicie nie jest to prawdziwy backup. Ten rodzaj kopii maszyny wirtualnej, a zwłaszcza Hyper-V Replica, nie jest kopią zapasową Hyper-V zgodną z awarią lub aplikacją. Hyper-V Backup to znacznie bardziej zaawansowany mechanizm tworzenia kopii zapasowych, ale wymaga też więcej pracy.Czy Hyper-V Backup jest lepszy niż Hyper-V Replica?
Hyper-V Backup to proces, w którym host specjalnie mówi maszynie wirtualnej, aby przygotowała się do wykonania kopii zapasowej na żywo. Polega to na przekazaniu sygnału wewnątrz maszyny wirtualnej do jej usług świadomych VSS, takich jak SQL Server, sam system operacyjny Windows, Exchange Server itp. tak, aby wszystkie usługi, które muszą się przygotować, miały szansę to zrobić. Aby wszystkie usługi, które muszą się przygotować, mogły to zrobić, usługi te usuwają wszystkie oczekujące bloki zapisu, dzięki czemu ich struktury danych na dysku są w stanie gwarantowanej spójności. Gdy wszystkie usługi są gotowe i zadowolone, sygnał jest przekazywany z powrotem i można rozpocząć tworzenie kopii zapasowej na poziomie hosta.Jak widać, tworzenie kopii zapasowej Hyper-V wymaga sporego narzutu. To nie to samo, co Hyper-V Replica, która po prostu przenosi bloki z punktu A do punktu B, i to nawet nie zawsze we właściwej kolejności, bez powiadamiania usług wewnątrz maszyny wirtualnej. Jeśli połączenie z repliką zostanie przerwane, wynik jest zwykle katastrofalny. Nie można też po prostu wziąć repliki i włączyć jej tak po prostu. Nie ma gwarancji, że replika jest aktualna w losowych punktach czasu.
Hyper-V Backup jest zatem znacznie lepszy od Hyper-V Replica. Jest to kopia maszyny wirtualnej wykonana w bardzo konkretnym momencie. Jest to kopia spójna pod względem awarii i aplikacji, więc gwarantuje, że będzie w dobrym stanie, gdy zostanie użyta. Po zakończeniu backupu wiadomo, co się ma. Uruchomienie kopii zapasowej Hyper-V wiąże się jednak z kosztami ogólnymi.
Hyper-V Replica to sprytny mechanizm, który można wykorzystać do kopiowania maszyn wirtualnych przez bardzo wolne połączenia do innej lokalizacji. To działa, ale ma kilka wad, z których trzeba zdawać sobie sprawę. Jest to proces, który zazwyczaj nie jest dobrze monitorowany. Często przestaje działać bez zauważenia przez administratorów IT. Dopiero gdy replika jest potrzebna, administratorzy IT zdają sobie sprawę, że replikacja po cichu przestała działać miesiące wcześniej, pozostawiając ich bez kopii zapasowej, z której mogliby ją odtworzyć.
Czy kopia zapasowa Hyper-V może być użyta jako replikacja?
Tak, ale nie w bardzo krótkich odstępach czasu. Za pomocą BackupChain można wykorzystać mechanizm Hyper-V Backup do wytworzenia kopii 1:1 maszyny wirtualnej i umieszczenia jej na osobnym hoście lub wielu hostach. Zalet jest wiele: BackupChain oferuje bardzo dobre monitorowanie i rejestrowanie błędów. Jeśli coś pójdzie nie tak, zostaniesz o tym powiadomiony i możesz natychmiast dostrzec źródło błędu w logach. Posiadanie kopii maszyny wirtualnej klasy Hyper-V Backup jest zawsze preferowane, co zostało opisane bardziej szczegółowo w poprzednim punkcie, więc jakość replikacji jest znacznie lepsza, jeśli pochodzi z kopii zapasowej Hyper-V.Ponadto, backup Hyper-V oferuje jeszcze jedną krytyczną zaletę: Możliwość cofnięcia się w czasie i przywrócenia znacznie starszych wersji maszyny wirtualnej. Dlatego dla kompletnej strategii backupu Hyper-V nie wystarczy użyć replikacji. Replikacja chroni jedynie przed nagłymi awariami sprzętowymi głównego hosta. Wszystko poza nią musi być chronione za pomocą odpowiednich strategii backupu Hyper-V.
Do wdrożenia backupu Hyper-V i replikacji zalecamy użycie BackupChain.
czwartek, 1 grudnia 2022
Mapowanie S3 jako dysku: Jak zmapować wiadro S3 w systemie Windows
Czy nadal używasz klientów S3, takich jak FileZilla i tym podobne? Cóż, czy nie byłoby wygodniej mieć zamiast tego literę dysku? Jak dysk X: który pokazywałby pliki w witrynie S3, dzięki czemu można je edytować bezpośrednio bez konieczności pobierania i przesyłania przez cały czas? Na szczęście jest rozwiązanie tego problemu!
JAK ZAMONTOWAĆ WITRYNĘ S3 JAKO DYSK W SYSTEMIE WINDOWS
Aby zamontować witryny S3 jako prawdziwy dysk w systemie Windows, przejdź do przodu i pobierz najpierw narzędzie DriveMaker. Następnie utwórz nowy profil dla witryny, jak pokazano powyżej.
Powyższe ustawienia pokazują, jak zmapować dysk B: do konkretnej witryny S3. Wszystko, co musisz wprowadzić, to adres, numer portu, nazwa użytkownika i hasło.
MONTOWANIE WITRYN S3 NA WSZYSTKICH PLATFORMACH WINDOWS
DriveMaker może być zainstalowany na wszystkich wersjach systemu Windows, takich jak Windows 7, 8, 10 czy 11. Na serwerach Windows można go zainstalować na Windows Server 2003 aż do najnowszej wersji Windows Server 2022. Kliknij tutaj, aby pobrać map s3 to drive.
JAK ZAMONTOWAĆ WITRYNĘ S3 JAKO DYSK W SYSTEMIE WINDOWS
Aby zamontować witryny S3 jako prawdziwy dysk w systemie Windows, przejdź do przodu i pobierz najpierw narzędzie DriveMaker. Następnie utwórz nowy profil dla witryny, jak pokazano powyżej.
Powyższe ustawienia pokazują, jak zmapować dysk B: do konkretnej witryny S3. Wszystko, co musisz wprowadzić, to adres, numer portu, nazwa użytkownika i hasło.
MONTOWANIE WITRYN S3 NA WSZYSTKICH PLATFORMACH WINDOWS
DriveMaker może być zainstalowany na wszystkich wersjach systemu Windows, takich jak Windows 7, 8, 10 czy 11. Na serwerach Windows można go zainstalować na Windows Server 2003 aż do najnowszej wersji Windows Server 2022. Kliknij tutaj, aby pobrać map s3 to drive.
sobota, 23 lipca 2022
Struktura logiczna
Namagnesowanie powłoki dysku jest faktycznym nośnikiem informacji. Jest on generowany przez głowicę odczytująco-zapisującą na okrągłych, koncentrycznych ścieżkach podczas obrotu płyty. Płyta zawiera zwykle kilka tysięcy takich ścieżek, najczęściej po obu stronach. Całość wszystkich równych, tj. nałożonych na siebie, torów poszczególnych dysków (powierzchni) nazywamy walcem. Każda ścieżka jest podzielona na małe jednostki logiczne zwane blokami. Blok tradycyjnie zawiera 512 bajtów danych użytkownika. Każdy blok posiada informacje kontrolne (sumy kontrolne), które zapewniają, że informacje zostały zapisane lub odczytane prawidłowo. Całość wszystkich bloków mających te same współrzędne kątowe na dyskach nazwano sektorem (w MFM). Struktura konkretnego typu dysku twardego, czyli liczba cylindrów (ścieżek na powierzchni), głowic (powierzchni) i sektorów, nazywana jest geometrią dysku twardego.
Po podzieleniu na sektory, dla ich wewnętrznych bloków dostępna jest tylko niewielka ilość powierzchni warstwy magnetycznej, ale wystarcza ona do przechowywania bloku danych. Zewnętrzne bloki są jednak znacznie większe i zużywają znacznie więcej miejsca w warstwie magnetycznej niż jest to konieczne. Od RLL przestrzeń ta nie jest już marnowana w obszarze zewnętrznym, dane są tam zapisywane tak samo gęsto jak w obszarze wewnętrznym - ścieżka w obszarze zewnętrznym zawiera teraz więcej bloków niż w obszarze wewnętrznym, podział na sektory nie jest więc już możliwy. Przy stałej prędkości obrotowej elektronika dysku twardego może i musi odczytywać i zapisywać szybciej w obszarze zewnętrznym niż w obszarze wewnętrznym. W związku z tym rozwojem termin sektor stracił swoje pierwotne znaczenie i obecnie jest często używany synonimicznie z blokiem (wbrew jego rzeczywistemu znaczeniu).
Ponieważ - ponieważ numeracja bloków przekraczała limit słów (16 bitów) przy rosnących pojemnościach dysków twardych - niektóre systemy operacyjne zbyt szybko osiągały swoje limity, wprowadzono klastry. Są to grupy po stałej liczbie bloków (np. 32), które sensownie fizycznie sąsiadują ze sobą. System operacyjny nie adresuje już wtedy pojedynczych bloków, ale używa tych klastrów jako najmniejszej jednostki alokacyjnej na swoim (wyższym) poziomie. Dopiero na poziomie sterownika sprzętowego połączenie to zostaje przerwane backup.
W przypadku nowoczesnych dysków twardych prawdziwa geometria, czyli liczba sektorów, głowic i cylindrów zarządzanych przez kontroler dysku twardego, zwykle nie jest widoczna na zewnątrz (tj. dla komputera lub sterownika dysku twardego). W przeszłości, aby pokonać ograniczenia sprzętu kompatybilnego z PC, prezentowano komputerowi wirtualny dysk twardy z zupełnie innymi danymi geometrii. Na przykład dysk twardy posiadający w rzeczywistości tylko cztery głowice może być widziany przez komputer z 255 głowicami. Dziś dysk twardy zwykle po prostu podaje liczbę swoich bloków w trybie LBA.
Dzisiejsze dyski twarde wewnętrznie dzielą cylindry promieniście na strefy, dzięki czemu liczba bloków na ścieżkę jest taka sama w obrębie strefy, ale wzrasta przy zmianie strefy z wewnętrznej na zewnętrzną (zapis bitów strefowych). Najbardziej wewnętrzna strefa ma najmniej bloków na ścieżkę, a najbardziej zewnętrzna najwięcej, dlatego przy zmianie stref z zewnętrznej na wewnętrzną zmniejsza się szybkość ciągłego transferu.
Kontroler dysku twardego może wygaszać uszkodzone bloki do tzw. obszaru hot-fix, a następnie wygaszać blok z obszaru rezerwowego. Dla komputera wygląda to wtedy zawsze tak, jakby wszystkie bloki były wolne od wad i nadawały się do użytku. Proces ten można jednak prześledzić poprzez S.M.A.R.T. za pomocą parametru Reallocated Sector Count. Dysk twardy, którego wartość RSC zauważalnie wzrasta w krótkim czasie, wkrótce ulegnie awarii.
Format zaawansowany
Od 2010 roku w modelach dysków twardych coraz częściej stosuje się schemat sektorowania z większymi sektorami wynoszącymi prawie wyłącznie 4096 bajtów ("4K"). Większe bloki danych pozwalają na większą redundancję, a tym samym niższą stopę błędów blokowych (BER) i/lub niższy całkowity narzut w stosunku do ilości użytecznych danych. Aby uniknąć problemów z kompatybilnością po dekadach (prawie) wyłącznego stosowania bloków 512-bajtowych, większość napędów emuluje w swoim interfejsie 512-bajtowy rozmiar bloku ("512e"). Fizyczny blok o wielkości 4096 bajtów jest emulowany jako osiem bloków logicznych o wielkości 512 bajtów - firmware napędu wykonuje wtedy niezależnie dodatkowe niezbędne operacje zapisu i odczytu. To w zasadzie zapewnia możliwość korzystania z istniejących systemów operacyjnych i sterowników.
Emulacja 512e zapewnia zgodność dysków Advanced Format z istniejącymi systemami operacyjnymi - mogą wystąpić spadki wydajności, jeśli bloki fizyczne mają być zapisywane tylko częściowo (oprogramowanie układowe musi następnie odczytać, zmodyfikować i przywrócić blok fizyczny).
Po podzieleniu na sektory, dla ich wewnętrznych bloków dostępna jest tylko niewielka ilość powierzchni warstwy magnetycznej, ale wystarcza ona do przechowywania bloku danych. Zewnętrzne bloki są jednak znacznie większe i zużywają znacznie więcej miejsca w warstwie magnetycznej niż jest to konieczne. Od RLL przestrzeń ta nie jest już marnowana w obszarze zewnętrznym, dane są tam zapisywane tak samo gęsto jak w obszarze wewnętrznym - ścieżka w obszarze zewnętrznym zawiera teraz więcej bloków niż w obszarze wewnętrznym, podział na sektory nie jest więc już możliwy. Przy stałej prędkości obrotowej elektronika dysku twardego może i musi odczytywać i zapisywać szybciej w obszarze zewnętrznym niż w obszarze wewnętrznym. W związku z tym rozwojem termin sektor stracił swoje pierwotne znaczenie i obecnie jest często używany synonimicznie z blokiem (wbrew jego rzeczywistemu znaczeniu).
Ponieważ - ponieważ numeracja bloków przekraczała limit słów (16 bitów) przy rosnących pojemnościach dysków twardych - niektóre systemy operacyjne zbyt szybko osiągały swoje limity, wprowadzono klastry. Są to grupy po stałej liczbie bloków (np. 32), które sensownie fizycznie sąsiadują ze sobą. System operacyjny nie adresuje już wtedy pojedynczych bloków, ale używa tych klastrów jako najmniejszej jednostki alokacyjnej na swoim (wyższym) poziomie. Dopiero na poziomie sterownika sprzętowego połączenie to zostaje przerwane backup.
W przypadku nowoczesnych dysków twardych prawdziwa geometria, czyli liczba sektorów, głowic i cylindrów zarządzanych przez kontroler dysku twardego, zwykle nie jest widoczna na zewnątrz (tj. dla komputera lub sterownika dysku twardego). W przeszłości, aby pokonać ograniczenia sprzętu kompatybilnego z PC, prezentowano komputerowi wirtualny dysk twardy z zupełnie innymi danymi geometrii. Na przykład dysk twardy posiadający w rzeczywistości tylko cztery głowice może być widziany przez komputer z 255 głowicami. Dziś dysk twardy zwykle po prostu podaje liczbę swoich bloków w trybie LBA.
Dzisiejsze dyski twarde wewnętrznie dzielą cylindry promieniście na strefy, dzięki czemu liczba bloków na ścieżkę jest taka sama w obrębie strefy, ale wzrasta przy zmianie strefy z wewnętrznej na zewnętrzną (zapis bitów strefowych). Najbardziej wewnętrzna strefa ma najmniej bloków na ścieżkę, a najbardziej zewnętrzna najwięcej, dlatego przy zmianie stref z zewnętrznej na wewnętrzną zmniejsza się szybkość ciągłego transferu.
Kontroler dysku twardego może wygaszać uszkodzone bloki do tzw. obszaru hot-fix, a następnie wygaszać blok z obszaru rezerwowego. Dla komputera wygląda to wtedy zawsze tak, jakby wszystkie bloki były wolne od wad i nadawały się do użytku. Proces ten można jednak prześledzić poprzez S.M.A.R.T. za pomocą parametru Reallocated Sector Count. Dysk twardy, którego wartość RSC zauważalnie wzrasta w krótkim czasie, wkrótce ulegnie awarii.
Format zaawansowany
Od 2010 roku w modelach dysków twardych coraz częściej stosuje się schemat sektorowania z większymi sektorami wynoszącymi prawie wyłącznie 4096 bajtów ("4K"). Większe bloki danych pozwalają na większą redundancję, a tym samym niższą stopę błędów blokowych (BER) i/lub niższy całkowity narzut w stosunku do ilości użytecznych danych. Aby uniknąć problemów z kompatybilnością po dekadach (prawie) wyłącznego stosowania bloków 512-bajtowych, większość napędów emuluje w swoim interfejsie 512-bajtowy rozmiar bloku ("512e"). Fizyczny blok o wielkości 4096 bajtów jest emulowany jako osiem bloków logicznych o wielkości 512 bajtów - firmware napędu wykonuje wtedy niezależnie dodatkowe niezbędne operacje zapisu i odczytu. To w zasadzie zapewnia możliwość korzystania z istniejących systemów operacyjnych i sterowników.
Emulacja 512e zapewnia zgodność dysków Advanced Format z istniejącymi systemami operacyjnymi - mogą wystąpić spadki wydajności, jeśli bloki fizyczne mają być zapisywane tylko częściowo (oprogramowanie układowe musi następnie odczytać, zmodyfikować i przywrócić blok fizyczny).
czwartek, 21 lipca 2022
Koszt przechowywania kopii zapasowych w chmurze 1TB, 2TB, 4TB, 6TB, 10TB, 16TB, 20TB
Czy szukasz pamięci masowej do przechowywania kopii zapasowych w chmurze w zakresie terabajtów? Na przykład 1TB, 2TB, 4TB, 6TB, 10TB, 16TB lub nawet 20TB? W takim razie musisz sprawdzić tę firmę zajmującą się tworzeniem kopii zapasowych w chmurze dla serwerów plików, która wyróżnia się także w tworzeniu kopii zapasowych w chmurze dla maszyn wirtualnych.
Ich plany przechowywania w chmurze są dostępne w trzech rodzajach. Są to plany pojedynczego serwera, plany współdzielonego serwera i plany nieograniczonego serwera. Ale co dokładnie jest w nich zawarte?
Wszystkie plany przechowywania kopii zapasowych w chmurze zawierają stałą cenę
W przeciwieństwie do każdego innego dostawcy pamięci masowej w chmurze, zalecane rozwiązanie oferuje ceny all-inclusive. Nie ma opłat za dostęp, nie ma minimalnych okresów przechowywania, nie ma żadnych ukrytych opłat i nie ma kary za przekroczenie limitu przechowywania. Twój portfel będzie Ci wdzięczny, jeśli sprawdzisz sześć wspólnych pułapek związanych z backupem w chmurze, zanim podpiszesz umowę z jakimkolwiek innym dostawcą.
Plany dla pojedynczego serwera o pojemności od 2 TB do 10 TB i wyższe dla kopii zapasowych w chmurze
Oferują plany pojedynczego serwera zaczynające się od 2 TB do dowolnego celu, takiego jak tworzenie kopii zapasowych w chmurze dla serwera plików lub przechowywanie kopii zapasowych Hyper-V w chmurze. Pamięć masową można skalować do 64 TB i więcej, zwykle w przyrostach co 2 TB lub 1 TB.
Plany tworzenia kopii zapasowych w chmurze współdzielonej od 1 TB do 4 TB i więcej
Plany tworzenia kopii zapasowych w chmurze Shared Server mogą być współdzielone z maksymalnie 3 urządzeniami. Jeśli chcesz, aby więcej niż 3 urządzenia współdzieliły ten sam plan, musisz wybrać plan Unlimited Server Cloud. Nieograniczone plany serwerowe nie są jednak nieograniczone pod względem przestrzeni dyskowej.
2TB do 64TB i więcej Nieograniczona przestrzeń dyskowa w chmurze
Aby podłączyć dowolną liczbę komputerów w firmie do tego samego konta pamięci masowej w chmurze, należy wybrać plan Unlimited Cloud Backup. Ten plan zaczyna się od 2 TB i może być rozszerzony w razie potrzeby, ale pamięć masowa nie jest nieograniczona. Musisz wybrać odpowiednią wielkość. Liczba urządzeń nie jest jednak ograniczona.
Ochrona przed oprogramowaniem Ransomware i innymi zagrożeniami za pomocą kopii zapasowej w chmurze
Który plan przechowywania kopii zapasowych w chmurze jest najlepszy? Wszystko zależy od sytuacji. Ile serwerów i komputerów chcesz chronić? Ile danych jest na nich przechowywanych w danej chwili? Ile danych jest generowanych każdego dnia? Czy dobrze się kompresują, jak dokumenty, czy raczej nie, jak filmy i zdjęcia? Jak duża jest przepustowość wysyłania i pobierania danych?
To wszystko są dobre pytania do rozważenia. Dzięki kopii zapasowej w chmurze możesz chronić swoją infrastrukturę IT przed wszelkiego rodzaju zagrożeniami, w tym oprogramowaniem ransomware, wandalizmem, klęskami żywiołowymi i wieloma innymi. Ponieważ dodanie kopii zapasowej w chmurze do strategii tworzenia kopii zapasowych jest ważną decyzją, zalecam bezpośredni kontakt z dostawcą, aby szczegółowo omówić swoje potrzeby.
Jest całkiem prawdopodobne, że znajdzie on efektywny kosztowo sposób na zaspokojenie Twoich potrzeb i pokonanie konkurencji. Rekomendowany przez nas dostawca to rozwiązanie oparte wyłącznie na oprogramowaniu, które nie wymaga dodatkowego sprzętu. Dzięki temu możesz rozpocząć tworzenie kopii zapasowych w chmurze w ciągu kilku minut.
free hyper-v backup
Ich plany przechowywania w chmurze są dostępne w trzech rodzajach. Są to plany pojedynczego serwera, plany współdzielonego serwera i plany nieograniczonego serwera. Ale co dokładnie jest w nich zawarte?
Wszystkie plany przechowywania kopii zapasowych w chmurze zawierają stałą cenę
W przeciwieństwie do każdego innego dostawcy pamięci masowej w chmurze, zalecane rozwiązanie oferuje ceny all-inclusive. Nie ma opłat za dostęp, nie ma minimalnych okresów przechowywania, nie ma żadnych ukrytych opłat i nie ma kary za przekroczenie limitu przechowywania. Twój portfel będzie Ci wdzięczny, jeśli sprawdzisz sześć wspólnych pułapek związanych z backupem w chmurze, zanim podpiszesz umowę z jakimkolwiek innym dostawcą.
Plany dla pojedynczego serwera o pojemności od 2 TB do 10 TB i wyższe dla kopii zapasowych w chmurze
Oferują plany pojedynczego serwera zaczynające się od 2 TB do dowolnego celu, takiego jak tworzenie kopii zapasowych w chmurze dla serwera plików lub przechowywanie kopii zapasowych Hyper-V w chmurze. Pamięć masową można skalować do 64 TB i więcej, zwykle w przyrostach co 2 TB lub 1 TB.
Plany tworzenia kopii zapasowych w chmurze współdzielonej od 1 TB do 4 TB i więcej
Plany tworzenia kopii zapasowych w chmurze Shared Server mogą być współdzielone z maksymalnie 3 urządzeniami. Jeśli chcesz, aby więcej niż 3 urządzenia współdzieliły ten sam plan, musisz wybrać plan Unlimited Server Cloud. Nieograniczone plany serwerowe nie są jednak nieograniczone pod względem przestrzeni dyskowej.
2TB do 64TB i więcej Nieograniczona przestrzeń dyskowa w chmurze
Aby podłączyć dowolną liczbę komputerów w firmie do tego samego konta pamięci masowej w chmurze, należy wybrać plan Unlimited Cloud Backup. Ten plan zaczyna się od 2 TB i może być rozszerzony w razie potrzeby, ale pamięć masowa nie jest nieograniczona. Musisz wybrać odpowiednią wielkość. Liczba urządzeń nie jest jednak ograniczona.
Ochrona przed oprogramowaniem Ransomware i innymi zagrożeniami za pomocą kopii zapasowej w chmurze
Który plan przechowywania kopii zapasowych w chmurze jest najlepszy? Wszystko zależy od sytuacji. Ile serwerów i komputerów chcesz chronić? Ile danych jest na nich przechowywanych w danej chwili? Ile danych jest generowanych każdego dnia? Czy dobrze się kompresują, jak dokumenty, czy raczej nie, jak filmy i zdjęcia? Jak duża jest przepustowość wysyłania i pobierania danych?
To wszystko są dobre pytania do rozważenia. Dzięki kopii zapasowej w chmurze możesz chronić swoją infrastrukturę IT przed wszelkiego rodzaju zagrożeniami, w tym oprogramowaniem ransomware, wandalizmem, klęskami żywiołowymi i wieloma innymi. Ponieważ dodanie kopii zapasowej w chmurze do strategii tworzenia kopii zapasowych jest ważną decyzją, zalecam bezpośredni kontakt z dostawcą, aby szczegółowo omówić swoje potrzeby.
Jest całkiem prawdopodobne, że znajdzie on efektywny kosztowo sposób na zaspokojenie Twoich potrzeb i pokonanie konkurencji. Rekomendowany przez nas dostawca to rozwiązanie oparte wyłącznie na oprogramowaniu, które nie wymaga dodatkowego sprzętu. Dzięki temu możesz rozpocząć tworzenie kopii zapasowych w chmurze w ciągu kilku minut.
free hyper-v backup
czwartek, 23 czerwca 2022
Cloud Backup Storage Najczęstsze zagrożenia podczas korzystania z pamięci masowej w chmurze
W mediach można było usłyszeć o wielu różnych dostawcach usług przechowywania kopii zapasowych w chmurze. Gdy jednak przyjrzymy się im bliżej, zauważymy kilka istotnych różnic, których należy być świadomym. Różnice między planami w chmurze mogą mieć ogromny wpływ na długoterminowe koszty.
Jak będziesz korzystać z planu w chmurze?
Czy pliki mają być przechowywane przez bardzo długi czas bez modyfikacji? Czy Twoje narzędzie do tworzenia kopii zapasowych obsługuje tego typu rozwiązania? Jeśli nie, lub jeśli pliki często się zmieniają, a więc trzeba często wykonywać kopie zapasowe, może to spowodować wzrost kosztów planu chmurowego.
Koszty dostępu
Z większością dostawców usług przechowywania kopii zapasowych w chmurze wiążą się opłaty za dostęp. W przypadku zapytania o folder serwer musi utworzyć listę plików, a to wymaga dużo pracy, więc firma zazwyczaj pobiera za to opłaty. W zależności od używanego narzędzia do tworzenia kopii zapasowych i wielkości kopii zapasowej serwera plików podczas typowego tworzenia kopii zapasowej mogą być wykonywane miliony takich zapytań. Nie widać tego od razu i nawet jeśli każdy dostęp kosztuje tylko ułamek grosza, to szybko sumuje się w wiele dolarów i centów. Im więcej masz folderów i plików, tym wyższe będą opłaty za dostęp. W miarę powtarzania kopii zapasowych, co godzinę, codziennie lub według dowolnego harmonogramu, opłaty te dosłownie się mnożą.
Opłaty za pobieranie: Opłaty za dostęp
Gdy nadejdzie czas i trzeba będzie coś przywrócić, większość dostawców pobiera opłaty za każdy gigabajt opuszczający obiekt. Jeśli musisz pobrać dużą ilość danych, będzie to dużo kosztować. W przypadku wielu głównych dostawców opłaty za wyjście mogą być ogromne. Opłaty za wyjście dotyczą również danych śledzących, których narzędzie do tworzenia kopii zapasowych używa do koordynowania tworzenia kopii zapasowych. Tak więc w jakiejś formie nastąpi pobranie danych, aczkolwiek te pliki śledzenia są oczywiście znacznie mniejsze niż pełne przywrócenie. Na przykład pobranie 1 TB z Amazon S3 kosztowałoby dziś (2022 r.) około 92 USD.
Pułapki granularności
Większość dostawców, zwłaszcza dostawcy usług przechowywania danych w chmurze opartych na S3, przechowuje każdy obiekt osobno. Jeśli trzeba zmienić tylko kilka bajtów w pliku, obiekt jest często przesyłany ponownie i tworzona jest jego nowa wersja. Jeśli ten plik ma rozmiar 1 TB, może zostać utworzony nowy obiekt o pojemności 1 TB. Teraz użytkownik zostanie obciążony opłatą za nowy TB, mimo że zmieniło się tylko kilka bajtów. Wprawdzie tej sytuacji można by uniknąć, wybierając inny mechanizm tworzenia kopii zapasowych, ale ilustruje ona problem.
Inną kwestią związaną z granularnością jest naliczanie opłat według gigabajtów. Wielu dostawców zaokrągla w górę i nalicza opłaty w pełnych GB lub nawet TB. Na przykład jeden dostawca może mieć pozornie niską cenę za terabajt, ale później okazuje się, że nalicza pełne TB, mimo że korzystasz tylko z 1 GB.
Pułapki związane z minimalnym czasem przechowywania danych
Inną sztuczką, która może sprawić, że zapłacisz więcej, niż chciałeś, jest określenie minimalnego czasu przechowywania danych. Przeanalizujmy często spotykany scenariusz. Tworzysz kopię zapasową dysku serwera w postaci obrazu i przesyłasz go do chmury. Obraz ma pojemność 500 GB, możesz zostać obciążony jednym TB, ale uważasz, że to w porządku, biorąc pod uwagę niską stawkę za TB. Teraz jednak co noc wymieniasz obraz dysku w chmurze. Zakładasz, że w sumie zużywasz tylko 500 GB. W rzeczywistości w ciągu jednego miesiąca zużyłeś 30 * 500 GB, a ponadto musisz zapłacić za całe 15 TB przez określoną liczbę miesięcy. Niektórzy dostawcy wymagają minimalnego trzymiesięcznego okresu przechowywania danych. W naszym powyższym przykładzie zapłaciłbyś 90 * 500 GB = 45 TB, a w rzeczywistości wykorzystałeś tylko 500 GB!
Płacenie na bieżąco oznacza brak gwarancji na przyszłość
To tak jak z wynajmowaniem domu. Po wygaśnięciu umowy najmu mogą nastąpić podwyżki stawek. Jednak w przeciwieństwie do wynajmu domu, który w większości krajów jest regulowany prawnie, w przypadku przechowywania danych w chmurze nie ma żadnych regulacji. Operatorzy mogą podnieść koszty w dowolnym momencie. Ale czy w takim razie nie możemy po prostu "przesiąść się", jeśli tak się stanie?
Wysoki koszt zmiany dostawcy
Czy kiedykolwiek zmieniałeś miejsce zamieszkania? To dużo pracy i stresu. Większość ludzi wolałaby tego uniknąć. Dostawcy usług przechowywania danych w chmurze mają swoje własne platformy i nie ma prawdziwego standardu współpracy z nimi. Powód jest prosty: dostawcy usług w chmurze chcą się upewnić, że koszty zmiany dostawcy są wysokie, ponieważ jeśli zmiana dostawcy jest łatwa, prosta i szybka, następną rzeczą, która się wydarzy, będzie wojna cenowa. A jak wszyscy wiemy, skutkuje to zazwyczaj złą sytuacją dla dostawców, ale także spadkiem jakości dla konsumentów.
W związku z tym, jeśli użytkownik raz zdecyduje się na korzystanie z jednej platformy, prawdopodobnie pozostanie przy niej, ponieważ zmiana nie jest łatwa. Pozostawia to dostawcom usług w chmurze pewną swobodę w podnoszeniu stawek w dłuższej perspektywie. Gdyby przynajmniej użytkownik miał gwarancję, że stawki nie wzrosną, wówczas wyższe koszty zmiany platformy nie stanowiłyby tak dużego problemu.
Korzystanie z większej ilości pamięci masowej niż przewidziana
Inną sztuczką stosowaną przez niektórych dostawców jest naliczanie ogromnych opłat po przekroczeniu określonego limitu. Na przykład, użytkownik zapisuje się na plan 500 GB, ale ostatecznie wykorzystuje 600 GB. Różnica 100 GB może kosztować Cię prawie więcej niż 500 GB, na które się zapisałeś. Ponieważ tworzenie kopii zapasowych w chmurze jest zautomatyzowane, tak naprawdę nie ma gwarancji, że nie zostanie przekroczona całkowita przydzielona przestrzeń dyskowa. Jeśli dostawca chmury automatycznie nalicza wysokie opłaty za przekroczenie limitu pamięci, może to znacznie podnieść miesięczny rachunek.
Brak zespołu wsparcia technicznego
Inną formą ukrytych kosztów jest brak wsparcia technicznego. Pomoc techniczna jest niezbędna nie tylko podczas pierwszego konfigurowania systemu kopii zapasowych w chmurze, ale także w dłuższej perspektywie. Pewna forma monitorowania i testowania jest konieczna, aby potwierdzić, że wszystko działa zgodnie z oczekiwaniami i że żadne krytyczne fragmenty danych nie zostały przypadkowo pominięte. Zwłaszcza gdy konieczne jest przywrócenie danych, a czas jest krytyczny, najlepiej mieć do dyspozycji kompetentny, niezawodny i szybko reagujący zespół pomocy technicznej, który pomoże w zakończeniu przywracania, jeśli pojawią się jakiekolwiek problemy.
Większość dostawców kopii zapasowych w chmurze to jednak tylko dostawcy infrastruktury. Nie obchodzi ich, czy użytkownik będzie miał problemy z przywróceniem danych; oni jedynie zapewniają platformę. Na przykład Amazon S3 nie został stworzony do tworzenia kopii zapasowych w chmurze, ale jest używany przez wiele firm właśnie w tym celu. Kto więc pomoże tym użytkownikom, gdy operacja przywracania utknie w jakimś miejscu?
Rozwiązanie: Dostawca pamięci masowej w chmurze o stałej cenie
Czy nie byłoby łatwiej nie martwić się o zmienne koszty i opłaty? Żadnych opłat za dostęp, pobieranie, minimalny czas przechowywania. Zamiast tego prosta, stała opłata za określoną ilość miejsca w chmurze. Żadnych ukrytych opłat, żadnych podwyżek cen w przyszłości, absolutnie nic, o co można by się martwić.
Ponadto, czy nie byłoby wspaniale, gdyby plan tworzenia kopii zapasowych w chmurze obejmował pomoc techniczną z siedzibą w Stanach Zjednoczonych, dzięki czemu użytkownik wiedziałby, że może polegać na kompetentnym zespole pomocy technicznej, niezależnie od tego, co i kiedy się stanie. Okazuje się, że taki plan rzeczywiście istnieje i jest oferowany przez firmę Affordable Cloud Storage.
Oprócz tego, że jest to ekonomiczna alternatywa dla innych popularnych rozwiązań chmurowych, ich technologia oferuje również dodatkowe rozwiązania usprawniające proces tworzenia kopii zapasowych i znacznie przyspieszające tworzenie kopii zapasowych, dzięki czemu można tworzyć kopie zapasowe częściej w ciągu dnia, bez ponoszenia dodatkowych kosztów.
Jak będziesz korzystać z planu w chmurze?
Czy pliki mają być przechowywane przez bardzo długi czas bez modyfikacji? Czy Twoje narzędzie do tworzenia kopii zapasowych obsługuje tego typu rozwiązania? Jeśli nie, lub jeśli pliki często się zmieniają, a więc trzeba często wykonywać kopie zapasowe, może to spowodować wzrost kosztów planu chmurowego.
Koszty dostępu
Z większością dostawców usług przechowywania kopii zapasowych w chmurze wiążą się opłaty za dostęp. W przypadku zapytania o folder serwer musi utworzyć listę plików, a to wymaga dużo pracy, więc firma zazwyczaj pobiera za to opłaty. W zależności od używanego narzędzia do tworzenia kopii zapasowych i wielkości kopii zapasowej serwera plików podczas typowego tworzenia kopii zapasowej mogą być wykonywane miliony takich zapytań. Nie widać tego od razu i nawet jeśli każdy dostęp kosztuje tylko ułamek grosza, to szybko sumuje się w wiele dolarów i centów. Im więcej masz folderów i plików, tym wyższe będą opłaty za dostęp. W miarę powtarzania kopii zapasowych, co godzinę, codziennie lub według dowolnego harmonogramu, opłaty te dosłownie się mnożą.
Opłaty za pobieranie: Opłaty za dostęp
Gdy nadejdzie czas i trzeba będzie coś przywrócić, większość dostawców pobiera opłaty za każdy gigabajt opuszczający obiekt. Jeśli musisz pobrać dużą ilość danych, będzie to dużo kosztować. W przypadku wielu głównych dostawców opłaty za wyjście mogą być ogromne. Opłaty za wyjście dotyczą również danych śledzących, których narzędzie do tworzenia kopii zapasowych używa do koordynowania tworzenia kopii zapasowych. Tak więc w jakiejś formie nastąpi pobranie danych, aczkolwiek te pliki śledzenia są oczywiście znacznie mniejsze niż pełne przywrócenie. Na przykład pobranie 1 TB z Amazon S3 kosztowałoby dziś (2022 r.) około 92 USD.
Pułapki granularności
Większość dostawców, zwłaszcza dostawcy usług przechowywania danych w chmurze opartych na S3, przechowuje każdy obiekt osobno. Jeśli trzeba zmienić tylko kilka bajtów w pliku, obiekt jest często przesyłany ponownie i tworzona jest jego nowa wersja. Jeśli ten plik ma rozmiar 1 TB, może zostać utworzony nowy obiekt o pojemności 1 TB. Teraz użytkownik zostanie obciążony opłatą za nowy TB, mimo że zmieniło się tylko kilka bajtów. Wprawdzie tej sytuacji można by uniknąć, wybierając inny mechanizm tworzenia kopii zapasowych, ale ilustruje ona problem.
Inną kwestią związaną z granularnością jest naliczanie opłat według gigabajtów. Wielu dostawców zaokrągla w górę i nalicza opłaty w pełnych GB lub nawet TB. Na przykład jeden dostawca może mieć pozornie niską cenę za terabajt, ale później okazuje się, że nalicza pełne TB, mimo że korzystasz tylko z 1 GB.
Pułapki związane z minimalnym czasem przechowywania danych
Inną sztuczką, która może sprawić, że zapłacisz więcej, niż chciałeś, jest określenie minimalnego czasu przechowywania danych. Przeanalizujmy często spotykany scenariusz. Tworzysz kopię zapasową dysku serwera w postaci obrazu i przesyłasz go do chmury. Obraz ma pojemność 500 GB, możesz zostać obciążony jednym TB, ale uważasz, że to w porządku, biorąc pod uwagę niską stawkę za TB. Teraz jednak co noc wymieniasz obraz dysku w chmurze. Zakładasz, że w sumie zużywasz tylko 500 GB. W rzeczywistości w ciągu jednego miesiąca zużyłeś 30 * 500 GB, a ponadto musisz zapłacić za całe 15 TB przez określoną liczbę miesięcy. Niektórzy dostawcy wymagają minimalnego trzymiesięcznego okresu przechowywania danych. W naszym powyższym przykładzie zapłaciłbyś 90 * 500 GB = 45 TB, a w rzeczywistości wykorzystałeś tylko 500 GB!
Płacenie na bieżąco oznacza brak gwarancji na przyszłość
To tak jak z wynajmowaniem domu. Po wygaśnięciu umowy najmu mogą nastąpić podwyżki stawek. Jednak w przeciwieństwie do wynajmu domu, który w większości krajów jest regulowany prawnie, w przypadku przechowywania danych w chmurze nie ma żadnych regulacji. Operatorzy mogą podnieść koszty w dowolnym momencie. Ale czy w takim razie nie możemy po prostu "przesiąść się", jeśli tak się stanie?
Wysoki koszt zmiany dostawcy
Czy kiedykolwiek zmieniałeś miejsce zamieszkania? To dużo pracy i stresu. Większość ludzi wolałaby tego uniknąć. Dostawcy usług przechowywania danych w chmurze mają swoje własne platformy i nie ma prawdziwego standardu współpracy z nimi. Powód jest prosty: dostawcy usług w chmurze chcą się upewnić, że koszty zmiany dostawcy są wysokie, ponieważ jeśli zmiana dostawcy jest łatwa, prosta i szybka, następną rzeczą, która się wydarzy, będzie wojna cenowa. A jak wszyscy wiemy, skutkuje to zazwyczaj złą sytuacją dla dostawców, ale także spadkiem jakości dla konsumentów.
W związku z tym, jeśli użytkownik raz zdecyduje się na korzystanie z jednej platformy, prawdopodobnie pozostanie przy niej, ponieważ zmiana nie jest łatwa. Pozostawia to dostawcom usług w chmurze pewną swobodę w podnoszeniu stawek w dłuższej perspektywie. Gdyby przynajmniej użytkownik miał gwarancję, że stawki nie wzrosną, wówczas wyższe koszty zmiany platformy nie stanowiłyby tak dużego problemu.
Korzystanie z większej ilości pamięci masowej niż przewidziana
Inną sztuczką stosowaną przez niektórych dostawców jest naliczanie ogromnych opłat po przekroczeniu określonego limitu. Na przykład, użytkownik zapisuje się na plan 500 GB, ale ostatecznie wykorzystuje 600 GB. Różnica 100 GB może kosztować Cię prawie więcej niż 500 GB, na które się zapisałeś. Ponieważ tworzenie kopii zapasowych w chmurze jest zautomatyzowane, tak naprawdę nie ma gwarancji, że nie zostanie przekroczona całkowita przydzielona przestrzeń dyskowa. Jeśli dostawca chmury automatycznie nalicza wysokie opłaty za przekroczenie limitu pamięci, może to znacznie podnieść miesięczny rachunek.
Brak zespołu wsparcia technicznego
Inną formą ukrytych kosztów jest brak wsparcia technicznego. Pomoc techniczna jest niezbędna nie tylko podczas pierwszego konfigurowania systemu kopii zapasowych w chmurze, ale także w dłuższej perspektywie. Pewna forma monitorowania i testowania jest konieczna, aby potwierdzić, że wszystko działa zgodnie z oczekiwaniami i że żadne krytyczne fragmenty danych nie zostały przypadkowo pominięte. Zwłaszcza gdy konieczne jest przywrócenie danych, a czas jest krytyczny, najlepiej mieć do dyspozycji kompetentny, niezawodny i szybko reagujący zespół pomocy technicznej, który pomoże w zakończeniu przywracania, jeśli pojawią się jakiekolwiek problemy.
Większość dostawców kopii zapasowych w chmurze to jednak tylko dostawcy infrastruktury. Nie obchodzi ich, czy użytkownik będzie miał problemy z przywróceniem danych; oni jedynie zapewniają platformę. Na przykład Amazon S3 nie został stworzony do tworzenia kopii zapasowych w chmurze, ale jest używany przez wiele firm właśnie w tym celu. Kto więc pomoże tym użytkownikom, gdy operacja przywracania utknie w jakimś miejscu?
Rozwiązanie: Dostawca pamięci masowej w chmurze o stałej cenie
Czy nie byłoby łatwiej nie martwić się o zmienne koszty i opłaty? Żadnych opłat za dostęp, pobieranie, minimalny czas przechowywania. Zamiast tego prosta, stała opłata za określoną ilość miejsca w chmurze. Żadnych ukrytych opłat, żadnych podwyżek cen w przyszłości, absolutnie nic, o co można by się martwić.
Ponadto, czy nie byłoby wspaniale, gdyby plan tworzenia kopii zapasowych w chmurze obejmował pomoc techniczną z siedzibą w Stanach Zjednoczonych, dzięki czemu użytkownik wiedziałby, że może polegać na kompetentnym zespole pomocy technicznej, niezależnie od tego, co i kiedy się stanie. Okazuje się, że taki plan rzeczywiście istnieje i jest oferowany przez firmę Affordable Cloud Storage.
Oprócz tego, że jest to ekonomiczna alternatywa dla innych popularnych rozwiązań chmurowych, ich technologia oferuje również dodatkowe rozwiązania usprawniające proces tworzenia kopii zapasowych i znacznie przyspieszające tworzenie kopii zapasowych, dzięki czemu można tworzyć kopie zapasowe częściej w ciągu dnia, bez ponoszenia dodatkowych kosztów.
Subskrybuj:
Posty (Atom)