Vor- und Nachteile von Deduplizierungstechnologien, VHDX, Hyper-V

Was sind die Vor- und Nachteile von Deduplizierungstechnologien, wenn man die Anwendung in Hyper-V betrachtet?

Enorme Speichereinsparungen

Datendeduplizierungsdaten bedeuten im Grunde, dass doppelte Segmente in Datendateien entfernt werden. Daher ist Deduplizierung eine Form der Datenkomprimierung, die jedoch auf unterschiedliche Weise verwendet wird. Beispielsweise verwendet die Hyper-V-Sicherungssoftware die Deduplizierung, um die Speichernutzung von Sicherungen drastisch zu reduzieren, indem die letzte Sicherung eines Hyper-V-Host Servers mit dem
aktuellen Stand verglichen wird.
Da sich bei häufigen Backups nur wenig Daten ändern, ist auch das sogenannte Delta, der eigentliche Unterschied zwischen einer Datei und ihrer Vorgängerversion, winzig. Anstatt eine große virtuelle Maschine immer wieder in voller Länge zu kopieren, kann die Hyper-V-Sicherungssoftware mithilfe der Deduplizierung teuren Speicherplatz effizienter nutzen.

Zusätzliche CPU-Verarbeitung erforderlich

Manchmal werden Daten nicht komprimiert, weil der Vorteil einer Reduzierung der Größe im Vergleich zur CPU-Auslastung, die für die erstmalige Komprimierung erforderlich ist, gering ist. Komprimierung ist sinnvoll, wenn der Speicherplatz sehr begrenzt ist und relativ gute CPU-Ressourcen zur Verfügung stehen.
Wenn viel Speicherplatz zur Verfügung steht und / oder die CPU-Ressourcen nicht ausreichen, ist es möglicherweise besser, die Daten so zu belassen, wie sie sind, als sie zu minimieren. Darüber hinaus können einige Daten, z. B. verschlüsselte Dateien, nicht komprimiert werden.
Deduplizierung ist nicht anders. Damit sich die Deduplizierung auszahlt, muss eine zusätzliche Verarbeitung erfolgen. Blöcke müssen verfolgt und einzeln komprimiert werden. Idealerweise benötigt das Quellsystem eine gute CPU, um von der Deduplizierung zu profitieren. Ein weiterer Gesichtspunkt sind die Zielmedien. Wenn es eher langsam ist, ist die Deduplizierung sinnvoll, da jede zusätzliche Verarbeitung durch Bandbreiteneinsparungen ausgeglichen wird.

Schnellere Bearbeitungszeit

Wenn ein sehr langsames Ziel verwendet wird, z. B. das Internet, kann die Gesamtverarbeitungszeit bei Verwendung der Deduplizierung wesentlich
kürzer sein. Wenn das Ziel sehr schnell ist und genügend Speicherplatz zur Verfügung steht, ist die Verwendung der Deduplizierung möglicherweise nicht erforderlich. Schlimmer noch, die Deduplizierung kann den gesamten Prozess verlangsamen, ohne Vorteile zu bieten.

Mehrschritt- / Mehrphasenwiederherstellung

Eine mehrstufige / mehrphasige Wiederherstellung kann erforderlich sein, wenn auf deduplizierte Daten zugegriffen oder diese wiederhergestellt werden. Für die Deduplizierung muss bei jedem Datenzugriff ein komplexer Speichermechanismus geschrieben und gelesen werden. Diese zusätzliche Komplexität kann sich auf die Zugriffsgeschwindigkeit auswirken. Dies liegt daran, dass bei der Deduplizierung Referenzen verwendet werden, wenn sich Datenblöcke wiederholen. Daher muss das Zielspeichermedium einen schnellen Direktzugriff bereitstellen, da andernfalls die Wiederherstellungsgeschwindigkeit zu einem Problem werden kann.

Direktzugriffsmedien

Zielmedien müssen schnellen Direktzugriff bieten. Bandsicherungen können aus dem einfachen Grund, dass das Abwickeln von Bändern für immer dauert, einen großen Nachteil darstellen, verglichen mit einer Festplatte, deren Suchzeit im Millisekundenbereich liegt. Und selbst bei Festplatten wird die Suchzeit zu einem Problem, wenn die Festplatte stark fragmentiert ist, da mechanische Festplatten für den sequenziellen Zugriff optimiert sind und sich die Suchzeit schnell summiert. Wenn Daten über sehr viele Generationen dedupliziert werden, kann diese Suchzeit die Zugriffszeiten erheblich verlängern.

Langsame Zielverbindung / Medium

Durch die Deduplizierung können Backups effizient über langsame Verbindungen mit hoher Latenz gesendet werden. Cloud-Backups der Enterprise-Klasse werden in der Regel von einer Deduplizierungs-Engine unterstützt, da die Bandbreite für Internet-Uploads in der Regel sehr begrenzt ist.
Die zusätzliche Verarbeitung an der Quelle für die Deduplizierung ist im Vergleich zu der Zeit, die zum Hochladen eines großen Datenblocks
erforderlich ist, minimal.

Interdependenzen und Risiko von Datenkorruption

Abhängigkeiten von Backups erhöhen das Risiko von Datenbeschädigungen: Wenn Daten in vielen Teilen, möglicherweise über mehrere Speichermedien verteilt, steigt das Risiko von Datenverlusten, da nur ein fehlerhafter Block oder eine fehlerhafte Festplatte erforderlich ist, um die Datei zu beschädigen. Natürlich gibt es Möglichkeiten, dieses Risiko und das Risiko der Bitfäule zu minimieren. es bleibt jedoch immer ein gewisses Risiko bestehen. Vollständige Backups / „vollständige Dateien“ sind hingegen nicht von anderen Dateien abhängig. Daher ist das Risiko von Verlust oder Beschädigung auf die Datei selbst und die von anderen Dateien und Medien getrennten Speichermedien beschränkt.

Globale Deduplizierung bietet zusätzliche Einsparpotenziale

Während In-File-Deltas einzelne Dateien deduplizieren, versucht die globale Deduplizierung zusätzliche Einsparungen zu erzielen, indem redundante Datenblöcke in verschiedenen Dateien entfernt werden. Wenn beispielsweise ein Dutzend Server auf einem zentralen Server gesichert werden und jeder dieser Server einen großen Block identischer Daten speichert, kann die globale Deduplizierung doppelte Daten identifizieren und doppelte Daten aus dem Sicherungsspeicher entfernen. Natürlich ist die globale Deduplizierung mit einem höheren Grad an Komplexität und gegenseitiger Abhängigkeit verbunden.
Da die Speicherung digitaler Informationen nicht perfekt ist, kann, wie oben erwähnt, ein einzelnes Bit rot weit mehr als nur eine Datei pro Zeit beschädigen, es sei denn, das Deduplizierungssystem wurde entwickelt, um diese Probleme zu bewältigen.

Zusammenfassung

Das Ergebnis all dieser Komplexität schränkt die Anwendbarkeit der Deduplizierung ein. Die Deduplizierung erfordert aufgrund der gegenseitigen Abhängigkeiten der Datenblöcke eine weitaus größere Verarbeitung und komplexere Speicherformate auf der Festplatte. Reguläre Dateisysteme müssen keine Interkonnektivität bereitstellen und sind daher viel einfacher zuzugreifen und zu bearbeiten. Die Datenwiederherstellung ist auch auf beschädigten „normalen“ Dateisystemen viel einfacher als auf Festplatten, die aus den gleichen Gründen eine Deduplizierung verwenden. Bei der Entscheidung, ob die Deduplizierung implementiert werden soll, müssen daher alle potenziellen Vor- und Nachteile berücksichtigt werden, die wiederum sehr stark von der Art des Gesamtsystems und der verarbeiteten Daten abhängen.

Werkzeuge

Mit BackupChain, die All-in-One-Backup-Lösung, können erhebliche Einsparungen bei der Deduplizierung von VHDX und Hyper-V erzielt werden. Sind Sie Interessiert an Cloud Backup? Probieren Sie unsere unbegrenzten Cloud-Speicherpläne aus.

BackupChain-Funktionen

Die BackupChain Backup-Software bietet IT-Experten weltweit Funktionen für Server 2019 Backups sowie Cloud-Backups. Die Stärke von BackupChain besteht darin, dass es Ihnen die Tools zur Verfügung stellt, die Sie zum Einrichten Ihres eigenen Serversicherungssystems mit Live-Sicherung, Hyper-V 2019 Sicherung und Cloud- Serversicherung benötigen, wenn Sie mit virtuellen Maschinen arbeiten oder Gäste virtueller Maschinen sichern möchten.

Darüber hinaus fügt BackupChain eine Reihe von Funktionen hinzu, die auch für physische Sicherungsserverszenarien wichtig sind, z. B. Versionssicherung, Exchange Server-Sicherung, Dateisicherung und FTP-Serversicherung . Um BackupChain als Backup-Lösung so flexibel wie möglich zu gestalten, haben wir Unterstützung für verschiedene Plattformen hinzugefügt, z. B. Backups für VirtualBox- und SQL-Datenbank-Backups.
Natürlich sind Funktionen wie Backup für NAS und Deduplizierung sowie Backup für Cluster-Volumes integriert und kostenlos verfügbar.
VMware ist eine weitere beliebte Komponente. Unser VMware Backup-Softwaremodul deckt VMDK-Backups ab und unterstützt auch die granulare Wiederherstellung und das granulare Backup. Der gleiche Funktionsumfang ist auch für VDI und VHD / VHDX verfügbar. Darüber hinaus enthält unsere Freeware für Hyper-V und andere Plattformen eine FTP-Client-Freeware namens DriveMaker, die den Zugriff auf FTP-Cloud-Speicher über ein zugeordnetes Laufwerk ermöglicht. Unser Team ist bestrebt, die beste Sicherungssoftware für Windows Server auf dem Markt zu sein und sucht ständig nach Möglichkeiten, die Arbeit des IT-Administrators zu erleichtern, indem BackupChain noch leistungsfähiger wird. Laden Sie Ihre Testversion noch heute herunter!

Weitere Tutorials