Drei Argumente gegen die manuelle Migration von Hadoop in die Cloud

Große Datenmengen haben in der Cloud ein logisches Zuhause gefunden. Führende Unternehmen nutzen mittlerweile die Vorteile von preisgünstigem skalierbarem Speicher und die Flexibilität leistungsstarker Analytik-Plattformen. Doch: Wenn alle Argumente dafür sprechen – warum ist die Migration großer Datenmengen in die Cloud dann ein Business-Risiko für Unternehmen? Rani Hublou, technische Beraterin unseres Partners WANdisco, gibt die Antworten und zeigt die Lösung.

Die manuelle Migration ist heute der weitest verbreitete taktische Ansatz, um große Datenmengen zu kopieren und zu migrieren. Sehr viele Administratoren erstellen, verwalten, planen und pflegen dazu sehr viele benutzerdefinierte Open-Source-Skripte. Wird für die Big-Data-Migration ein Datentransfer-Device oder Manager-Tool genutzt, wie etwa Microsoft oder Google sie anbieten, ist zusätzliches benutzerdefiniertes Skripting erforderlich, um die Daten hochzuladen.

Dieser manuelle Ansatz für die Big-Data-Migration birgt gleich drei Business-Risiken: Dateninkonsistenz, Geschäftsunterbrechungen und großen Bedarf an IT-Kapazitäten. Per Live Migration sind alle drei vermeidbar.

Risiko 1: Dateninkonsistenz

Große Datensätze brauchen viel Zeit, um auf manuellen Wegen in die Cloud zu gelangen. Ein Petabyte benötigt bei einer gängigen Übertragungsrate von 1 Gbit/s über 100 Tage für die Migration. Selbst mit einem Datentransfer-Device nimmt es Wochen in Anspruch. Während der Bereitstellung in die Cloud sind natürlich weiterhin Änderungen und Ingest erforderlich. Doch: Werden Daten während der langen Migrationszeit verändert, steigt das Risiko, große unpräzise Datensätze in die Cloud zu bringen.

Mehr noch: Wenn sich die manuelle Datenmigration auf benutzerdefinierte Open-Source-Skripte stützt, wie überprüft das Team dann, ob die Replikation korrekt ist? Der manuelle Abgleich garantiert kein vollständig konsistentes Datenergebnis. Und wie gehen Administratoren mit neuen Updates um, die während der Migration entstanden sind? Üblicherweise werden Daten, die während der Migration erstellt oder geändert werden, bei manuellen Migrationsansätzen nicht berücksichtigt.

Live Migration vermeidet die Risiken der mangelhaften Datenqualität. Der automatisierte Ansatz zur Migration großer Datenmengen ermöglicht die Validierung der Datenkonsistenz zwischen den beteiligten Systemen. Da Änderungen an beliebiger Stelle im Ausgangssystem vorgenommen werden können, stellt die Live Migration sicher, dass alle Systeme nach der Fertigstellung über konsistente Daten verfügen. Ohne Datenverluste. Mit garantiert hoher Datenqualität.

Risiko 2: Geschäftsunterbrechungen

Unternehmen haben geschäftskritische Workloads zunehmend in Hadoop-Clustern angelegt, weil diese lokal die meisten Skalierungs- und Anpassungsvorteile bieten. Die Erwartungen an Verfügbarkeit, Konsistenz, Sicherheit und Auditierbarkeit übersteigen sie allerdings zunehmend. „Kalte“, statische Datensätze zu bewegen bleibt einfach, doch stetig verändernde Datensätze mit den Enterprise SLAs zu matchen, ist aufwändig und schwer.

Die manuelle Migration großer Datenmengen verursacht oft signifikante Unterbrechungen des Betriebs lokaler Anwendungen. Wie viel Ausfallzeit ist akzeptabel? Administratoren, die sich für Migrationsstrategien entscheiden, die Datensätze schrittweise und über viele Monate in die Cloud bringen, müssen ungünstigen Updates in Kauf nehmen und riskieren, ihre SLAs nicht einzuhalten.

Live Migration vermeidet das Risiko von Geschäftsunterbrechungen während der Migration. Sie gewährleistet volle Business Continuity für hybride, multiregionale und Cloud-Umgebungen inklusive des weiteren Betriebs lokaler Cluster. Führende Unternehmen verfolgen diesen Ansatz, um ihre kritischen SLAs einzuhalten und Auswirkungen auf die Ausgangssysteme und deren Betrieb während der Migration auszuschließen.

Risiko 3: Hoher IT-Kapazitätsbedarf

Die beträchtlichen Investitionen, die Unternehmen getätigt haben, um Rechenzentren für das Hosting ihrer Hadoop-Daten und -Workloads aufzubauen, können in der Regel nach zwei bis vier Jahren abgeschrieben werden. Anschließend auf geringere Betriebskosten für die Cloud zu setzen, erscheint naheliegend und einfach. Zumal Unternehmen nicht minder beträchtlich in Menschen, Prozesse und Anwendungen investiert haben, die die lokale Dateninfrastruktur unterstützen.

Nun auch die manuelle Migration zu diesen reduzierten Kosten zu erwarten, ist allerdings ein Trugschluss und birgt unkalkulierbare Risiken für das IT-Budget. Denn der Aufwand für die unterbrechungs- und ausfallfreie Migration großer Datenmengen ist enorm. Wie hoch ist der Ressourcenbedarf für die Erstellung, Prüfung, Verwaltung, Planung und Wartung benutzerdefinierter Migrationsskripte? Aufgrund der individuellen Natur der manuellen Migrationen ist das Programm anfällig für Verzögerungen. Welche Ressourcen werden beispielsweise benötigt, wenn Übertragungen fehlschlagen oder unterbrochen werden? Welche Ressourcen werden benötigt, um Änderungen der Daten während der Migration zu berücksichtigen?

Live Migration ermöglicht dem IT-Team die automatisierte und skalierbare Migration – mit einem einzigen Scan des Quellspeichers und über alle wichtigen kommerziellen Hadoop-Distributionen hinweg in die Cloud –, selbst wenn sich die Daten weiterhin ändern. Sie erfordert keine Skripte, keine Code-Wartung, keine Übertragungsgeräte, keine Planung, keine Reviews. Führende Unternehmen wählen längst diesen bewährten Weg zu den Technologien, Kostenstrukturen und Analysemöglichkeiten der Cloud: Einfach per One-Click-Migration.

Manuelle Hadoop-Migration in die Cloud vermeiden

Für die Bereitstellung großer Datenmengen in hybriden, multiregionalen und Cloud-Umgebungen haben Unternehmen zwei Möglichkeiten:

1. Manuelle Migration. Doch diese birgt das Risiko, dass lokale Anwendungen gestört werden, und selbst ein groß angelegter Abgleich garantiert keine Datenkonsistenz. Darüber hinaus ist der erforderliche Overhead immens, für eine unterbrechungsfreie, ausfallfreie Big-Data-Migration aufgrund wiederholter Scans, nicht synchronisierter Systeme und manueller Eingriffe bei zu erwartenden Ausfällen und Unterbrechungen.

2. Live Migration. Diese automatisiert und skaliert die Migration kontinuierlich laufender lokaler Systeme in die Cloud. Da während der Migration weiterhin Änderungen im Ausgangssystem vorgenommen werden müssen, stellt die Live Migration sicher, dass alle beteiligten Systeme nach Fertigstellung über konsistente Daten verfügen. Darüber hinaus werden IT-Ressourcen per One-Click-Replikation und einem einzigen Scan des Quellspeichers über alle wichtigen kommerziellen Hadoop-Distributionen sowie Cloud-Speicher- und Analysedienste hinweg minimiert.

Mehr Details zur Live Migration und die Vorteile der Live-Data-Strategie für dein Unternehmen findest du in unserem aktuellen Whitepaper „Migrate your Data Lake to the Public Cloud without Zero-Disruption“.

Jetzt kostenlos herunterladen

 

Über die Autorin:
Rani Hublou ist Chief Marketing Officer bei 8×8, Inc. Sie hat umfangreiche Erfahrung in der erfolgreichen Umsetzung transformativer Markteinführungsstrategien für Technologieunternehmen, um neue Kategorien in wachstumsstarken Märkten zu schaffen.