Suchen
Schließen Sie dieses Suchfeld.

Scale Anywhere™ ohne jemals wieder zu migrieren

Geschrieben von:

Vor etwas mehr als einem Jahrzehnt schien es eine große Sache zu sein, einen 100-Terabyte-Cluster aufzubauen. Und das war damals auch so, wenn man bedenkt, was damals nötig war, um so viel Speicherplatz zu verwalten. Heutzutage könnten sich 100 Terabyte wie ein Tropfen auf den heißen Stein anfühlen. Viele von Ihnen arbeiten jetzt im Multi-Petabyte-Bereich und möchten Ihre Bereitstellungen zunehmend nicht nur in Ihren Kernrechenzentren, sondern auch in mehreren Clouds und am Edge erweitern. Da neue Innovationen schneller auf den Markt kommen, als Sie planen können, und ständig neue Daten auf Sie zukommen, kann es manchmal entmutigend sein, einfach nur zu versuchen, Schritt zu halten.

Neue Apps, Workloads und Betriebsmodelle bringen Ihre Daten wahrscheinlich in größerem Umfang in neue Umgebungen. Das Bereitstellen, Skalieren und Verschieben von Daten muss jetzt in jeder Umgebung, für jeden Arbeitsablauf und von jedem Gerät aus einfach möglich sein. Denn was nützen all diese neuen Innovationen, wenn Sie zu sehr mit der Brandbekämpfung beschäftigt sind, um sie überhaupt zu nutzen? Dafür sind wir hier.

Aktualisieren Sie die Hardware ohne Migration

Eine unserer neuesten Funktionen könnte Ihnen dabei helfen, aufatmen zu können. Verabschieden Sie sich von den mühsamen, langwierigen und teuren Lift-and-Shift-Migrationen, die mit jeder neuen Hardware-Aktualisierung einhergehen. Mit der neuen Transparent Platform Refresh (TPR)-Funktion von Qumulo können Sie jetzt alte Hardware gegen neue austauschen, ohne dass Ihre Endbenutzer es überhaupt bemerken. Jetzt können Sie diese End-of-Life-Knoten endlich außer Betrieb nehmen und Ihre Plattform mit glänzender neuer Hardware auffrischen, ohne sich die Mühe einer Datenmigration machen zu müssen.

Plattformaktualisierungen mit Qumulo sind jetzt so einfach wie: Plan festlegen, neue Knoten hinzufügen, alte Knoten entfernen und fertig! Ihre Daten „gleiten“ mühelos auf Ihre neuen Geräte. Sie können wählen, ob Sie alle Ihre Knoten auf einmal oder einige auf einmal aktualisieren möchten. Sie können auch zwischen Knoten unterschiedlicher Leistungsklassen und verschiedener Anbieter wechseln, um auf aktuelle Änderungen der Workload-Leistung oder der Anforderungen an die Datendichte zu reagieren. Dieser gesamte Vorgang ist für Ihre Endbenutzer unbemerkt, sodass Sie keine Ausfallzeiten einplanen oder Ihr Wochenende für das Projekt opfern müssen.

Gewinnen Sie Speicherplatz frei, während Sie skalieren

Eine weitere Funktion, die wir kürzlich veröffentlicht haben, wird Ihnen helfen, Ihre Speicherinvestitionen noch weiter zu maximieren, indem sie Ihnen dabei hilft, nutzbaren Speicherplatz zurückzugewinnen, wenn Sie weitere Knoten hinzufügen. Während Qumulo es immer verwendet hat Löschen Verschlüsselung Um Ihre Daten vor Festplatten- oder Knotenausfällen zu schützen, konnten Sie die vorhandenen EC-Einstellungen Ihres Clusters bisher nicht anpassen, wenn die Kapazität zunahm. Mit unserer neuen Adaptive Data Protection (ADP)-Funktion können Sie Ihre EC-Einstellungen so anpassen, dass sie platzsparender sind, wenn Sie die Kapazität Ihres Clusters erweitern. Dies ist besonders für Kunden von Vorteil, deren Bereitstellungen klein angefangen haben und im Laufe der Zeit erheblich gewachsen sind.

Im obigen Beispiel hat der Kunde möglicherweise mit einer kleinen Bereitstellung begonnen, mit nur einer begrenzten Anzahl von Knoten, über die er seinen Erasure-Coding-Stripe verteilen konnte. Bei dem Verhältnis der Paritätsblöcke, das zur Aufrechterhaltung der Fehlertoleranz für diesen Cluster erforderlich ist, stehen ihnen nur noch 66 % ihres Gesamtspeichers als nutzbarer Speicherplatz zur Verfügung. Nachdem sein Cluster im Laufe der Zeit gewachsen war, konnte dieser Kunde nun unsere ADP-Funktion nutzen, um seine EC-Konfiguration an ein neues, effizienteres Verhältnis anzupassen. Der Cluster wäre weiterhin vor mehreren gleichzeitigen Festplatten- oder Knotenausfällen geschützt und der Kunde hätte die nutzbare Kapazität seines Clusters effektiv um 21 % erweitert!

Jetzt zertifiziert für die Ausführung auf dem hochleistungsfähigen Datenspeicherserver HPE Alletra 4110

Höhere Effizienz und ein einfacherer Hardware-Aktualisierungsprozess sind jedoch nicht die einzigen neuen Funktionen, die wir ankündigen. Wenn Sie auf der Suche nach skalierbarem, leistungsstarkem Speicher für Ihre anspruchsvollsten Arbeitslasten sind, können Sie jetzt die All-Flash-Lösung verwenden. HPE Alletra 4110 Datenspeicherserver. Der HPE Alletra 4110 Datenspeicherserver wurde speziell für die Bewältigung anspruchsvollster Arbeitslasten wie KI/ML entwickelt und bietet Ihnen die perfekte Balance aus Geschwindigkeit, Platzeffizienz und Sicherheit, um den vollen Wert Ihrer Daten bei minimaler Komplexität und minimalem Verwaltungsaufwand auszuschöpfen Overhead. 

Der HPE Alletra 4110 Datenspeicherserver ist das erste von uns zertifizierte Produkt, das den Enterprise and Data Center Standard Form Factor (EDSFF) nutzt, den neuesten NVMe-Formfaktor, der außerdem eine höhere Datendichte und thermische Effizienz bietet. Dies hilft Ihnen, die Stellfläche Ihres Rechenzentrums zu optimieren und Ihre Speicherinvestitionen zukunftssicher zu machen, während gleichzeitig die Anforderungen Ihrer Hochleistungs-Workloads heute erfüllt werden.

Ihr vorhandener Cluster verfügt nicht mehr über genügend Headroom? Kontaktieren Sie uns Um zu sehen, ob nutzbarer Speicher vorhanden ist, können Sie diesen freischalten, indem Sie einfach einen neuen Knoten hinzufügen.

Verwandte Artikel

Nach oben scrollen