Suchen
Schließen Sie dieses Suchfeld.

Einfach überall skalieren

Geschrieben von:

Bis vor kurzem wurde die Weltwirtschaft hauptsächlich von fossilen Brennstoffen angetrieben. In den letzten 80 Jahren ist eine globale Infrastruktur entstanden, die die Förderung, den Transport und die Raffination von Öl ermöglicht. Heute übernimmt ein neues „Öl“ die Führung beim Antrieb unserer globalen Wirtschaft – Daten. Und genau wie Öl wächst die Infrastruktur zum Extrahieren, Verschieben und Transformieren dieser Daten schneller als je zuvor.

Was als Rohdaten beginnt, muss wie Öl gesammelt, verarbeitet und transformiert werden, um für ein Unternehmen wertvoll zu werden. Wie beim Öl kann ein Großteil dieses Wertes nur realisiert werden, wenn Daten verschoben werden können: von IoT- und Edge-Geräten wie CT-Scannern und autonomen Fahrzeugen über lokale Legacy-Workflows und Data Lakes bis hin zu KI-Engines und Transcoding-Apps in der Cloud. 

In den letzten zwei Jahrzehnten haben neue Anwendungsfälle, die auf Daten angewiesen sind, weiter zugenommen, was sowohl einen Trend als auch eine Herausforderung für uns Speicherexperten vorangetrieben hat – das exponentielle Datenwachstum. Auf lokaler Ebene verfügt eine Organisation, die 10 2002 TB an Dateidaten besaß und verwaltete, jetzt möglicherweise über 10 PB. Das ist buchstäblich 1,000x mehr als vor 20 Jahren!

Mit all diesem Wachstum an unstrukturierten Daten gehen eine Reihe damit verbundener Herausforderungen einher, von denen die meisten vor 10 Jahren noch nicht einmal auf dem Radar waren: 

  • Heutzutage müssen Daten nicht nur gespeichert, sondern auch analysiert, überwacht und priorisiert werden
  • Es muss von den richtigen Personen gesehen, für die richtigen Workflows zugänglich gemacht und an die richtigen Ziele geliefert werden – zuverlässig und pünktlich, insbesondere in großem Umfang
  • Heutige Daten müssen aufbewahrt werden, manchmal über Jahre und manchmal auf unbestimmte Zeit, während sie auf Exabyte-Größe und mehr anwachsen

Und das ist nicht alles, was sich in den letzten 20 Jahren geändert hat. In der modernen Wirtschaft sind Organisationen aller Art zunehmend auf entfernte und ausländische Arbeitskräfte angewiesen, die einen Datenzugriff mit geringer Latenzzeit benötigen. Sogar Organisationen mit nur einem Standort können eine globale Reichweite haben, wenn Daten dorthin verschoben werden müssen, wo sich die Belegschaft befindet. An der Heimatfront drängen Rechenzentrumsbeschränkungen sogar Legacy-Workloads in die Cloud. Und während die Cloud unbegrenzte Leistung und Kapazität verspricht, liegt es an Ihnen, herauszufinden, wie Sie all diese neuen und wertvollen Daten hinein- und herausbekommen, bevor Sie dieses Versprechen einlösen können. 

Schlimmer kann es nicht werden, oder?? Natürlich kann es das: Die meisten Cloud-Speicheroptionen beinhalten keine native Unterstützung für dateibasierte Apps und Workflows, und wenn doch, sind sie proprietär für eine einzelne Cloud-Plattform. Die meisten dieser Plattformen lassen sich nicht auf die Kapazität skalieren, die Ihre Apps benötigen, und lassen sich wahrscheinlich nicht einfach in Ihren lokalen Speicher integrieren. Wenn Sie Legacy-Apps in der Cloud ausführen müssen, bereiten Sie sich darauf vor, diese Anwendungen mühsam und teuer umzuschreiben. 

Mehr Daten, mehr Probleme

Nur die Speicherkapazität skalieren zu können, reicht nicht mehr aus. Daten haben sich geändert, Ihre Umgebung hat sich geändert, Ihre Apps haben sich geändert und Ihre Belegschaft hat sich geändert. Bei all den Problemen, die mit riesigen Datenmengen einhergehen, löst das Hinzufügen von mehr Kapazität nur eines davon.

Wie die Infrastruktur für die Raffination von Öl brauchen wir jetzt eine datenorientierte Infrastruktur, um sie zu sammeln, zu speichern, zu transportieren, umzuwandeln und zu archivieren.

Was wäre, wenn Sie alles bekommen könnten, was Sie brauchen, ohne Kompromisse? Was wäre, wenn Sie eine einzige Speicherlösung bereitstellen könnten, die Ihnen neben unbegrenzter Skalierbarkeit auch Folgendes ermöglicht:

  • Stellen Sie es überall bereit? In der heutigen Umgebung benötigen Sie möglicherweise umfassende Datendienste auf Hardware in Ihrem Rechenzentrum, auf Edge-basierten VMs und in allen öffentlichen Clouds: AWS, Azure und/oder GCP.
  • Wählen Sie Ihren Hardwareanbieter und Ihr Modell für lokale Bereitstellungen aus? Nicht alle Workloads werden gleichermaßen erstellt. Sie benötigen die Flexibilität, Hardware von Ihrem bevorzugten Anbieter zu verwenden, und Sie möchten Ihr System an die spezifischen Leistungs- und Kapazitätsanforderungen Ihrer Workloads anpassen.
  • Verschieben Sie Ihre Daten von überall an einen anderen Ort? Modernes Data Lifecycle Management erfordert auch Datenmobilität: vom Rand zum Kern, vom Kern zur Cloud; manchmal zwischen Datei- und Objektspeicher.
  • Stellen Sie Ihre Daten für jede Art von Client und Workload zur Verfügung? Für Unternehmen mit gemischten Datei- und Objekt-Workloads kann die Möglichkeit, Daten über alle Workloads und Clients hinweg – NFS, SMB und S3 – gemeinsam zu nutzen, entscheidend für die Maximierung des Werts sein.
  • Verwenden Sie ein einziges Runbook, um die Verwaltung von lokalen und cloudbasierten Instanzen zu automatisieren? Jede Bereitstellung sollte überall dieselben Funktionen und dieselbe API-Bibliothek enthalten, damit Sie Ihre Skripts nicht ändern oder Ihre kritischen Funktionen aufgeben müssen.

Was wäre, wenn Sie die Skalierbarkeit hätten, um so groß zu werden, wie Sie es brauchen? die Flexibilität zur Bereitstellung vor Ort oder in einer beliebigen öffentlichen Cloud; die Möglichkeit, beliebige Datenmengen an beliebiger Stelle auf jeder Zeitachse zu platzieren; und die Vielseitigkeit, Datei- und Objektdienste für jede Workload bereitzustellen? 

Das hättest du getan Qumulo

Skalieren Sie überall – zu Ihren Bedingungen

Speziell für die Anforderungen heutiger Daten und Anwendungen entwickelt, bietet nur Qumulo die Flexibilität, die moderne Unternehmen benötigen: jede Größe, jeder Workflow; jeder Ort. Nur Qumulo bietet die gleichen unstrukturierten Datendienste in der Cloud und am Rand wie vor Ort: eine leistungsstarke hardware- und plattformunabhängige Lösung, die in der Lage ist, riesige Datenmengen einfach und zuverlässig zu speichern und zu verschieben, egal ob in Ihrem Rechenzentrum , auf AWS, Azure, GCP oder in Ihrer Edge-Umgebung.

Und jetzt mit unserem Scale Anywhere-Version In diesem Monat fügt Qumulo unserer Lösung neue Funktionen hinzu, die es Ihnen ermöglichen, die Leistungsfähigkeit und den Wert Ihrer Daten zu nutzen, während sie wachsen, sich bewegen und transformieren:

  • Während wir Ihnen schon immer eine Auswahl an Anbieterhardware für Ihre On-Prem-Workflows angeboten haben, geben wir Ihnen mehr Optionen, um Ihre Anforderungen zu erfüllen. Sie können All-Flash-Knoten für leistungsintensive Workloads oder Hybrid-Flash-and-Disk-Knoten für datenintensive Workloads verwenden. Jetzt fügen wir neue NVMe-basierte Hybridknoten von HPE, Supermicro und Arrow hinzu, von denen jeder die Leistung von Flash zum Preis einer Festplatte bietet.
  • Wir geben Ihnen auch die Möglichkeit, Ihre On-Prem-Bereitstellungen auf völlig neue Ebenen zu skalieren, mit Unterstützung für jetzt mehr als 200 Knoten in einem einzigen Qumulo-Cluster. Mit Dichten von fast 500 TB in den heutigen Node-Familien ist die Skalierung auf fast 100 PB in einem einzigen Namespace jetzt möglich. 
  • Sie werden auch mehr Funktionen und Möglichkeiten sehen, um Ihre Daten effektiver zu nutzen, mit der Hinzufügung von S3-Unterstützung als Standardprotokoll auf allen Clustern. Wir haben schon immer Multiprotokollzugriff auf Ihre Daten angeboten, und jetzt bieten wir S3 als Teil dieses Pakets an. Sie können dieselben Daten nahtlos für Ihre datei- und objektbasierten Clients und Anwendungen freigeben.

Für SMB-Kunden fügen wir unserem Protokoll-Stack zwei neue Funktionen hinzu, die eine verbesserte Leistung und eine effektivere Datentransparenz in großen Umgebungen bieten:

  • SMB Change Notify ermöglicht es SMB-Clients, Änderungen im Dateisystem effektiver zu erkennen und anzuzeigen. Beispielsweise werden neue und geänderte Dateien automatisch im Windows-Datei-Explorer und in den Windows-Suchfunktionen angezeigt, und Clients können jetzt bestimmte Ordner und aufnahmebasierte Workloads überwachen, um Datenänderungen einfach zu erkennen.
  • Mit SMB Multichannel können Multi-NIC-Clients alle verfügbaren Netzwerkpfade für SMB-Daten nutzen – entweder für zusätzliche Bandbreite oder um Fehlertoleranz im Falle eines Ausfalls auf dem primären Pfad hinzuzufügen. Diese Funktion ermöglicht die native 8K-Videobearbeitung auf AWS-basierten Qumulo-Instances und liefert eine bessere Leistung für PACS-Workloads im Gesundheitswesen.

Qumulos 100 % softwaredefinierte Datenplattform bietet Ihnen Skalierbarkeit und mehr Auswahl und Flexibilität als jedes andere Dateisystem, wenn es darum geht, wie und wo Sie Ihre Daten verwalten.

Moderne Probleme erfordern moderne Lösungen

Nur mit Qumulo können Unternehmen von heute das Datenwachstum bewältigen, sicherstellen, dass Leistungsziele erreicht werden, und sicherstellen, dass kritische Daten überall auf der Welt planmäßig bereitgestellt werden. Und selbst in den heutigen komplexen Betriebsumgebungen ist nur Qumulo so einfach, dass ein einziger Speicheradministrator mühelos Petabytes an Daten in mehreren Umgebungen verwalten kann.

Mit Qumulo können Sie Ihre Daten in praktisch jeder Größenordnung und in jeder Umgebung ohne Kompromisse oder zusätzliche Komplexität speichern, verwalten und transformieren. Unter allen Dateidatenlösungen für Unternehmen bietet Ihnen nur Qumulo die Skalierung, die Sie benötigen, auf jeder gewünschten Hardware und Cloud-Plattform – zusammen mit der Datenmobilität, um dies alles zu ermöglichen – ohne Einbußen bei Funktionalität, Einfachheit oder Wert.

Erfahren Sie mehr über unsere Scale Anywhere-Plattform.

 

Bereit, Qumulo auszuprobieren?

Verwandte Artikel

Nach oben scrollen