Azure Native Qumulo jetzt in der EU, im Vereinigten Königreich und in Kanada verfügbar – Erfahren Sie mehr

KI/ML überall mit Scale Anywhere™

AI-ML-Blog

Sie stecken mitten in der Planung Ihrer nächsten KI/ML-Lösung. Haben Sie sich für alle Ihre Speicherentscheidungen entschieden? Lokal oder in der Cloud? Objekt versus Datei? Wo werden Sie Ihre KI/ML-Lösungen betreiben?

Bevor ich anfange, muss ich übrigens noch etwas loswerden. Ich hasse den Begriff künstliche Intelligenz. Im Ernst, KI ist weniger intelligent als ein Türknauf! Es ist nur Mathematik, Statistiken mit einfach gigantischen Datenmengen, die stündlich auf mehr Recheneinheiten ausgeführt werden, als es noch vor wenigen Jahrzehnten auf der ganzen Welt gab.

Hier ist ein toller Artikel darüber Was passiert WIRKLICH hinter den Kulissen bei ChatGPT?. Ich hasse den Begriff KI so sehr, dass ich für diesen Beitrag ML verwenden werde.

Okay, weg von meiner Seifenkiste. Lassen Sie uns darüber sprechen, warum Speicher für KI – ich meine ML – so wichtig ist …

Bei ML dreht sich alles um Daten. Man muss es nur finden!

Die Daten, die ML-Workloads antreiben, sind überall. Ebenso besteht der Bedarf an ML-Lösungen. Einige Beispiele (alle abgeleitet aus den realen Arbeitsabläufen unserer Kunden):

  • Fabriken. Überall angebrachte Kameras erfassen alle Arten von Informationen in automatisierten Fertigungsabläufen in Echtzeit. All dies wird kontinuierlich im lokalen Speicher aggregiert.

Daten aus jeder Fertigungslinie werden zentralisiert (Cloud oder vor Ort) und dienen als Quelle für Trainingsmodelle zur Automatisierung der Fehlererkennung. ML-Lösungen in jeder Fabrik, dann die daraus resultierenden Inferenzmodelle zur Verbesserung der Erträge.

Übrigens haben wir Kunden, die Qumulo genau in diesem Workflow nutzen!

  • Selbstfahrende Fahrzeuge. Hochauflösende Multispektrum-Videos der realen Welt werden kontinuierlich aufgenommen, zunächst von Hunderten von Testfahrzeugen, dann von Tausenden von Versuchsfahrzeugen und schließlich von Millionen von regulären Fahrzeugen.

Das Auto sendet diese Videos über Ihr WLAN (Tesla, ich schaue Sie an!) zurück an das Mutterschiff. Bei den oben genannten Daten handelt es sich um die Quelldaten für das Training der Modelle, um Fahrer zu unterstützen, den Autopiloten zu aktivieren und selbstfahrende Autos Wirklichkeit werden zu lassen.

Daraus abgeleitete Inferenzmodelle werden von Inferenz-Engines in den Autos ausgeführt, um Echtzeitdaten zu verarbeiten.

Und ja, wir haben auch Kunden, die Qumulo in diesem Workflow verwenden!

  • ML-unterstützte Sicherheit: Hunderttausende Netzwerkgeräte generieren Aktivitätsprotokolle, die lokal konsolidiert und aggregiert werden (entweder in der Cloud, vor Ort oder in beiden). Dies bildet den Trainingsdatensatz für Modelle zur Erkennung unbefugter Netzwerkeingriffe.

Moderne Netzwerkgeräte nutzen diese Inferenzmodelle, um in Echtzeit beobachtete Ereignisse zu analysieren und so unbefugte Eingriffe zu erkennen.

Sie haben es erraten, wir haben Kunden, die das heute tun!

Können Sie den roten Faden erkennen? Dabei handelt es sich um einen „Überall“-Workflow, vom Rand des Netzwerks bis zum Kern und in öffentlichen Clouds.

Entscheidungen, Entscheidungen, Entscheidungen

Was ist mit der ML-Lösung? U arbeiten daran? Wie bei diesen Anwendungsfällen müssen Sie eine Reihe wichtiger Entscheidungen darüber treffen, wo und wie Sie Ihre Modelle erstellen. Lassen Sie mich erklären …

  • Edge, Core oder Cloud? Wo werden Ihre Daten gespeichert? Wo wird das Model wohnen? Wo wird die Lösung leben? Die Cloud-Leute bestehen darauf, dass es sich um die Cloud handelt (und immer dort sein wird). Und ja, sie sind voreingenommen, aber sie machen auch einen guten Standpunkt.

Welche Organisation kann schließlich mit der Infrastruktur Schritt halten, die für die Operationalisierung von LLM-Schulungen erforderlich ist, wenn sich praktisch der gesamte Stack wöchentlich ändert? Ich habe mit vielen Organisationen gesprochen, die sagen, ML sei der letzte Tropfen, der das Fass zum Überlaufen bringt, wenn es um die Debatte zwischen interner Cloud und lokaler Lösung geht.

Aber bevor wir sagen: „Das Spiel ist vorbei“, hier ein interessanter Trend. Ich spreche mit vielen Kunden, die Hunderte Millionen Dollar ausgeben Jedes Quartal in der Cloud und die ihre stabilen Arbeitslasten zurück in die lokale Umgebung verlagern. Warum? Sie spüren das für eine reifen Die ML-Lösung vor Ort bietet eine stabilere und kostenoptimierte Lösung.

Mit anderen Worten: Schnelles Experimentieren und frühe Operationalisierung finden in der Cloud statt, während ausgereifte ML-Lösungen in eigenen und betriebenen Rechenzentren mehr Stabilität und bessere Wirtschaftlichkeit genießen. Aber das ist nur eine Möglichkeit …

  • Objekt vs. Datei? Bevor Sie antworten, denken Sie darüber nach. Die Cloud handhabt die Objektspeicherung sehr gut, ist aber bei Dateidaten schlecht. Und On-Premises verarbeitet Dateidaten wirklich gut, ist aber objektiv schlecht. Und wir haben gerade besprochen, dass Sie wahrscheinlich sowohl eine Cloud- als auch eine lokale Lösung benötigen. Was ist besser für ML? Also es ist kompliziert.

Einerseits sind die meisten LLMs Open Source und erwarten den Zugriff auf Daten über eine lokale Speicherschnittstelle. Das ist ein Problem für die Cloud, wo Sie maßgeschneiderte Datenlader erstellen müssen, die Daten vom Objekt auf die lokale Festplatte (instanzgebundene NVMe oder EBS/verwaltete Festplatten) kopieren, bevor diese datenhungrigen GPUs gespeist werden können. Schauen Sie, was Google GCP sagt dazu:

„Aber wenn es an der Zeit ist, dass ein KI-Workload tatsächlich auf [KI-]Daten zugreift, ist das nicht immer einfach, da die meisten KI-Workloads Dateisystemsemantik erfordern und nicht die Objektsemantik, die Cloud Storage bietet.“

Was ist zu tun?

So viele Fragen! Lokal oder in der Cloud für Ihre KI-/ML-Workloads? Datei oder Objekt als Repository der Daten, die Ihren LLMs zugrunde liegen? Wie können Sie Daten von verschiedenen Standorten aggregieren und über den gesamten Lebenszyklus hinweg verwalten? Die Entscheidungen, die Sie treffen, wirken sich darauf aus, welche Speicherlösung für Sie am besten geeignet ist – Dell, VAST, NetApp.

Oder … tun sie?

Wir stellen Scale Anywhere™ von Qumulo vor, eine zu 100 % softwarebasierte Lösung zur Speicherung und Verwaltung unstrukturierter Daten. Benötigen Sie eine zentrale Rechenzentrumslösung? Öffentliche Cloud? Überprüfen. Datei? Überprüfen. Objekt? Überprüfen. Treffen Sie die ML-Entscheidungen, die Sie wollen – wir einfach ist mir egal. Qumulo läuft überall dort, wo Sie uns brauchen.

Wir haben Kunden, die mehrere lokale Speicherserver-Hardwareplattformen und mehrere öffentliche Clouds umfassen. Das Schöne ist, dass ihre Qumulo-basierten unstrukturierten Daten-Workloads über diese hinweg vereinheitlicht sind.

Ich stehe ständig vor Kunden und bekomme dazu viel positives Feedback. Das ist für mich im Vergleich zu anderen Unternehmen, bei denen ich gearbeitet habe, etwas Neues, aber ich habe mich schnell daran gewöhnt!

Treffen Sie ML-Entscheidungen mit Qumulos Scale Anywhere™.

Die Implementierung von ML erfordert viele schwierige Entscheidungen. Aber welche Speicherplattform verwendet werden soll, gehört nicht dazu. Probieren Sie Scale Anywhere™ mit Qumulo aus und Sie können alle Ihre ML-Workloads verwalten, unabhängig von den Entscheidungen, die Sie treffen …

  • Edge, Core oder Cloud
  • Datei oder Objekt
  • Zur Erfassung, Aggregation und Kuratierung von Trainingsdaten
  • Oder … damit Sie Ihre Inferenzmodelle an Ihren verteilten Rand übertragen können

Qumulo ist Ihre einfachste ML-Wahl.

Verwandte Artikel

Nach oben scrollen