Zephyrnet-Logo

Feature-Store-Repositorys sind ein MLOps-Dreh- und Angelpunkt für die Weiterentwicklung der KI

Datum:

Ein Kampf um die Kontrolle über maschinelle Lernvorgänge (MLOps) beginnt ernsthaft, wenn sich Unternehmen dafür einsetzen Feature Store Repositorys, um KI-Modelle effizienter zu erstellen.

Ein Feature-Store ist im Kern ein Data Warehouse, über das Entwickler von KI-Modellen die Artefakte, aus denen ein KI-Modell besteht, sowie ein gesamtes KI-Modell, das möglicherweise geändert oder erweitert werden muss, gemeinsam nutzen und wiederverwenden können. Im Konzept spielen Feature-Store-Repositorys eine ähnliche Rolle wie ein Git-Repository, damit Entwickler Anwendungen effizienter erstellen können, indem sie Code gemeinsam nutzen und wiederverwenden.

Zu den frühen Pionieren von Feature-Store-Repositories zählen Uber, das eine Plattform namens Michaelangelo baute, und Airbnb, das einen Feature-Store namens Zipline erstellte. Keine dieser Plattformen ist jedoch als Open Source Code verfügbar. Zu den führenden Anbietern von Feature-Store-Repositorys, die versuchen, diese Lücke zu schließen, gehören Tecton, Molecula, Hopsworks, Splice Machine und zuletzt Amazon Web Services (AWS). Es gibt auch ein Open-Source-Feature-Store-Projekt namens Feast, das zu den Mitwirkenden Google und Tecton zählt.

Es kann sechs Monate oder länger dauern, bis ein Data-Science-Team ein einzelnes KI-Modell erstellt hat. Daher steigt der Druck, diese Prozesse zu beschleunigen. Unternehmen, die KI-Modelle verwenden, möchten nicht nur mehr davon schneller erstellen, sondern KI-Modelle, die in Produktionsumgebungen bereitgestellt werden, müssen auch regelmäßig aktualisiert oder ersetzt werden, wenn sich die Geschäftsbedingungen ändern.

Derzeit ist jedoch weniger klar, inwieweit Feature-Store-Repositorys eine eigenständige Kategorie darstellen und kein grundlegendes Element einer größeren MLOps-Plattform sind. Während das Investitionskapital in die Kategorie fließt, versuchen Anbieter von Feature-Store-Plattformen, es in beide Richtungen zu nutzen.

Splice Machine bietet beispielsweise eine SQL-basierte Feature-Store-Plattform, die Unternehmen neben ihrer Plattform für die Verwaltung datenwissenschaftlicher Prozesse bereitstellen können. "Es ist wichtig, den Feature Store zu modularisieren, damit er in anderen Umgebungen verwendet werden kann", sagte Monte Zweben, CEO von Splice Machine. "Ich denke, Sie werden sehen, dass Feature-Stores auf beide Arten eingeführt werden."

Im Laufe der Zeit wird sich jedoch herausstellen, dass Feature-Stores auf die eine oder andere Weise Teil einer größeren Plattform sein müssen, um den größtmöglichen Nutzen zu erzielen, fügte er hinzu.

Frisch aus zusätzliche Mittel in Höhe von 17.6 Mio. USD aufbringenMolecula positioniert seinen Feature-Store nicht nur als eigenständiges Angebot, sondern auch als Grundlage für die MLOps-Prozesse. Tatsächlich setzt Molecula darauf, dass Feature-Stores nicht nur die effizientere Erstellung von KI-Modellen ermöglichen, sondern auch für die Erstellung fortschrittlicher Analyseanwendungen jeglicher Art von entscheidender Bedeutung sind, sagte HO Maycotte, CEO von Molecula.

Um dieses Ziel zu erreichen, baute Molecula eine eigene Speicherarchitektur auf, um alle manuellen Copy-and-Paste-Prozesse zu eliminieren, die das Erstellen von KI-Modellen und anderen Arten fortschrittlicher Analyseanwendungen heute so umständlich machen. "Es ist nicht nur für MLOps", sagte Maycotte. "Unser Käufer ist der Dateningenieur."

Tecton scheint sich mehr darauf zu konzentrieren, die Schaffung eines erstklassigen MLOps-Ökosystems rund um seine Flaggenplattform für Kernfunktionen zu ermöglichen. "Feature Stores werden im Zentrum einer MLOps-Toolchain stehen", sagte Mike Del Balso, CEO von Tecton.

Allerdings werfen Cloud-Dienstanbieter, die Feature-Store-Repositorys als Dienst zur Verfügung stellen, einen Schatten auf jeden dieser Anbieter. Die meisten KI-Modelle werden aufgrund der enormen Datenmengen und der Kosten für die erforderlichen Grafikprozessoreinheiten (GPUs) in einer öffentlichen Cloud trainiert. Das Hinzufügen eines Feature-Store-Repositorys zu einem Cloud-Service, der bereits zum Erstellen eines AI-Modells verwendet wird, ist lediglich eine logische Erweiterung.

Anbieter von Feature-Store-Plattformen behaupten jedoch, dass es nur eine Frage der Zeit ist, bis MLOps-Prozesse mehrere Clouds umfassen. Viele Unternehmens-IT-Organisationen werden ein Feature-Store-Repository standardisieren, das die gemeinsame Nutzung von KI-Modellen und ihren Komponenten über mehrere Clouds hinweg vereinfacht.

Unabhängig davon, wie sich MLOps entwickelt, ist die Notwendigkeit eines zentralen Repositorys zum Erstellen von KI-Modellen offensichtlich geworden. Das Problem, mit dem sich IT-Unternehmen in Unternehmen jetzt befassen müssen, besteht darin, zu bestimmen, welcher Ansatz heute am sinnvollsten ist, da jede Feature-Store-Plattform, die sie jetzt auswählen, in den kommenden Jahren einen großen Einfluss auf ihre KI-Strategie haben wird.

VentureBeat

Die Mission von VentureBeat ist es, ein digitaler Stadtplatz für technische Entscheidungsträger zu sein, um Wissen über transformative Technologie und Transaktionen zu erlangen. Unsere Website bietet wichtige Informationen zu Datentechnologien und -strategien, die Sie bei der Führung Ihres Unternehmens unterstützen. Wir laden Sie ein, Mitglied unserer Community zu werden und auf Folgendes zuzugreifen:

  • aktuelle Informationen zu den für Sie interessanten Themen
  • unsere Newsletter
  • gated Vordenker-Inhalte und ermäßigter Zugang zu unseren wertvollen Veranstaltungen wie Transform
  • Netzwerkfunktionen und mehr

Mitglied werden

Quelle: https://venturebeat.com/2021/01/15/feature-store-repositories-emerge-as-an-mlops-linchpin-for-advancing-ai/

spot_img

Neueste Intelligenz

spot_img

Chat mit uns

Hallo! Wie kann ich dir helfen?