Zephyrnet-Logo

Das Versprechen von Edge AI und Ansätze für eine effektive Einführung – KDnuggets

Datum:

Das Versprechen von Edge AI und Ansätze für eine effektive Einführung
Bild vom Herausgeber
 

Die aktuelle Technologielandschaft erlebt einen entscheidenden Wandel hin zu Edge Computing, der durch schnelle Fortschritte bei generativer KI (GenAI) und traditionellen KI-Workloads vorangetrieben wird. Diese KI-Workloads, die in der Vergangenheit auf Cloud Computing angewiesen waren, stoßen nun an die Grenzen cloudbasierter KI, einschließlich Bedenken hinsichtlich der Datensicherheit, Souveränität und Netzwerkkonnektivität.

Um diese Einschränkungen der cloudbasierten KI zu umgehen, möchten Unternehmen Edge Computing nutzen. Die Fähigkeit von Edge Computing, Echtzeitanalysen und -reaktionen an der Stelle zu ermöglichen, an der Daten erstellt und verbraucht werden, ist der Grund, warum Unternehmen es als entscheidend für KI-Innovation und Geschäftswachstum betrachten.

Mit ihrem Versprechen einer schnelleren Verarbeitung mit null bis minimaler Latenz kann Edge AI neue Anwendungen dramatisch verändern. Obwohl die Computing-Fähigkeiten von Edge-Geräten immer besser werden, gibt es immer noch Einschränkungen, die die Implementierung hochpräziser KI-Modelle erschweren können. Technologien und Ansätze wie Modellquantisierung, Nachahmungslernen, verteilte Inferenzierung und verteiltes Datenmanagement können dazu beitragen, die Hindernisse für effizientere und kostengünstigere Edge-KI-Bereitstellungen zu beseitigen, damit Unternehmen ihr wahres Potenzial ausschöpfen können. 

KI-Inferenzen in der Cloud werden häufig durch Latenzprobleme beeinträchtigt, die zu Verzögerungen bei der Datenbewegung zwischen Geräten und Cloud-Umgebungen führen. Unternehmen sind sich der Kosten bewusst, die mit dem Verschieben von Daten über Regionen hinweg, in die Cloud und zwischen der Cloud und dem Edge verbunden sind. Es kann Anwendungen behindern, die extrem schnelle Echtzeitreaktionen erfordern, wie z. B. Finanztransaktionen oder industrielle Sicherheitssysteme. Wenn Unternehmen außerdem KI-gestützte Anwendungen an entfernten Standorten ausführen müssen, an denen die Netzwerkkonnektivität unzuverlässig ist, ist die Cloud nicht immer in Reichweite. 

Die Grenzen einer „nur Cloud“-KI-Strategie werden immer offensichtlicher, insbesondere für KI-gestützte Anwendungen der nächsten Generation, die schnelle Reaktionen in Echtzeit erfordern. Probleme wie Netzwerklatenz können die Erkenntnisse und Überlegungen, die an die Anwendung in der Cloud übermittelt werden können, verlangsamen, was zu Verzögerungen und erhöhten Kosten im Zusammenhang mit der Datenübertragung zwischen der Cloud und Edge-Umgebungen führt. Dies ist besonders problematisch für Echtzeitanwendungen, insbesondere in abgelegenen Gebieten mit zeitweiliger Netzwerkkonnektivität. Da KI bei der Entscheidungsfindung und Argumentation eine zentrale Rolle spielt, kann die physikalische Übertragung von Daten äußerst kostspielig sein und sich negativ auf die Geschäftsergebnisse auswirken. 

Gartner prognostiziert, dass bis 55 mehr als 2025 % aller Datenanalysen durch tiefe neuronale Netze am Erfassungspunkt in einem Edge-System erfolgen werden, gegenüber weniger als 10 % im Jahr 2021. Edge Computing trägt dazu bei, Latenz, Skalierbarkeit, Datensicherheit, Konnektivität und mehr zu verringern Es stellt uns vor größere Herausforderungen, verändert die Art und Weise, wie mit der Datenverarbeitung umgegangen wird, und beschleunigt damit wiederum die Einführung von KI. Die Entwicklung von Anwendungen mit einem Offline-First-Ansatz wird für den Erfolg agiler Anwendungen von entscheidender Bedeutung sein.

Mit einer effektiven Edge-Strategie können Unternehmen den Nutzen ihrer Anwendungen steigern und Geschäftsentscheidungen schneller treffen.

Da KI-Modelle immer ausgefeilter und Anwendungsarchitekturen immer komplexer werden, wird die Herausforderung, diese Modelle auf Edge-Geräten mit Recheneinschränkungen bereitzustellen, immer größer. Fortschritte in der Technologie und sich weiterentwickelnde Methoden ebnen jedoch den Weg für die effiziente Integration leistungsstarker KI-Modelle in das Edge-Computing-Framework, das von Folgendem reicht: 

Modellkomprimierung und Quantisierung

Techniken wie Modellbereinigung und Quantisierung sind entscheidend, um die Größe von KI-Modellen zu reduzieren, ohne deren Genauigkeit wesentlich zu beeinträchtigen. Durch die Modellbereinigung werden redundante oder unkritische Informationen aus dem Modell entfernt, während die Quantisierung die Präzision der in den Modellparametern verwendeten Zahlen verringert, wodurch die Modelle leichter und schneller auf Geräten mit eingeschränkten Ressourcen ausgeführt werden können. Bei der Modellquantisierung handelt es sich um eine Technik, bei der große KI-Modelle komprimiert werden, um die Portabilität zu verbessern und die Modellgröße zu reduzieren, wodurch Modelle leichter und für Edge-Bereitstellungen geeignet werden. Mithilfe von Feinabstimmungstechniken, einschließlich Generalized Post-Training Quantization (GPTQ), Low-Rank Adaptation (LoRA) und Quantized LoRA (QLoRA), verringert die Modellquantisierung die numerische Präzision von Modellparametern und macht Modelle effizienter und zugänglicher für Edge-Geräte wie Tablets, Edge-Gateways und Mobiltelefone. 

Edge-spezifische KI-Frameworks

Die Entwicklung von KI-Frameworks und -Bibliotheken, die speziell für Edge Computing entwickelt wurden, kann den Prozess der Bereitstellung von Edge-KI-Workloads vereinfachen. Diese Frameworks sind für die Rechenbeschränkungen der Edge-Hardware optimiert und unterstützen eine effiziente Modellausführung mit minimalem Leistungsaufwand.

Datenbanken mit verteilter Datenverwaltung

Mit Funktionen wie Vektorsuche und Echtzeitanalysen können Sie die betrieblichen Anforderungen des Edge erfüllen und die lokale Datenverarbeitung unterstützen, indem Sie verschiedene Datentypen wie Audio, Bilder und Sensordaten verarbeiten. Dies ist besonders wichtig bei Echtzeitanwendungen wie autonomer Fahrzeugsoftware, bei denen ständig verschiedene Datentypen gesammelt werden und in Echtzeit analysiert werden müssen.

Verteilte Inferenz

Durch die Platzierung von Modellen oder Workloads auf mehreren Edge-Geräten mit lokalen Datenproben ohne tatsächlichen Datenaustausch können potenzielle Compliance- und Datenschutzprobleme gemindert werden. Bei Anwendungen wie Smart Cities und industriellem IoT, die viele Edge- und IoT-Geräte umfassen, ist die Berücksichtigung der verteilten Inferenz von entscheidender Bedeutung. 

Während KI überwiegend in der Cloud verarbeitet wird, wird es für die Beschleunigung von KI-Initiativen entscheidend sein, ein Gleichgewicht mit Edge zu finden. Die meisten, wenn nicht alle Branchen haben KI und GenAI als Wettbewerbsvorteil erkannt, weshalb das Sammeln, Analysieren und schnelle Erlangen von Erkenntnissen am Netzwerkrand immer wichtiger wird. Während Unternehmen ihre KI-Nutzung weiterentwickeln, wird die Implementierung von Modellquantisierung, multimodalen Funktionen, Datenplattformen und anderen Edge-Strategien dazu beitragen, aussagekräftige Geschäftsergebnisse in Echtzeit zu erzielen.
 
 

Raul Pradhan ist VP of Product and Strategy bei Couchbase (NASDAQ: BASE), Anbieter einer führenden modernen Datenbank für Unternehmensanwendungen, auf die 30 % der Fortune 100 angewiesen sind. Rahul verfügt über mehr als 20 Jahre Erfahrung in der Leitung und Leitung von Entwicklungs- und Produktteams mit Schwerpunkt auf Datenbanken, Speicher, Netzwerk und Sicherheitstechnologien in der Cloud. Vor Couchbase leitete er das Produktmanagement- und Geschäftsstrategieteam für die Emerging Technologies- und Midrange Storage-Abteilungen von Dell EMC, um alle Flash-NVMe-, Cloud- und SDS-Produkte auf den Markt zu bringen.

spot_img

Neueste Intelligenz

spot_img