Zephyrnet-Logo

Die wichtigsten KI-Trends im Jahr 2024 – IBM Blog

Datum:


Die wichtigsten KI-Trends im Jahr 2024 – IBM Blog



Er führt sein Team entlang seines Erfolgsplans

2022 war das Jahr, in dem generative künstliche Intelligenz (KI) explosionsartig in das öffentliche Bewusstsein eindrang, und 2023 war das Jahr, in dem sie begann, in der Geschäftswelt Fuß zu fassen. 2024 wird daher ein entscheidendes Jahr für die Zukunft der KI sein, da Forscher und Unternehmen herausfinden wollen, wie dieser evolutionäre Technologiesprung am praktischsten in unseren Alltag integriert werden kann.

Die Entwicklung der generativen KI spiegelte die Entwicklung der Computer wider, wenn auch in einem dramatisch beschleunigten Zeitrahmen. Riesige, zentral betriebene Großrechner einiger weniger Anbieter wichen kleineren, effizienteren Maschinen, die für Unternehmen und Forschungseinrichtungen zugänglich waren. In den folgenden Jahrzehnten führten schrittweise Fortschritte zu Heimcomputern, an denen Bastler herumbasteln konnten. Mit der Zeit wurden leistungsstarke Personalcomputer mit intuitiven No-Code-Schnittstellen allgegenwärtig.

Die generative KI hat bereits ihre „Hobbyphase“ erreicht – und wie bei Computern zielen weitere Fortschritte darauf ab, eine höhere Leistung in kleineren Paketen zu erreichen. Im Jahr 2023 kam es zu einer Explosion immer effizienterer Technologien Gründungsmodelle mit offenen Lizenzen, beginnend mit der Einführung der LlaMa-Familie großer Sprachmodelle (LLMs) von Meta, gefolgt von Produkten wie StableLM, Falcon, Mistral und Lama 2. DeepFloyd und Stable Diffusion haben eine relative Parität mit führenden proprietären Modellen erreicht. Dank der Optimierung durch Feinabstimmungstechniken und Datensätze, die von der Open-Source-Community entwickelt wurden, können viele offene Modelle nun bei den meisten Benchmarks alle bis auf die leistungsstärksten Closed-Source-Modelle übertreffen, obwohl die Anzahl der Parameter weitaus geringer ist.

Da der Fortschritt immer schneller voranschreitet, werden die ständig wachsenden Fähigkeiten modernster Modelle die meiste Aufmerksamkeit der Medien auf sich ziehen. Aber die einflussreichsten Entwicklungen dürften diejenigen sein, die sich auf Governance, Middleware, Trainingstechniken und Datenpipelines konzentrieren, die generative KI stärker machen vertrauenswürdig, nachhaltiger und zugänglich, sowohl für Unternehmen als auch für Endbenutzer.

Hier sind einige wichtige aktuelle KI-Trends, auf die Sie im kommenden Jahr achten sollten.

  • Realitätscheck: realistischere Erwartungen
  • Multimodale KI
  • Kleinere(r) Sprachmodelle und Open-Source-Weiterentwicklungen
  • GPU-Mangel und Cloud-Kosten
  • Die Modelloptimierung wird immer zugänglicher
  • Angepasste lokale Modelle und Datenpipelines
  • Leistungsstärkere virtuelle Agenten
  • Regulierung, Urheberrecht und ethische KI-Bedenken
  • Schatten-KI (und Unternehmens-KI-Richtlinien)

Realitätscheck: realistischere Erwartungen

Als generative KI zum ersten Mal in der breiten Öffentlichkeit bekannt wurde, stammte das Wissen eines typischen Unternehmensleiters hauptsächlich aus Marketingmaterialien und atemloser Berichterstattung. Konkrete Erfahrungen (falls vorhanden) beschränkten sich auf das Herumspielen mit ChatGPT und DALL-E. Nachdem sich der Staub gelegt hat, verfügt die Geschäftswelt nun über ein verfeinertes Verständnis von KI-gestützten Lösungen.

Der Gartner-Hype-Zyklus positioniert die generative KI genau auf dem „Höhepunkt überzogener Erwartungen“, an der Schwelle zum Abgleiten in das „Tal der Desillusionierung“.[I]– mit anderen Worten, wir stehen kurz vor dem Eintritt in eine (relativ) enttäuschende Übergangsphase –, während der Bericht „State of Generated AI in the Enterprise“ von Deloitte aus dem ersten Quartal 1 darauf hindeutet, dass viele Führungskräfte „kurzfristig erhebliche transformative Auswirkungen erwarten“.[Ii] Die Realität wird wahrscheinlich dazwischen liegen: Generative KI bietet einzigartige Möglichkeiten und Lösungen, aber sie wird nicht für jeden alles sein.

Wie die realen Ergebnisse im Vergleich zum Hype abschneiden, ist teilweise eine Frage der Perspektive. Standalone-Tools wie ChatGPT stehen in der allgemeinen Vorstellung im Mittelpunkt, aber eine reibungslose Integration in etablierte Dienste sorgt oft für mehr Durchhaltevermögen. Vor dem aktuellen Hype-Zyklus galten generative maschinelle Lerntools wie die 2018 von Google eingeführte Funktion „Smart Compose“ nicht als Paradigmenwechsel, obwohl sie Vorboten der heutigen Textgenerierungsdienste waren. In ähnlicher Weise werden viele wirkungsvolle generative KI-Tools als integrierte Elemente von Unternehmensumgebungen implementiert, die bestehende Tools verbessern und ergänzen, anstatt sie zu revolutionieren oder zu ersetzen: zum Beispiel „Copilot“-Funktionen in Microsoft Office, „Generative Fill“-Funktionen in Adobe Photoshop bzw virtuelle Agenten in Produktivitäts- und Kollaborations-Apps.

Wo generative KI erstmals in alltäglichen Arbeitsabläufen an Fahrt gewinnt, wird einen größeren Einfluss auf die Zukunft von KI-Tools haben als die hypothetischen Vorteile spezifischer KI-Funktionen. Laut einer aktuellen IBM-Umfrage unter über 1,000 Mitarbeitern in GroßunternehmenDie drei wichtigsten Faktoren für die KI-Einführung waren Fortschritte bei KI-Tools, die sie zugänglicher machen, die Notwendigkeit, Kosten zu senken und Schlüsselprozesse zu automatisieren, sowie die zunehmende Integration von KI in Standard-Geschäftsanwendungen.

Multimodal KI (und Video)

Allerdings wächst der Ehrgeiz einer hochmodernen generativen KI. Die nächste Welle von Fortschritten wird sich nicht nur auf die Verbesserung der Leistung innerhalb eines bestimmten Bereichs konzentrieren, sondern auf multimodal für Das kann mehrere Arten von Daten als Eingabe verwenden. Während Modelle, die über verschiedene Datenmodalitäten hinweg arbeiten, kein völlig neues Phänomen sind – Text-zu-Bild-Modelle wie CLIP und Sprache-zu-Text-Modelle wie Wave2Vec gibt es schon seit Jahren –, funktionieren sie normalerweise nur in eine Richtung und wurden für die Bewältigung einer bestimmten Aufgabe ausgebildet.

Die kommende Generation interdisziplinärer Modelle, zu denen proprietäre Modelle wie GPT-4V von OpenAI oder Gemini von Google sowie Open-Source-Modelle wie LLaVa, Adept oder Qwen-VL gehören, kann sich frei zwischen der Verarbeitung natürlicher Sprache (NLP) und Computer-Vision-Aufgaben bewegen. Auch neue Modelle bringen Video in die Falte: Ende Januar kündigte Google Lumiere an, ein Text-zu-Video-Diffusionsmodell, das auch Bild-zu-Video-Aufgaben ausführen oder Bilder als Stilreferenz verwenden kann.

Der unmittelbarste Vorteil der multimodalen KI sind intuitivere, vielseitigere KI-Anwendungen und virtuelle Assistenten. Benutzer können beispielsweise nach einem Bild fragen und erhalten eine Antwort in natürlicher Sprache oder laut nach Anweisungen zur Reparatur fragen und erhalten neben schrittweisen Textanweisungen auch visuelle Hilfen.

Auf einer höheren Ebene ermöglicht die multimodale KI einem Modell, vielfältigere Dateneingaben zu verarbeiten und so die für Training und Inferenz verfügbaren Informationen zu bereichern und zu erweitern. Insbesondere Video bietet großes Potenzial für ganzheitliches Lernen. „Es gibt Kameras, die rund um die Uhr eingeschaltet sind und erfassen, was passiert, ohne jegliche Filterung, ohne jegliche Absicht“, sagt Peter Norvig, Distinguished Education Fellow am Stanford Institute for Human-Centered Artificial Intelligence (HAI). .[Iii] „KI-Modelle verfügten bisher nicht über solche Daten. Diese Modelle werden einfach alles besser verstehen.“

Kleinere(r) Sprachmodelle und Open-Source-Weiterentwicklungen

Bei domänenspezifischen Modellen – insbesondere LLMs – haben wir wahrscheinlich den Punkt erreicht, an dem die Erträge aus größeren Parameterzahlen sinken. Sam Altman, CEO von OpenAI (dessen GPT-4-Modell Gerüchten zufolge etwa 1.76 hat Billionen Parameter), deutete dies auf der Veranstaltung „Imagination in Action“ des MIT im vergangenen April an: „Ich denke, wir sind am Ende der Ära, in der es diese riesigen Modelle geben wird, und wir werden sie auf andere Weise verbessern“, prognostizierte er . „Ich denke, es wurde viel zu viel Wert auf die Parameterzählung gelegt.“

Riesige Modelle haben dieses anhaltende goldene Zeitalter der KI in Gang gesetzt, aber sie sind nicht ohne Nachteile. Nur die allergrößten Unternehmen verfügen über die Mittel und den Serverraum, um energiehungrige Modelle mit Hunderten von Milliarden Parametern zu trainieren und zu warten. Einer Schätzung der University of Washington zufolge erfordert das Training eines einzelnen GPT-3-Modells Folgendes: jährlich Stromverbrauch von über 1,000 Haushalten; Ein Standardtag an ChatGPT-Abfragen entspricht dem täglichen Energieverbrauch von 33,000 US-Haushalten.[IV]

Kleinere Modelle sind hingegen weitaus weniger ressourcenintensiv. Ein einflussreicher Papier vom März 2022 von Deepmind zeigte, dass das Training kleinerer Modelle mit mehr Daten eine bessere Leistung bringt als das Training größerer Modelle mit weniger Daten. Ein Großteil der laufenden Innovationen bei LLMs konzentrierte sich daher darauf, mit weniger Parametern eine höhere Leistung zu erzielen. Wie die jüngsten Fortschritte bei Modellen im Parameterbereich von 3 bis 70 Milliarden, insbesondere bei Modellen, die auf LLaMa-, Llama 2- und Mistral-Grundmodellen im Jahr 2023 basieren, zeigen, können Modelle ohne große Leistungseinbußen verkleinert werden.

Die Leistungsfähigkeit offener Modelle wird weiter zunehmen. Im Dezember 2023 veröffentlichte Mistral „Mixtral“, a Mischung aus Experten (MoE) Modell, das 8 neuronale Netze mit jeweils 7 Milliarden Parametern integriert. Mistral behauptet, dass Mixtral nicht nur die 70B-Parametervariante von Llama 2 bei den meisten Benchmarks mit sechsmal schnelleren Inferenzgeschwindigkeiten übertrifft, sondern sogar mit denen von OpenAI mithalten oder diese sogar übertrifft weit größerer GPT-3.5 bei den meisten Standard-Benchmarks. Kurz darauf gab Meta im Januar bekannt, dass bereits mit dem Training der Llama-3-Modelle begonnen wurde, und bestätigte, dass diese Open-Source-Modelle sein werden. Obwohl Details (wie die Modellgröße) nicht bestätigt wurden, kann man davon ausgehen, dass Llama 3 dem in den beiden Generationen zuvor festgelegten Rahmen folgt.

Diese Fortschritte bei kleineren Modellen haben drei wichtige Vorteile:

  • Sie tragen zur Demokratisierung der KI bei: Kleinere Modelle, die zu geringeren Kosten auf erschwinglicherer Hardware betrieben werden können, ermöglichen es mehr Amateuren und Institutionen, bestehende Modelle zu studieren, zu trainieren und zu verbessern.
  • Sie können lokal auf kleineren Geräten ausgeführt werden: Dies ermöglicht eine ausgefeiltere KI in Szenarien wie Edge Computing und dem Internet der Dinge (IoT). Darüber hinaus trägt die lokale Ausführung von Modellen – etwa auf dem Smartphone eines Benutzers – dazu bei, viele Datenschutz- und Cybersicherheitsbedenken zu umgehen, die sich aus der Interaktion mit sensiblen persönlichen oder geschützten Daten ergeben.
  • Sie machen KI erklärbarer: Je größer das Modell, desto schwieriger ist es, genau zu bestimmen, wie und wo wichtige Entscheidungen getroffen werden. Erklärbare KI ist von wesentlicher Bedeutung für das Verständnis, die Verbesserung und das Vertrauen in die Ergebnisse von KI-Systemen.

GPU-Mangel und Cloud-Kosten

Der Trend zu kleineren Modellen wird sowohl durch die Notwendigkeit als auch durch den Unternehmergeist vorangetrieben, da die Kosten für Cloud Computing steigen, während die Verfügbarkeit von Hardware abnimmt.

„Die großen Unternehmen (und mehr davon) versuchen alle, KI-Fähigkeiten intern bereitzustellen, und es gibt einen gewissen Ansturm auf GPUs“, sagt James Landay, Vizedirektor und Fakultätsdirektor für Forschung, Stanford HAI. „Dies wird nicht nur einen enormen Druck erzeugen, die GPU-Produktion zu steigern, sondern auch den Innovatoren, Hardwarelösungen zu entwickeln, die billiger und einfacher herzustellen und zu verwenden sind.“1

Wie ein Bericht von O'Reilly Ende 2023 erklärt, tragen Cloud-Anbieter derzeit einen Großteil der Rechenlast: Relativ wenige KI-Anwender unterhalten ihre eigene Infrastruktur, und Hardwareknappheit wird die Hürden und Kosten für die Einrichtung von Servern vor Ort nur erhöhen. Langfristig könnte dies zu einem Aufwärtsdruck auf die Cloud-Kosten führen, da Anbieter ihre eigene Infrastruktur aktualisieren und optimieren, um die Nachfrage nach generativer KI effektiv zu decken.[V]

Um sich in dieser unsicheren Landschaft zurechtzufinden, ist für Unternehmen Flexibilität in Bezug auf beide Modelle erforderlich – wobei bei Bedarf auf kleinere, effizientere Modelle oder bei Bedarf auf größere, leistungsfähigere Modelle zurückgegriffen werden kann – und in Bezug auf die Bereitstellungsumgebung. „Wir wollen nicht einschränken, wo Menschen [ein Modell] einsetzen“, sagte IBM-CEO Arvind Krishna in einem Dezember 2023 Interview mit CNBC, in Anlehnung an IBM watsonx Plattform. „Wenn sie es also in einer großen öffentlichen Cloud bereitstellen möchten, werden wir es dort tun. Wenn sie es bei IBM einsetzen wollen, machen wir es bei IBM. Wenn sie es selbst machen wollen und über genügend Infrastruktur verfügen, machen wir es dort.“

Die Modelloptimierung wird immer zugänglicher

Der Trend zur Maximierung der Leistung kompakterer Modelle wird durch die jüngsten Ergebnisse der Open-Source-Community gut bedient. 

Viele wichtige Fortschritte wurden (und werden auch weiterhin) nicht nur durch neue Basismodelle vorangetrieben, sondern auch durch neue Techniken und Ressourcen (wie Open-Source-Datensätze) zum Trainieren, Optimieren, Feinabstimmen oder Ausrichten vorab trainierter Modelle. Zu den bemerkenswerten modellunabhängigen Techniken, die sich im Jahr 2023 durchsetzten, gehören:

  • Low-Rank-Anpassung (LoRA): Anstatt Milliarden von Modellparametern direkt zu optimieren, Bei LoRA werden vorab trainierte Modellgewichte eingefroren und trainierbare Schichten eingefügt, die die Matrix der Änderungen an den Modellgewichten als 2 kleinere (niederer Rang) Matrizen – in jedem Transformatorblock. Dadurch wird die Anzahl der Parameter, die aktualisiert werden müssen, erheblich reduziert, was wiederum die Feinabstimmung erheblich beschleunigt und den Speicherbedarf zum Speichern von Modellaktualisierungen verringert.
  • Quantisierung: Ebenso wie die Senkung der Bitrate von Audio oder Video zur Reduzierung der Dateigröße und Latenz verringert die Quantisierung die Präzision, die zur Darstellung von Modelldatenpunkten verwendet wird – beispielsweise von 16-Bit-Gleitkomma auf 8-Bit-Ganzzahl –, um die Speichernutzung zu reduzieren und die Inferenz zu beschleunigen. QLoRA Techniken kombinieren Quantisierung mit LoRA.
  • Direkte Präferenzoptimierung (DPO): Chat-Modelle verwenden normalerweise Reinforcement Learning aus menschlichem Feedback (RLHF) um Modellausgaben an menschliche Vorlieben anzupassen. Obwohl RLHF leistungsstark ist, ist es komplex und instabil. DPO verspricht ähnliche Vorteile, ist aber rechenintensiv und wesentlich einfacher.

Neben parallelen Fortschritten bei Open-Source-Modellen im Parameterbereich von 3 bis 70 Milliarden könnten diese sich entwickelnden Techniken die Dynamik der KI-Landschaft verändern, indem sie kleineren Akteuren wie Startups und Amateuren ausgefeilte KI-Funktionen bieten, die zuvor unerreichbar waren.

Angepasste lokale Modelle und Datenpipelines

Unternehmen im Jahr 2024 können somit eine Differenzierung durch maßgeschneiderte Modellentwicklung anstreben, anstatt Hüllen um neu verpackte Dienste von „Big AI“ zu bauen. Mit das richtige Daten- und EntwicklungsframeworkVorhandene Open-Source-KI-Modelle und -Tools können auf nahezu jedes reale Szenario zugeschnitten werden, von der Kundenunterstützung über das Lieferkettenmanagement bis hin zur komplexen Dokumentenanalyse.

Open-Source-Modelle bieten Unternehmen die Möglichkeit, schnell und ohne übermäßig teure Infrastrukturinvestitionen leistungsstarke, benutzerdefinierte KI-Modelle zu entwickeln, die auf ihren proprietären Daten trainiert und auf ihre spezifischen Anforderungen abgestimmt sind. Dies ist insbesondere in Bereichen wie Recht, Gesundheitswesen oder Finanzen relevant, in denen hochspezialisierte Vokabeln und Konzepte möglicherweise nicht von Grundmodellen in der Vorschulung erlernt wurden.

Auch die Rechts-, Finanz- und Gesundheitsbranche sind Paradebeispiele für Branchen, die von Modellen profitieren können, die klein genug sind, um lokal auf bescheidener Hardware ausgeführt zu werden. Aufrechterhaltung von KI-Training, Inferenz und Retrieval Augmented Generation (RAG) Local vermeidet das Risiko, dass proprietäre Daten oder sensible persönliche Informationen zum Trainieren von Closed-Source-Modellen verwendet werden oder auf andere Weise in die Hände Dritter gelangen. Und die Verwendung von RAG für den Zugriff auf relevante Informationen, anstatt das gesamte Wissen direkt im LLM selbst zu speichern, trägt dazu bei, die Modellgröße zu reduzieren, die Geschwindigkeit weiter zu erhöhen und die Kosten zu senken.

Da sich im Jahr 2024 weiterhin gleiche Wettbewerbsbedingungen für die Modelle ergeben, werden Wettbewerbsvorteile zunehmend durch proprietäre Datenpipelines erzielt, die eine branchenweit beste Feinabstimmung ermöglichen.

Leistungsstärkere virtuelle Agenten

Mit ausgefeilteren, effizienteren Tools und einem Jahr Marktfeedback sind Unternehmen in der Lage, ihre Anwendungsfälle zu erweitern virtuelle Agenten mehr als einfach Kundenerlebnis-Chatbots.

Da KI-Systeme immer schneller werden und neue Informationsströme und -formate integrieren, erweitern sie nicht nur die Möglichkeiten zur Kommunikation und Befolgung von Anweisungen, sondern auch zur Aufgabenautomatisierung. „2023 war das Jahr, in dem man mit einer KI chatten konnte. Mehrere Unternehmen haben etwas gestartet, aber die Interaktion bestand immer darin, dass man etwas eingibt und dann etwas zurückgibt“, sagt Norvig von Stanford. „Im Jahr 2024 werden wir sehen die Möglichkeit für Agenten, Dinge für Sie zu erledigen. Reservieren Sie, planen Sie eine Reise und stellen Sie eine Verbindung zu anderen Diensten her.“

Insbesondere die multimodale KI erhöht die Möglichkeiten zur nahtlosen Interaktion mit virtuellen Agenten deutlich. Anstatt beispielsweise einfach einen Bot nach Rezepten zu fragen, kann ein Benutzer eine Kamera auf einen offenen Kühlschrank richten und Rezepte anfordern, die mit verfügbaren Zutaten zubereitet werden können. Be My Eyes, eine mobile App, die blinde und sehbehinderte Menschen mit Freiwilligen verbindet, um bei schnellen Aufgaben zu helfen, testet KI-Tools, die Benutzern helfen, durch multimodale KI direkt mit ihrer Umgebung zu interagieren, anstatt auf einen menschlichen Freiwilligen zu warten.

Entdecken Sie IBM watsonx™ Assistant: marktführende Konversations-KI mit nahtloser Integration für die Tools, die Ihr Unternehmen antreiben →

Regulierung, Urheberrecht und ethische KI-Bedenken

Verbesserte multimodale Fähigkeiten und geringere Eintrittsbarrieren eröffnen auch neue Türen für Missbrauch: Deepfakes, Datenschutzprobleme, die Aufrechterhaltung von Voreingenommenheit und sogar die Umgehung von CAPTCHA-Schutzmaßnahmen könnten für böswillige Akteure immer einfacher werden. Im Januar 2024 erfasste eine Welle expliziter Promi-Deepfakes die sozialen Medien; Untersuchungen vom Mai 2023 ergaben, dass im Vergleich zum gleichen Zeitraum im Jahr 8 achtmal so viele Voice-Deepfakes online gepostet wurden.[Vi]

Unklarheiten im regulatorischen Umfeld können die Einführung oder zumindest eine aggressivere Umsetzung kurz- bis mittelfristig verlangsamen. Jede größere, unumkehrbare Investition in eine neue Technologie oder Praxis birgt ein inhärentes Risiko, das aufgrund neuer Gesetze oder veränderter politischer Gegenwinde in den kommenden Jahren erhebliche Umrüstungen erfordern oder sogar illegal werden könnte.

Im Dezember 2023 erreichte die Europäische Union (EU). vorläufige Einigung zum Künstliche-Intelligenz-Gesetz. Unter anderem verbietet es das wahllose Scrapen von Bildern zur Erstellung von Gesichtserkennungsdatenbanken, biometrische Kategorisierungssysteme mit der Möglichkeit diskriminierender Voreingenommenheit, „Social Scoring“-Systeme und den Einsatz von KI zur sozialen oder wirtschaftlichen Manipulation. Außerdem soll eine Kategorie von KI-Systemen mit „hohem Risiko“ definiert werden, die möglicherweise die Sicherheit, Grundrechte oder Rechtsstaatlichkeit gefährden und einer zusätzlichen Aufsicht unterliegen. Ebenso werden Transparenzanforderungen für sogenannte „Allzweck-KI-Systeme (GPAI)“ – Basismodelle – festgelegt, einschließlich technischer Dokumentation und systemischer kontradiktorischer Tests.

Aber während einige Schlüsselakteure wie Mistral in der EU ansässig sind, findet der Großteil der bahnbrechenden KI-Entwicklung in Amerika statt, wo eine substanzielle Gesetzgebung zu KI im Privatsektor Maßnahmen des Kongresses erfordern wird – was in einem Wahljahr möglicherweise unwahrscheinlich ist. Am 30. Oktober erließ die Biden-Regierung eine umfassende Durchführungsverordnung detaillierte Beschreibung von 150 Anforderungen für den Einsatz von KI-Technologien durch Bundesbehörden; Monate zuvor sicherte sich die Verwaltung freiwillige Selbstverpflichtungen prominenter KI-Entwickler sich an bestimmte Leitplanken für Vertrauen und Sicherheit zu halten. Bemerkenswert ist, dass sowohl Kalifornien als auch Colorado aktiv ihre eigenen Gesetze zu den Datenschutzrechten des Einzelnen im Hinblick auf künstliche Intelligenz verfolgen.

China ist proaktiver zu formalen KI-Beschränkungen übergegangen, hat Preisdiskriminierung durch Empfehlungsalgorithmen in sozialen Medien verboten und eine klare Kennzeichnung von KI-generierten Inhalten vorgeschrieben. Zukünftige Vorschriften zur generativen KI zielen darauf ab, zu verlangen, dass die Trainingsdaten, die zum Trainieren von LLMs verwendet werden, und die anschließend von Modellen generierten Inhalte „wahr und genau“ sein müssen, was Experten ergriffen haben, um Maßnahmen zur Zensur der LLM-Ausgaben aufzuzeigen.

Unterdessen bleibt die Rolle von urheberrechtlich geschütztem Material beim Training von KI-Modellen, die zur Inhaltsgenerierung verwendet werden, von Sprachmodellen über Bildgeneratoren bis hin zu Videomodellen, ein heiß umstrittenes Thema. Das Ergebnis der hochkarätigen Klage eingereicht von der New York Times gegen OpenAI kann die Entwicklung der KI-Gesetzgebung erheblich beeinflussen. Gegnerische Tools, wie Glaze und Nachtschatten– beide an der University of Chicago entwickelt – sind in einer Art Wettrüsten zwischen Schöpfern und Modellentwicklern entstanden.

 Erfahren Sie, wie IBM® watsonx.governance™ verantwortungsvolle, transparente und erklärbare KI-Workflows beschleunigt →

Schatten-KI (und Unternehmens-KI-Richtlinien)

Für Unternehmen wird dieses eskalierende Potenzial für rechtliche, regulatorische, wirtschaftliche oder rufschädigende Folgen noch dadurch verschärft, wie beliebt und zugänglich generative KI-Tools geworden sind. Organisationen müssen nicht nur eine sorgfältige, kohärente und klar formulierte Unternehmenspolitik rund um generative KI verfolgen, sondern auch vorsichtig sein Schatten-KI: die „inoffizielle“ persönliche Nutzung von KI am Arbeitsplatz durch Mitarbeiter.

Schatten-KI, auch „Schatten-IT“ oder „BYOAI“ genannt, entsteht, wenn ungeduldige Mitarbeiter, die nach schnellen Lösungen suchen (oder einfach neue Technologien schneller erkunden wollen, als es eine vorsichtige Unternehmenspolitik zulässt), generative KI am Arbeitsplatz implementieren, ohne sich zur Genehmigung oder Aufsicht an die IT zu wenden . Viele verbraucherorientierte Dienste, von denen einige kostenlos sind, ermöglichen es auch technisch nicht versierten Personen, den Einsatz generativer KI-Tools zu improvisieren. In einer Studie von Ernst & Young gaben 90 % der Befragten an, dass sie KI bei der Arbeit nutzen.[Vii]

Dieser Unternehmergeist kann in einem Vakuum großartig sein – aber eifrigen Mitarbeitern mangelt es möglicherweise an relevanten Informationen oder Perspektiven in Bezug auf Sicherheit, Datenschutz oder Compliance. Dies kann Unternehmen einem großen Risiko aussetzen. Beispielsweise könnte ein Mitarbeiter unwissentlich Geschäftsgeheimnisse an ein öffentlich zugängliches KI-Modell weitergeben, das kontinuierlich auf Benutzereingaben trainiert, oder urheberrechtlich geschütztes Material verwenden, um ein proprietäres Modell für die Inhaltserstellung zu trainieren und sein Unternehmen rechtlichen Schritten auszusetzen.

Wie viele aktuelle Entwicklungen unterstreicht dies, dass die Gefahren generativer KI fast linear mit ihren Fähigkeiten steigen. Mit großer Macht kommt große Verantwortung.

Moving forward

Während wir ein entscheidendes Jahr in der künstlichen Intelligenz durchlaufen, ist das Verständnis und die Anpassung an neue Trends von entscheidender Bedeutung, um das Potenzial zu maximieren, Risiken zu minimieren und die Einführung generativer KI verantwortungsvoll zu skalieren.

Nutzen Sie generative KI mit watsonx™ →

Erfahren Sie, wie IBM Sie dabei unterstützen kann, den KI-Trends immer einen Schritt voraus zu sein →


[I] „Gartner platziert generative KI auf dem Höhepunkt überzogener Erwartungen im Hype-Zyklus 2023 für neue Technologien“ Gartner, 16. August 2023

[Ii] „Bericht zum Stand der generativen KI von Deloitte im ersten Quartal des Unternehmens“ Deloitte, Januar 2024

[Iii] „Was Sie im Jahr 2024 in der KI erwartet“ Stanford University, 8. Dezember 2023

[IV] „Fragen und Antworten: UW-Forscher diskutiert, wie viel Energie ChatGPT verbraucht.“ University of Washington, 27. Juli 2023

[V] „Generative KI im Unternehmen“ O'Reilly, 28. November 2023

[Vi] „Deepfaking: Amerikas Wahl 2024 fällt mit einem KI-Boom zusammen“ Reuters, 30. Mai 2023

[Vii] „Wie Unternehmen verhindern können, dass der rasant zunehmende Einsatz von KI Ängste schürt“ Ernst & Young, Dezember 2023

War dieser Artikel hilfreich?

JaNein


Mehr von Künstliche Intelligenz




Außergewöhnliche Mitarbeitererlebnisse schaffen

4 min lesen - Da die Grenze zwischen Privat- und Berufsleben der Mitarbeiter immer mehr verschwimmt, erwarten die Mitarbeiter einen flexibleren und einfühlsameren Arbeitsplatz, der sie selbst voll und ganz berücksichtigt. Dieser Wandel in den Erwartungen der Mitarbeiter vollzieht sich in einem herausfordernden Umfeld mit rasanten technologischen Fortschritten, wachsenden Qualifikationsdefiziten und unvorhersehbaren sozioökonomischen Problemen. Und um das Ganze noch schlimmer zu machen: Es liegt in der Natur des Personalwesens, sich einer Optimierung zu widersetzen, da die Erfahrungen der Mitarbeiter schwer zu quantifizieren sind und sich Organisationen nur schwer verändern lassen. Trotz dieser Herausforderungen…




6 Möglichkeiten, wie generative KI das Asset Management optimieren kann

3 min lesen - Jeder Vermögensverwalter, unabhängig von der Größe des Unternehmens, steht vor ähnlichen Aufgaben: die Wartungsplanung optimieren, die Zuverlässigkeit von Anlagen oder Geräten verbessern und Arbeitsabläufe optimieren, um Qualität und Produktivität zu verbessern. In einer aktuellen Studie des IBM Institute for Business Value unter Chief Supply Chain Officers gab fast die Hälfte der Befragten an, dass sie als Reaktion auf Herausforderungen neue Technologien eingeführt haben. Mit der Leistungsfähigkeit von Basismodellen der generativen künstlichen Intelligenz (KI) in Kombination mit traditioneller KI ist noch mehr Hilfe in Sicht, um…




Wie die Recording Academy IBM watsonx nutzt, um das Fanerlebnis bei den GRAMMYs® zu verbessern

3 min lesen - Mit den GRAMMYs® möchte die Recording Academy® herausragende Leistungen in den Aufnahmekünsten und -wissenschaften würdigen und sicherstellen, dass Musik ein unauslöschlicher Teil unserer Kultur bleibt. Wenn die weltbesten Aufnahmestars bei den 66. jährlichen GRAMMY Awards den roten Teppich überqueren, ist IBM wieder dabei. In diesem Jahr waren die geschäftlichen Herausforderungen, vor denen die GRAMMYs standen, mit denen anderer bedeutender kultureller Sport- und Unterhaltungsveranstaltungen vergleichbar: In der heutigen stark fragmentierten Medienlandschaft bedeutet die Schaffung kultureller Wirkung, fesselnde Inhalte zu schaffen …




Der KI-Assistent für alle: watsonx Orchestrate kombiniert generative KI und Automatisierung, um die Produktivität zu steigern

3 min lesen - Was wäre, wenn Mitarbeiter die Möglichkeit hätten, zeitaufwändige Aufgaben mühelos zu delegieren, durch einfache Abfragen nahtlos auf Informationen zuzugreifen und komplexe Projekte in einer einzigen, optimierten Anwendung zu bewältigen? Was wäre, wenn Kunden Zugang zu einem intelligenten, benutzerfreundlichen virtuellen Agenten hätten, der rund um die Uhr Antworten gibt und Self-Service-Erlebnisse ermöglicht? Diese technologische Revolution ist jetzt dank der innovativen Fähigkeiten der generativen KI-gestützten Automatisierung möglich. Mit den heutigen Fortschritten in der AI Assistant-Technologie können Unternehmen Geschäftsergebnisse in beispielloser Geschwindigkeit erzielen und…

IBM Newsletter

Erhalten Sie unsere Newsletter und Themenaktualisierungen, die die neuesten Gedanken und Einblicke in neue Trends liefern.

Abonniere jetzt

Weitere Newsletter

spot_img

Neueste Intelligenz

spot_img