Zephyrnet-logo

De belangrijkste AI-trends in 2024 – IBM Blog

Datum:


De belangrijkste AI-trends in 2024 – IBM Blog



Zijn team leiding geven langs zijn plan voor succes

2022 was het jaar waarin generatieve kunstmatige intelligentie (AI) in het publieke bewustzijn explodeerde, en 2023 was het jaar waarin het wortel begon te schieten in de zakenwereld. 2024 wordt dus een cruciaal jaar voor de toekomst van AI, waarin onderzoekers en ondernemingen proberen vast te stellen hoe deze evolutionaire sprong in technologie het meest praktisch in ons dagelijks leven kan worden geïntegreerd.

De evolutie van generatieve AI weerspiegelt die van computers, zij het in een dramatisch versnelde tijdlijn. Enorme, centraal bediende mainframecomputers van een paar spelers maakten plaats voor kleinere, efficiëntere machines die toegankelijk waren voor bedrijven en onderzoeksinstellingen. In de decennia die volgden, leverden stapsgewijze ontwikkelingen homecomputers op waar hobbyisten aan konden sleutelen. Na verloop van tijd werden krachtige personal computers met intuïtieve interfaces zonder code alomtegenwoordig.

Generatieve AI heeft de ‘hobbyistische’ fase al bereikt – en net als bij computers is verdere vooruitgang gericht op het bereiken van betere prestaties in kleinere pakketten. In 2023 was er sprake van een explosie van steeds efficiënter worden funderingsmodellen met open licenties, te beginnen met de lancering van Meta's LlaMa-familie van grote taalmodellen (LLM's) en gevolgd door bijvoorbeeld StableLM, Falcon, Mistral en Lama 2. DeepFloyd en Stable Diffusion hebben relatieve gelijkwaardigheid bereikt met toonaangevende eigen modellen. Verbeterd met verfijningstechnieken en datasets ontwikkeld door de open source-gemeenschap, kunnen veel open modellen nu op de meeste benchmarks beter presteren dan alle, behalve de krachtigste, gesloten-sourcemodellen, ondanks veel kleinere aantallen parameters.

Naarmate het tempo van de vooruitgang toeneemt, zullen de steeds groter wordende mogelijkheden van de modernste modellen de meeste media-aandacht krijgen. Maar de meest impactvolle ontwikkelingen kunnen die zijn die zich richten op governance, middleware, trainingstechnieken en datapijplijnen die generatieve AI beter maken. betrouwbaar, duurzaam en toegankelijk, voor zowel ondernemingen als eindgebruikers.

Hier zijn enkele belangrijke huidige AI-trends waar u het komende jaar op moet letten.

  • Reality check: realistischere verwachtingen
  • Multimodale AI
  • Kleine(re) taalmodellen en open source-verbeteringen
  • GPU-tekorten en cloudkosten
  • Modeloptimalisatie wordt steeds toegankelijker
  • Aangepaste lokale modellen en datapijplijnen
  • Krachtigere virtuele agenten
  • Regelgeving, auteursrecht en ethische AI-problemen
  • Schaduw-AI (en bedrijfs-AI-beleid)

Reality check: realistischere verwachtingen

Toen generatieve AI voor het eerst het grote bewustzijn bereikte, kwam de kennis van een typische bedrijfsleider vooral voort uit marketingmateriaal en ademloze berichtgeving. Tastbare ervaring (indien aanwezig) was beperkt tot rommelen met ChatGPT en DALL-E. Nu het stof is neergedaald, heeft het bedrijfsleven nu een beter inzicht in AI-aangedreven oplossingen.

De Gartner Hype Cycle positioneert generatieve AI precies op de ‘Peak of Inflated Expectations’, op het punt van afglijden naar de ‘Trough of Disillusionment’[I]– met andere woorden, op het punt een (relatief) teleurstellende transitieperiode in te gaan – terwijl Deloitte’s rapport ‘State of Generated AI in the Enterprise’ uit het eerste kwartaal van 1 aangaf dat veel leiders ‘substantiële transformatieve effecten verwachten op de korte termijn’.[Ii] De realiteit zal er waarschijnlijk tussenin liggen: generatieve AI biedt unieke kansen en oplossingen, maar zal niet alles voor iedereen zijn.

Hoe de resultaten uit de echte wereld zich verhouden tot de hype, is gedeeltelijk een kwestie van perspectief. Op zichzelf staande tools zoals ChatGPT staan ​​doorgaans centraal in de populaire verbeelding, maar een soepele integratie in gevestigde services levert vaak meer uithoudingsvermogen op. Vóór de huidige hypecyclus werden generatieve machine learning-tools zoals de 'Smart Compose'-functie die Google in 2018 uitrolde, niet aangekondigd als een paradigmaverschuiving, ondanks dat ze een voorbode waren van de hedendaagse tekstgenererende diensten. Op dezelfde manier worden veel generatieve AI-tools met grote impact geïmplementeerd als geïntegreerde elementen van bedrijfsomgevingen die bestaande tools verbeteren en aanvullen, in plaats van een revolutie teweeg te brengen of te vervangen: bijvoorbeeld ‘Copilot’-functies in Microsoft Office, ‘Generative Fill’-functies in Adobe Photoshop-of virtuele agenten in productiviteits- en samenwerkingsapps.

Waar generatieve AI voor het eerst momentum opbouwt in alledaagse workflows, zal dit meer invloed hebben op de toekomst van AI-tools dan de hypothetische voordelen van specifieke AI-mogelijkheden. Volgens een recente IBM-enquête onder ruim 1,000 werknemers bij grote bedrijvenDe drie belangrijkste factoren die de adoptie van AI aandrijven, waren de vooruitgang in AI-tools die deze toegankelijker maken, de noodzaak om de kosten te verlagen en belangrijke processen te automatiseren, en de toenemende hoeveelheid AI die is ingebed in standaard kant-en-klare bedrijfsapplicaties.

Multimodaal AI (en video)

Dat gezegd zijnde groeit de ambitie van state-of-the-art generatieve AI. De volgende golf van ontwikkelingen zal zich niet alleen richten op het verbeteren van de prestaties binnen een specifiek domein, maar ook op het verbeteren van de prestaties binnen een specifiek domein multimodaal modellen die meerdere soorten gegevens als invoer kunnen gebruiken. Hoewel modellen die over verschillende datamodaliteiten heen werken geen strikt nieuw fenomeen zijn – tekst-naar-beeld-modellen zoals CLIP en spraak-naar-tekst-modellen zoals Wave2Vec bestaan ​​al jaren – hebben ze doorgaans maar in één richting gewerkt, en zijn opgeleid om een ​​specifieke taak uit te voeren.

De komende generatie interdisciplinaire modellen, bestaande uit propriëtaire modellen zoals OpenAI's GPT-4V of Google's Gemini, evenals open source-modellen zoals LLaVa, Adept of Qwen-VL, kunnen vrij bewegen tussen natuurlijke taalverwerking (NLP) en computervisietaken. Er komen ook nieuwe modellen video- in de plooi: eind januari kondigde Google Lumiere aan, een tekst-naar-video-verspreidingsmodel dat ook beeld-naar-video-taken kan uitvoeren of afbeeldingen kan gebruiken voor stijlreferentie.

Het meest directe voordeel van multimodale AI zijn meer intuïtieve, veelzijdige AI-toepassingen en virtuele assistenten. Gebruikers kunnen bijvoorbeeld naar een afbeelding vragen en een antwoord in natuurlijke taal krijgen, of hardop om instructies vragen om iets te repareren en visuele hulpmiddelen krijgen naast stapsgewijze tekstinstructies.

Op een hoger niveau zorgt multimodale AI ervoor dat een model meer uiteenlopende gegevensinvoer kan verwerken, waardoor de informatie die beschikbaar is voor training en gevolgtrekking wordt verrijkt en uitgebreid. Vooral video biedt grote mogelijkheden voor holistisch leren. “Er zijn camera’s die 24/7 aanstaan ​​en vastleggen wat er gebeurt precies zoals het gebeurt, zonder enige filtering en zonder enige opzet”, zegt Peter Norvig, Distinguished Education Fellow bij het Stanford Institute for Human-Centered Artificial Intelligence (HAI) .[Iii] “AI-modellen beschikten niet eerder over dit soort gegevens. Die modellen zullen alles gewoon beter begrijpen.”

Kleine(re) taalmodellen en open source-verbeteringen

In domeinspecifieke modellen (met name LLM's) hebben we waarschijnlijk het punt bereikt waarop de opbrengsten uit grotere aantallen parameters afnemen. Sam Altman, CEO van OpenAI (wiens GPT-4-model naar verluidt rond de 1.76 ligt). biljoen parameters), suggereerde dit tijdens het Imagination in Action-evenement van MIT afgelopen april: "Ik denk dat we aan het einde zijn van het tijdperk waarin het deze gigantische modellen zullen zijn, en we zullen ze op andere manieren beter maken", voorspelde hij . "Ik denk dat er veel te veel aandacht is besteed aan het aantal parameters."

Enorme modellen hebben deze voortdurende gouden eeuw van AI een vliegende start gegeven, maar ze zijn niet zonder nadelen. Alleen de allergrootste bedrijven beschikken over het geld en de serverruimte om energievretende modellen met honderden miljarden parameters te trainen en te onderhouden. Volgens een schatting van de Universiteit van Washington vereist het trainen van een enkel model van GPT-3-formaat de jaar- elektriciteitsverbruik van ruim 1,000 huishoudens; een standaarddag aan ChatGPT-vragen concurreert met het dagelijkse energieverbruik van 33,000 Amerikaanse huishoudens.[Iv]

Kleinere modellen zijn ondertussen veel minder hulpbronnenintensief. Een invloedrijke Papier van maart 2022 van Deepmind heeft aangetoond dat het trainen van kleinere modellen op meer data betere prestaties oplevert dan het trainen van grotere modellen op minder data. Een groot deel van de voortdurende innovatie in LLM's is dus gericht op het behalen van meer output met minder parameters. Zoals blijkt uit de recente vooruitgang van modellen in het bereik van 3 tot 70 miljard parameters, met name de modellen die in 2 op de LLaMa-, Llama 2023- en Mistral-funderingsmodellen zijn gebouwd, kunnen modellen worden verkleind zonder veel prestatieverlies.

De kracht van open modellen zal blijven groeien. In december 2023 bracht Mistral ‘Mixtral’ uit, een mengelmoes van deskundigen (MoE) model dat 8 neurale netwerken integreert, elk met 7 miljard parameters. Mistral beweert dat Mixtral niet alleen beter presteert dan de 70B-parametervariant van Llama 2 op de meeste benchmarks met zes keer hogere inferentiesnelheden, maar dat het zelfs overeenkomt met of beter presteert dan OpenAI's ver grotere GPT-3.5 op de meeste standaard benchmarks. Kort daarna kondigde Meta in januari aan dat het al begonnen is met het trainen van Llama 3-modellen, en bevestigde dat deze open source zullen zijn. Hoewel details (zoals modelgrootte) nog niet zijn bevestigd, is het redelijk om te verwachten dat Llama 3 het raamwerk zal volgen dat in de twee voorgaande generaties is vastgelegd.

Deze vooruitgang in kleinere modellen heeft drie belangrijke voordelen:

  • Ze helpen AI te democratiseren: kleinere modellen die tegen lagere kosten kunnen worden uitgevoerd op beter bereikbare hardware, stellen meer amateurs en instellingen in staat bestaande modellen te bestuderen, trainen en verbeteren.
  • Ze kunnen lokaal op kleinere apparaten worden uitgevoerd: dit maakt meer geavanceerde AI mogelijk in scenario's zoals edge computing en het internet der dingen (IoT). Bovendien helpt het lokaal draaien van modellen (zoals op de smartphone van een gebruiker) veel privacy- en cyberveiligheidsproblemen te omzeilen die voortkomen uit de interactie met gevoelige persoonlijke of bedrijfseigen gegevens.
  • Ze maken AI beter verklaarbaar: hoe groter het model, hoe moeilijker het is om vast te stellen hoe en waar belangrijke beslissingen worden genomen. Uitleg over AI is essentieel voor het begrijpen, verbeteren en vertrouwen van de output van AI-systemen.

GPU-tekorten en cloudkosten

De trend naar kleinere modellen zal zowel door noodzaak als door ondernemerskracht worden gedreven, aangezien de kosten van cloud computing toenemen naarmate de beschikbaarheid van hardware afneemt.

“De grote bedrijven (en meer daarvan) proberen allemaal AI-mogelijkheden intern te brengen, en er is een beetje een run op GPU’s”, zegt James Landay, vicedirecteur en faculteitsdirecteur onderzoek van Stanford HAI. “Dit zal een enorme druk creëren, niet alleen voor een verhoogde GPU-productie, maar ook voor innovators om met hardwareoplossingen te komen die goedkoper en gemakkelijker te maken en te gebruiken zijn.”1

Zoals een rapport van O'Reilly uit eind 2023 uitlegt, dragen cloudproviders momenteel een groot deel van de rekenlast: relatief weinig AI-gebruikers onderhouden hun eigen infrastructuur, en hardwaretekorten zullen de hindernissen en kosten van het opzetten van servers op locatie alleen maar verhogen. Op de lange termijn kan dit een opwaartse druk uitoefenen op de cloudkosten, omdat providers hun eigen infrastructuur updaten en optimaliseren om effectief aan de vraag van generatieve AI te voldoen.[V]

Voor ondernemingen vereist het navigeren door dit onzekere landschap flexibiliteit, in termen van zowel modellen – leunend op kleinere, efficiëntere modellen waar nodig of grotere, beter presterende modellen wanneer dit praktisch is – en implementatieomgeving. “We willen niet beperken waar mensen [een model] inzetten”, zegt IBM-CEO Arvind Krishna in een Interview met CNBC in december 2023, verwijzend naar die van IBM watsonx platform. “Dus [als] ze het op een grote publieke cloud willen inzetten, zullen wij dat daar doen. Als zij het bij IBM willen implementeren, doen wij het bij IBM. Als ze het zelf willen doen, en ze hebben toevallig voldoende infrastructuur, dan doen wij het daar.”

Modeloptimalisatie wordt steeds toegankelijker

De trend naar het maximaliseren van de prestaties van compactere modellen wordt goed gediend door de recente resultaten van de open source-gemeenschap. 

Veel belangrijke ontwikkelingen zijn (en zullen nog steeds worden) niet alleen gedreven door nieuwe basismodellen, maar ook door nieuwe technieken en middelen (zoals open source datasets) voor het trainen, aanpassen, verfijnen of uitlijnen van vooraf getrainde modellen. Opmerkelijke model-agnostische technieken die in 2023 ingang vonden, zijn onder meer:

  • Aanpassing aan lage rang (LoRA): In plaats van miljarden modelparameters direct te verfijnen, LoRA omvat het bevriezen van vooraf getrainde modelgewichten en het injecteren van trainbare lagen, die de matrix van wijzigingen in modelgewichten als 2 kleinere weergeven (lagere rang) matrices - in elk transformatorblok. Dit vermindert dramatisch het aantal parameters dat moet worden bijgewerkt, wat op zijn beurt de fijnafstemming dramatisch versnelt en het geheugen vermindert dat nodig is om modelupdates op te slaan.
  • kwantificering: Net zoals het verlagen van de bitsnelheid van audio of video om de bestandsgrootte en latentie te verminderen, verlaagt kwantisering de precisie die wordt gebruikt om modelgegevenspunten weer te geven (bijvoorbeeld van 16-bits drijvende komma naar 8-bits gehele getallen) om het geheugengebruik te verminderen en de gevolgtrekking te versnellen. QLoRA technieken combineren kwantisering met LoRA.
  • Directe voorkeursoptimalisatie (DPO): Chatmodellen gebruiken doorgaans versterking leren van menselijke feedback (RLHF) om modeluitvoer af te stemmen op menselijke voorkeuren. Hoewel krachtig, is RLHF complex en onstabiel. DPO belooft soortgelijke voordelen, terwijl het rekentechnisch licht en aanzienlijk eenvoudiger is.

Naast parallelle vooruitgang in open source-modellen in de ruimte van 3 tot 70 miljard parameters, zouden deze evoluerende technieken de dynamiek van het AI-landschap kunnen veranderen door kleinere spelers, zoals startups en amateurs, te voorzien van geavanceerde AI-mogelijkheden die voorheen buiten bereik waren.

Aangepaste lokale modellen en datapijplijnen

Bedrijven kunnen in 2024 dus differentiatie nastreven door middel van op maat gemaakte modelontwikkeling, in plaats van het bouwen van wrappers rond herverpakte diensten van ‘Big AI’. Met het juiste data- en ontwikkelingsframeworkkunnen bestaande open source AI-modellen en -tools worden aangepast aan vrijwel elk realistisch scenario, van klantondersteuning tot supply chain management en complexe documentanalyse.

Open source-modellen bieden organisaties de mogelijkheid om snel krachtige aangepaste AI-modellen te ontwikkelen – getraind op hun bedrijfseigen gegevens en afgestemd op hun specifieke behoeften – zonder buitensporig dure investeringen in de infrastructuur. Dit is vooral relevant in domeinen als de juridische sector, de gezondheidszorg of de financiële sector, waar zeer gespecialiseerde woordenschat en concepten mogelijk niet zijn geleerd door basismodellen in de vooropleiding.

De juridische sector, de financiële sector en de gezondheidszorg zijn ook uitstekende voorbeelden van sectoren die kunnen profiteren van modellen die klein genoeg zijn om lokaal op bescheiden hardware te draaien. Het bijhouden van AI-training, gevolgtrekking en ophalen van verbeterde generatie (RAG) local vermijdt het risico dat bedrijfseigen gegevens of gevoelige persoonlijke informatie worden gebruikt om closed-source modellen te trainen of anderszins door de handen van derden te gaan. En het gebruik van RAG om toegang te krijgen tot relevante informatie in plaats van alle kennis rechtstreeks in de LLM zelf op te slaan, helpt de modelgrootte te verkleinen, de snelheid verder te verhogen en de kosten te verlagen.

Naarmate het modelspeelveld in 2024 steeds gelijker wordt, zal het concurrentievoordeel steeds meer worden bepaald door bedrijfseigen datapijplijnen die de beste afstemming in de sector mogelijk maken.

Krachtigere virtuele agenten

Met meer geavanceerde, efficiënte tools en een jaar aan marktfeedback tot hun beschikking, zijn bedrijven klaar om de gebruiksscenario's voor virtuele agenten verder dan eenvoudig chatbots voor klantervaring.

Naarmate AI-systemen sneller worden en nieuwe informatiestromen en formaten integreren, breiden ze de mogelijkheden uit voor niet alleen communicatie en het volgen van instructies, maar ook voor taakautomatisering. “2023 was het jaar waarin we konden chatten met een AI. Meerdere bedrijven lanceerden iets, maar de interactie was altijd: je typt iets in en het typt iets terug”, zegt Stanford's Norvig. “In 2024 zullen we zien de mogelijkheid voor agenten om dingen voor u gedaan te krijgen. Maak reserveringen, plan een reis, maak verbinding met andere diensten.”

Vooral multimodale AI vergroot de mogelijkheden voor naadloze interactie met virtuele agenten aanzienlijk. In plaats van simpelweg een bot om recepten te vragen, kan een gebruiker bijvoorbeeld een camera op een open koelkast richten en recepten opvragen die gemaakt kunnen worden met de beschikbare ingrediënten. Be My Eyes, een mobiele app die blinden en slechtzienden verbindt met vrijwilligers om te helpen met snelle taken, test AI-tools waarmee gebruikers rechtstreeks kunnen communiceren met hun omgeving via multimodale AI, in plaats van te wachten op een menselijke vrijwilliger.

Ontdek IBM watsonx™ Assistant: toonaangevende conversatie-AI met naadloze integratie voor de tools die uw bedrijf ondersteunen →

Regelgeving, auteursrecht en ethische AI-problemen

Verhoogde multimodale mogelijkheden en verlaagde toetredingsdrempels openen ook nieuwe deuren voor misbruik: deepfakes, privacykwesties, het voortduren van vooringenomenheid en zelfs het ontwijken van CAPTCHA-waarborgen kunnen steeds gemakkelijker worden voor slechte actoren. In januari 2024 trof een golf van expliciete deepfakes van beroemdheden de sociale media; Uit onderzoek uit mei 2023 bleek dat er acht keer zoveel deepfakes van stemmen online waren geplaatst vergeleken met dezelfde periode in 8.[Vi]

Ambiguïteit in het regelgevingsklimaat kan de adoptie vertragen, of op zijn minst een agressievere implementatie, op de korte tot middellange termijn. Er is een inherent risico verbonden aan elke grote, onomkeerbare investering in een opkomende technologie of praktijk die aanzienlijke aanpassingen zou kunnen vergen – of zelfs illegaal zou kunnen worden – als gevolg van nieuwe wetgeving of veranderende politieke tegenwind in de komende jaren.

In december 2023 bereikte de Europese Unie (EU). voorlopig akkoord over de Wet op de Kunstmatige Intelligentie. Het verbiedt onder meer het willekeurig schrapen van afbeeldingen om databases voor gezichtsherkenning, biometrische categorisatiesystemen met potentieel voor discriminerende vooroordelen, ‘sociale scoresystemen’ en het gebruik van AI voor sociale of economische manipulatie te creëren. Het beoogt ook een categorie van ‘risicovolle’ AI-systemen te definiëren, die de veiligheid, de grondrechten of de rechtsstaat kunnen bedreigen en die aan extra toezicht zullen worden onderworpen. Op dezelfde manier stelt het transparantievereisten voor wat het “algemene AI (GPAI)”-systemen noemt – basismodellen – inclusief technische documentatie en systemische vijandige tests.

Maar hoewel sommige belangrijke spelers, zoals Mistral, in de EU wonen, vindt het merendeel van de baanbrekende AI-ontwikkeling plaats in Amerika, waar inhoudelijke wetgeving op het gebied van AI in de particuliere sector actie van het Congres zal vereisen – wat in een verkiezingsjaar misschien onwaarschijnlijk is. Op 30 oktober vaardigde de regering-Biden een besluit uit alomvattend uitvoeringsbesluit het gedetailleerd beschrijven van 150 vereisten voor het gebruik van AI-technologieën door federale agentschappen; maanden eerder had de administratie zich verzekerd vrijwillige toezeggingen van vooraanstaande AI-ontwikkelaars zich te houden aan bepaalde vangrails voor vertrouwen en veiligheid. Opvallend is dat zowel Californië als Colorado actief hun eigen wetgeving nastreven met betrekking tot de gegevensprivacyrechten van individuen met betrekking tot kunstmatige intelligentie.

China is proactiever in de richting van formele AI-beperkingen gegaan, heeft prijsdiscriminatie door middel van aanbevelingsalgoritmen op sociale media verboden en de duidelijke etikettering van door AI gegenereerde inhoud verplicht gesteld. Toekomstige regelgeving op het gebied van generatieve AI streeft ernaar te eisen dat de trainingsgegevens die worden gebruikt om LLM's te trainen en dat de inhoud die vervolgens door modellen wordt gegenereerd 'waar en nauwkeurig' moet zijn, wat experts hebben genomen om maatregelen aan te geven om de LLM-uitvoer te censureren.

Ondertussen blijft de rol van auteursrechtelijk beschermd materiaal bij de training van AI-modellen die worden gebruikt voor het genereren van inhoud, van taalmodellen tot beeldgeneratoren en videomodellen, een fel omstreden kwestie. Het resultaat van het spraakmakende rechtszaak aangespannen door de New York Times tegen Open AI kan het traject van de AI-wetgeving aanzienlijk beïnvloeden. Tegenstrijdige instrumenten, zoals Glazuur en Nachtschade– beide ontwikkeld aan de Universiteit van Chicago – zijn ontstaan ​​in wat een soort wapenwedloop zou kunnen worden tussen makers en modelontwikkelaars.

 Ontdek hoe IBM® watsonx.governance™ verantwoorde, transparante en verklaarbare AI-workflows versnelt →

Schaduw-AI (en bedrijfs-AI-beleid)

Voor bedrijven wordt dit escalerende potentieel voor juridische, regelgevende, economische of reputatiegevolgen nog verergerd door de populariteit en toegankelijkheid van generatieve AI-tools. Organisaties moeten niet alleen een zorgvuldig, samenhangend en duidelijk geformuleerd bedrijfsbeleid hebben rond generatieve AI, maar ook op hun hoede zijn voor schaduw-AI: het “onofficiële” persoonlijke gebruik van AI op de werkplek door werknemers.

Ook wel ‘shadow IT’ of ‘BYOAI’ genoemd, ontstaat schaduw-AI wanneer ongeduldige werknemers op zoek zijn naar snelle oplossingen (of simpelweg nieuwe technologie sneller willen verkennen dan een voorzichtig bedrijfsbeleid toestaat) generatieve AI op de werkplek implementeren zonder via IT te gaan voor goedkeuring of toezicht. . Veel consumentengerichte diensten, waarvan sommige gratis, stellen zelfs niet-technische individuen in staat het gebruik van generatieve AI-tools te improviseren. In een onderzoek van Ernst & Young zei 90% van de respondenten dat ze AI op het werk gebruiken.[Vii]

Die ondernemingszin kan in een vacuüm geweldig zijn, maar enthousiaste medewerkers missen mogelijk relevante informatie of perspectief op het gebied van beveiliging, privacy of compliance. Dit kan bedrijven blootstellen aan grote risico's. Een werknemer kan bijvoorbeeld onbewust bedrijfsgeheimen doorgeven aan een publiek gericht AI-model dat voortdurend traint op de input van gebruikers, of auteursrechtelijk beschermd materiaal gebruiken om een ​​bedrijfseigen model te trainen voor het genereren van inhoud en zijn bedrijf blootstellen aan juridische stappen.

Zoals veel lopende ontwikkelingen onderstreept dit hoe de gevaren van generatieve AI vrijwel lineair toenemen met de mogelijkheden ervan. Met grote macht komt grote verantwoordelijkheid.

Vooruit gaan

Terwijl we een cruciaal jaar in de kunstmatige intelligentie doormaken, is het begrijpen van en aanpassen aan opkomende trends essentieel om het potentieel te maximaliseren, de risico’s te minimaliseren en de adoptie van generatieve AI op een verantwoorde manier op te schalen.

Zet generatieve AI aan het werk met watsonx™ →

Ontdek hoe IBM u in staat kan stellen de AI-trends voor te blijven →


[I] “Gartner plaatst generatieve AI op het hoogtepunt van opgeblazen verwachtingen in de hypecyclus van 2023 voor opkomende technologieën,” Gartner, 16 augustus 2023

[Ii] "Deloitte's State of Generative AI in the Enteprrise Quarter one rapport," Deloitte, januari 2024

[Iii] “Wat te verwachten op het gebied van AI in 2024,” Stanford Universiteit, 8 december 2023

[Iv] “Vragen en antwoorden: UW-onderzoeker bespreekt hoeveel energie ChatGPT verbruikt,” Universiteit van Washington, 27 juli 2023

[V] “Generatieve AI in de onderneming,” O'Reilly, 28 november 2023

[Vi] “Deepfaking: de Amerikaanse verkiezingen van 2024 vallen samen met de opkomst van AI,” Reuters, 30 mei 2023

[Vii] “Hoe organisaties kunnen voorkomen dat het torenhoge AI-gebruik angst aanwakkert,” Ernst & Young, december 2023

Was dit artikel behulpzaam?

JaNee


Meer van Kunstmatige intelligentie




Het creëren van uitzonderlijke werknemerservaringen

4 min gelezen - Nu de grens tussen het persoonlijke en professionele leven van werknemers vager dan ooit wordt, verwachten werknemers een flexibelere en empathischere werkplek die volledig rekening houdt met zichzelf. Deze verschuiving in de verwachtingen van werknemers vindt plaats in een uitdagende omgeving van snelle technologische vooruitgang, steeds groter wordende vaardigheidskloven en onvoorspelbare sociaal-economische problemen. En als klap op de vuurpijl verzet de aard van HR zich tegen optimalisatie, omdat werknemerservaringen moeilijk te kwantificeren zijn en organisaties moeilijk te veranderen zijn. Ondanks deze uitdagingen,…




6 manieren waarop generatieve AI het assetmanagement kan optimaliseren

3 min gelezen - Elke assetmanager, ongeacht de omvang van de organisatie, wordt geconfronteerd met vergelijkbare opdrachten: het stroomlijnen van de onderhoudsplanning, het verbeteren van de betrouwbaarheid van assets of apparatuur en het optimaliseren van workflows om de kwaliteit en productiviteit te verbeteren. In een recent onderzoek van het IBM Institute for Business Value onder Chief Supply Chain Officers verklaarde bijna de helft van de respondenten dat zij nieuwe technologieën hebben ingevoerd als reactie op uitdagingen. Er is nog meer hulp aan de horizon met de kracht van generatieve kunstmatige intelligentie (AI) basismodellen, gecombineerd met traditionele AI, om…




Hoe de Recording Academy IBM Watsonx gebruikt om de fanervaring bij de GRAMMYs® te verbeteren

3 min gelezen - Via de GRAMMYs® wil de Recording Academy® excellentie in de opnamekunsten en -wetenschappen erkennen en ervoor zorgen dat muziek een onuitwisbaar onderdeel van onze cultuur blijft. Wanneer 's werelds beste opnamesterren over de rode loper lopen tijdens de 66e jaarlijkse GRAMMY Awards, zal IBM er opnieuw bij zijn. Dit jaar liep de zakelijke uitdaging waarmee de GRAMMY's worden geconfronteerd parallel met die van andere iconische culturele sport- en entertainmentevenementen: in het huidige zeer gefragmenteerde medialandschap betekent het creëren van culturele impact het stimuleren van boeiende inhoud...




De AI-assistent voor iedereen: watsonx Orchestrate combineert generatieve AI en automatisering om de productiviteit te verhogen

3 min gelezen - Wat als werknemers de mogelijkheid hadden om moeiteloos tijdrovende taken te delegeren, naadloos toegang te krijgen tot informatie via eenvoudige vragen en complexe projecten aan te pakken binnen één enkele, gestroomlijnde applicatie? Wat als klanten toegang zouden hebben tot een intelligente, vriendelijke virtuele agent die 24 uur per dag antwoorden kan bieden en zelfbedieningservaringen mogelijk kan maken? Deze technologische revolutie is nu mogelijk dankzij de innovatieve mogelijkheden van generatieve AI-aangedreven automatisering. Met de huidige ontwikkelingen op het gebied van AI Assistant-technologie kunnen bedrijven met een ongekende snelheid bedrijfsresultaten behalen, waardoor...

IBM-nieuwsbrieven

Ontvang onze nieuwsbrieven en onderwerpupdates die de nieuwste thought leadership en inzichten over opkomende trends bieden.

Abonneer nu

Meer nieuwsbrieven

spot_img

Laatste intelligentie

spot_img