Zephyrnet-logo

Operationaliseren van verantwoorde AI-principes voor defensie – IBM Blog

Datum:


Operationaliseren van verantwoorde AI-principes voor defensie – IBM Blog



Achteraanzicht van jonge vrouw, freelance datawetenschapper werkt op afstand thuis coderingsprogramma's aan Big data mining, AI data engineering, IT-technicus werkt aan Artificial Intelligence Project.

Kunstmatige intelligentie (AI) transformeert de samenleving, inclusief het karakter ervan nationale veiligheid. Het ministerie van Defensie (DoD) onderkende dit en lanceerde in 2019 het Joint Artificial Intelligence Center (JAIC), de voorloper van het Chief Digital and Artificial Intelligence Office (CDAO), om AI-oplossingen te ontwikkelen die een concurrerend militair voordeel opbouwen en voorwaarden scheppen voor menselijke ontwikkeling. centrale AI-adoptie en de flexibiliteit van DoD-operaties. De wegversperringen voor het opschalen, adopteren en realiseren van het volledige potentieel van AI in het Ministerie van Defensie zijn echter vergelijkbaar met die in de particuliere sector.

Een recente IBM-enquête ontdekte dat de belangrijkste belemmeringen die een succesvolle inzet van AI in de weg staan, onder meer beperkte AI-vaardigheden en -expertise, datacomplexiteit en ethische zorgen zijn. Verder, aldus de IBM Instituut voor Bedrijfswaarde79% van de leidinggevenden zegt dat AI-ethiek belangrijk is voor hun bedrijfsbrede AI-aanpak, maar toch heeft minder dan 25% gemeenschappelijke principes van AI-ethiek geoperationaliseerd. Het winnen van vertrouwen in de resultaten van AI-modellen is een sociotechnische uitdaging die een sociotechnische oplossing vereist.

Defensieleiders die zich richten op het operationeel maken van het verantwoorde beheer van AI moeten het eerst eens worden over een gedeeld vocabulaire – een gemeenschappelijke cultuur die het veilige, verantwoorde gebruik van AI begeleidt – voordat ze technologische oplossingen en vangrails implementeren die de risico’s beperken. Het DoD kan een stevige basis leggen om dit te bereiken door de AI-geletterdheid te verbeteren en samen te werken met vertrouwde organisaties om bestuur te ontwikkelen dat is afgestemd op zijn strategische doelen en waarden.

AI-geletterdheid is een must-have voor veiligheid

Het is belangrijk dat personeel weet hoe ze AI moeten inzetten om de efficiëntie van de organisatie te verbeteren. Maar het is net zo belangrijk dat ze een diep inzicht hebben in de risico's en beperkingen van AI en hoe ze de juiste beveiligingsmaatregelen en ethische vangrails kunnen implementeren. Dit zijn tafelinzetten voor het Ministerie van Defensie of een overheidsinstantie.

Een op maat gemaakt AI-leertraject kan helpen bij het identificeren van lacunes en de benodigde training, zodat personeel de kennis krijgt die ze nodig hebben voor hun specifieke rollen. AI-geletterdheid binnen de hele instelling is van essentieel belang voor al het personeel, zodat zij snel bewegende, virale en gevaarlijke dreigingen zoals desinformatie en deepfakes snel kunnen beoordelen, beschrijven en erop kunnen reageren. 

IBM past AI-geletterdheid op maat toe binnen onze organisatie, aangezien het definiëren van essentiële geletterdheid varieert afhankelijk van iemands positie.

Ondersteunen van strategische doelen en afstemmen op waarden

Als leider op het gebied van betrouwbare kunstmatige intelligentie heeft IBM ervaring met het ontwikkelen van bestuurskaders die een verantwoord gebruik van AI begeleiden in overeenstemming met de waarden van de klantorganisatie. IBM heeft ook eigen raamwerken voor het gebruik van AI binnen IBM zelf, ter informatie beleidsstandpunten zoals het gebruik van gezichtsherkenningstechnologie.

AI-hulpmiddelen worden nu gebruikt in de nationale veiligheid en ter bescherming tegen datalekken en cyberaanvallen. Maar AI ondersteunt ook andere strategische doelen van het Ministerie van Defensie. Het kan het personeelsbestand vergroten, om ze effectiever te maken en te helpen omscholen. Het kan helpen veerkracht te creëren supply chains ter ondersteuning van soldaten, matrozen, piloten en mariniers in oorlogsvoering, humanitaire hulp, vredeshandhaving en rampenbestrijding.

Het CDAO omvat vijf ethische principes: verantwoordelijk, billijk, traceerbaar, betrouwbaar en bestuurbaar als onderdeel van zijn beleid verantwoorde AI-toolkit. Gebaseerd op het bestaande ethische raamwerk van het Amerikaanse leger, zijn deze principes geworteld in de waarden van het leger en helpen ze zijn toewijding aan verantwoorde AI hoog te houden.

Er moet een gezamenlijke inspanning worden geleverd om deze principes werkelijkheid te laten worden door de functionele en niet-functionele vereisten in de modellen en de bestuurssystemen rond die modellen in overweging te nemen. Hieronder doen wij op hoofdlijnen aanbevelingen voor de operationalisering van de ethische uitgangspunten van het CDAO.

1. Verantwoordelijk

“DoD-personeel zal de juiste mate van beoordelingsvermogen en zorg uitoefenen, terwijl het verantwoordelijk blijft voor de ontwikkeling, inzet en gebruik van AI-capaciteiten.”

Iedereen is het erover eens dat AI-modellen moeten worden ontwikkeld door personeel dat voorzichtig en attent is, maar hoe kunnen organisaties mensen ertoe aanzetten dit werk te doen? Wij adviseren:

  • Het bevorderen van een organisatiecultuur die de sociotechnische aard van AI-uitdagingen erkent. Dit moet vanaf het begin worden gecommuniceerd, en er moet erkenning zijn voor de praktijken, vaardigheden en bedachtzaamheid die in modellen en het beheer ervan moeten worden gestopt om de prestaties te monitoren.
  • Het gedetailleerd beschrijven van ethische praktijken gedurende de hele AI-levenscyclus, overeenkomend met bedrijfs- (of missie-)doelen, gegevensvoorbereiding en -modellering, evaluatie en implementatie. De CRISP-DM model is hier nuttig. IBM's Geschaalde Data Science-methode, een uitbreiding van CRISP-DM, biedt bestuur over de hele levenscyclus van het AI-model, op basis van gezamenlijke input van datawetenschappers, industrieel-organisatorische psychologen, ontwerpers, communicatiespecialisten en anderen. De methode combineert best practices op het gebied van data science, projectmanagement, ontwerpframeworks en AI-governance. Teams kunnen eenvoudig de vereisten in elke fase van de levenscyclus zien en begrijpen, inclusief documentatie, met wie ze moeten praten of samenwerken, en de volgende stappen.
  • Het verstrekken van interpreteerbare metadata van het AI-model (bijvoorbeeld as factsheets) met specificatie van verantwoordelijke personen, prestatiebenchmarks (vergeleken met mensen), gebruikte gegevens en methoden, auditregistraties (datum en door wie), en auditdoel en resultaten.

Opmerking: deze verantwoordelijkheidsmaatstaven moeten interpreteerbaar zijn door niet-AI-experts (zonder “wiskunde”).

2. Billijk

“Het ministerie zal doelbewuste stappen ondernemen om onbedoelde vooroordelen in AI-mogelijkheden te minimaliseren.”

Iedereen is het erover eens dat het gebruik van AI-modellen eerlijk moet zijn en niet discriminerend, maar hoe gebeurt dit in de praktijk? Wij adviseren:

  • Vaststelling van een centrum van uitmuntendheid om diverse, multidisciplinaire teams een gemeenschap te bieden voor toegepaste training om potentiële ongelijksoortige impact te identificeren.
  • Het gebruik van audittools om de vooringenomenheid in modellen weer te geven. Als de reflectie aansluit bij de waarden van de organisatie, is transparantie rondom de gekozen data en methoden van cruciaal belang. Als de reflectie niet aansluit bij de waarden van de organisatie, is dit een signaal dat er iets moet veranderen. Het ontdekken en beperken van potentiële ongelijksoortige gevolgen veroorzaakt door vooroordelen omvat veel meer dan het onderzoeken van de gegevens waarop het model is getraind. Organisaties moeten ook kijken naar de betrokken mensen en processen. Is bijvoorbeeld het juiste en ongepaste gebruik van het model duidelijk gecommuniceerd?
  • Eerlijkheid meten en gelijkheidsnormen opstellen actiegericht door functionele en niet-functionele vereisten te bieden voor verschillende serviceniveaus.
  • gebruik denken over design raamwerken om onbedoelde effecten van AI-modellen te beoordelen, de rechten van de eindgebruikers te bepalen en principes te operationaliseren. Het is essentieel dat bij Design Thinking-oefeningen mensen betrokken worden met zeer gevarieerde ervaringen.hoe diverser, hoe beter.

3. Traceerbaar

“De AI-capaciteiten van het departement zullen zodanig worden ontwikkeld en ingezet dat relevant personeel een passend inzicht heeft in de technologie, ontwikkelingsprocessen en operationele methoden die van toepassing zijn op AI-capaciteiten, inclusief met transparante en controleerbare methodologieën, gegevensbronnen en ontwerpprocedures en documentatie.”

Operationaliseer de traceerbaarheid door duidelijke richtlijnen te bieden aan al het personeel dat AI gebruikt:

  • Maak gebruikers altijd duidelijk wanneer ze communiceren met een AI-systeem.
  • Zorg voor inhoudelijke basis voor AI-modellen. Bied domeinexperts de mogelijkheid om betrouwbare gegevensbronnen te beheren en te onderhouden die worden gebruikt om modellen te trainen. De modeluitvoer is gebaseerd op de gegevens waarop het is getraind.

IBM en zijn partners kunnen AI-oplossingen bieden met uitgebreide, controleerbare inhoud die noodzakelijk is voor gebruiksscenario's met een hoog risico.

  • vangen belangrijkste metagegevens om AI-modellen transparant te maken en de modelinventaris bij te houden. Zorg ervoor dat deze metadata interpreteerbaar zijn en dat de juiste informatie bij het juiste personeel terechtkomt. Gegevensinterpretatie vergt oefening en is een interdisciplinaire inspanning. Bij IBM, onze Ontwerp voor AI groep wil werknemers onderwijzen over de cruciale rol van data in AI (naast andere fundamentele zaken) en schenkt raamwerken aan de open-sourcegemeenschap.
  • Zorg ervoor dat deze metadata gemakkelijk vindbaar zijn voor mensen (uiteindelijk bij de bron van de output).
  • Betrek human-in-the-loop, aangezien AI mensen moet versterken en assisteren. Hierdoor kunnen mensen feedback geven terwijl AI-systemen werken.
  • Creëer processen en raamwerken om uiteenlopende impact- en veiligheidsrisico's te beoordelen, ruim voordat het model wordt ingezet of aangeschaft. Wijs verantwoordelijke mensen aan om deze risico's te beperken.

4. Betrouwbaar

“De AI-capaciteiten van het ministerie zullen expliciete, goed gedefinieerde toepassingen hebben, en de veiligheid, beveiliging en effectiviteit van dergelijke capaciteiten zullen onderworpen zijn aan testen en zekerheid binnen de gedefinieerde toepassingen gedurende hun gehele levenscyclus.”

Organisaties moeten goed gedefinieerde gebruiksscenario’s documenteren en vervolgens testen op naleving. Het operationeel maken en opschalen van dit proces vereist een sterke culturele afstemming, zodat praktijkmensen zich aan de hoogste normen houden, zelfs zonder voortdurend direct toezicht. Best practices zijn onder meer:

  • Het opzetten van gemeenschappen die voortdurend herbevestigen Waarom eerlijke, betrouwbare resultaten zijn essentieel. Veel beoefenaars zijn er oprecht van overtuigd dat er, simpelweg door de beste bedoelingen te hebben, geen ongelijksoortige impact kan zijn. Dit is misleidend. Toegepaste training door zeer betrokken gemeenschapsleiders die ervoor zorgen dat mensen zich gehoord en betrokken voelen, is van cruciaal belang.
  • Het opbouwen van betrouwbaarheidstestredenen rond de richtlijnen en standaarden voor gegevens die worden gebruikt in modeltraining. De beste manier om dit waar te maken, is door voorbeelden te geven van wat er kan gebeuren als dit onderzoek ontbreekt.
  • Beperk de toegang van gebruikers tot modelontwikkeling, maar verzamel bij de start van een project verschillende perspectieven om de introductie van vooroordelen tegen te gaan.
  • Voer privacy- en beveiligingscontroles uit gedurende de gehele AI-levenscyclus.
  • Neem nauwkeurigheidsmaatstaven op in regelmatig geplande audits. Wees ondubbelzinnig openhartig over hoe de prestaties van een model zich verhouden tot die van een mens. Als het model er niet in slaagt een accuraat resultaat op te leveren, specificeer dan wie verantwoordelijk is voor dat model en welke verhaalsmogelijkheden gebruikers hebben. (Dit moet allemaal worden ingebakken in de interpreteerbare, vindbare metadata).

5. Bestuurbaar

“Het ministerie zal AI-capaciteiten ontwerpen en ontwikkelen om de beoogde functies te vervullen, terwijl het over de mogelijkheid beschikt om onbedoelde gevolgen te detecteren en te vermijden, en over de mogelijkheid om geïmplementeerde systemen die onbedoeld gedrag vertonen, uit te schakelen of te deactiveren.”

Operationalisering van dit principe vereist:

  • Investeringen in AI-modellen stoppen niet bij de implementatie. Wijs middelen toe om ervoor te zorgen dat modellen zich blijven gedragen zoals gewenst en verwacht. Beoordeel en beperk risico's gedurende de hele AI-levenscyclus, niet alleen na de implementatie.
  • Het aanwijzen van een verantwoordelijke partij die een gefinancierd mandaat heeft om het bestuurswerk uit te voeren. Ze moeten macht hebben.
  • Investeer in communicatie, gemeenschapsopbouw en onderwijs. Maak gebruik van tools zoals watsonx.governance naar AI-systemen monitoren.
  • Leg de AI-modelinventaris vast en beheer deze zoals hierboven beschreven.
  • Implementeer cyberbeveiligingsmaatregelen in alle modellen.

IBM loopt voorop bij het bevorderen van betrouwbare AI

IBM loopt al sinds hun ontstaan ​​voorop bij het bevorderen van betrouwbare AI-principes en is een thought leader op het gebied van het beheer van AI-systemen. We volgen al lang bestaande principes van vertrouwen en transparantie die duidelijk maken dat de rol van AI erin bestaat menselijke expertise en beoordelingsvermogen te vergroten en niet te vervangen.

In 2013 begon IBM aan de reis van uitlegbaarheid en transparantie op het gebied van AI en machine learning. IBM is toonaangevend op het gebied van AI-ethiek, heeft in 2015 een wereldleider op het gebied van AI-ethiek benoemd en in 2018 een AI-ethiekraad opgericht. Deze experts helpen ervoor te zorgen dat onze principes en verplichtingen worden nageleefd in onze mondiale zakelijke activiteiten. In 2020 schonk IBM zijn Responsible AI-toolkits aan de Linux Foundation om te helpen bouwen aan de toekomst van eerlijke, veilige en betrouwbare AI.

IBM leidt de mondiale inspanningen om de toekomst van verantwoorde AI en ethische AI-metrieken, -standaarden en best practices vorm te geven:

  • Betrokken bij de regering van president Biden bij de ontwikkeling van haar AI Executive Order
  • Meer dan 70 patenten openbaar gemaakt/ingediend voor verantwoorde AI
  • IBM's CEO Arvind Krishna is medevoorzitter van de stuurgroep van de Global AI Action Alliance, opgericht door het World Economic Forum (WEF),
  • Alliance richt zich op het versnellen van de adoptie van inclusieve, transparante en vertrouwde kunstmatige intelligentie wereldwijd
  • Co-auteur van twee artikelen gepubliceerd door het WEF over generatieve AI over het ontsluiten van waarde en het ontwikkelen van veilige systemen en technologieën.
  • Covoorzitter Trusted AI-commissie Linux Foundation AI
  • Bijgedragen aan het NIST AI Risk Management Framework; samenwerken met NIST op het gebied van AI-metrieken, -standaarden en -testen

Het samenstellen van verantwoorde AI is een uitdaging met vele facetten, omdat het vereist dat menselijke waarden op betrouwbare en consistente wijze worden weerspiegeld in onze technologie. Maar het is de moeite zeker waard. Wij zijn van mening dat de bovenstaande richtlijnen het Ministerie van Defensie kunnen helpen bij het operationeel maken van vertrouwde AI en het vervullen van zijn missie.

Voor meer informatie over hoe IBM u kan helpen, gaat u naar AI-bestuursadvies | IBM

Creëer een holistische benadering van AI-beheer

Meer middelen:

Was dit artikel behulpzaam?

JaNee


Meer van Kunstmatige intelligentie




Financiële voordelen ontsluiten door het genereren van data

6 min gelezen - Het genereren van data stelt organisaties in staat hun datamiddelen en kunstmatige intelligentie (AI)-mogelijkheden te gebruiken om tastbare economische waarde te creëren. Dit waarde-uitwisselingssysteem maakt gebruik van dataproducten om de bedrijfsprestaties te verbeteren, een concurrentievoordeel te behalen en uitdagingen in de sector aan te pakken als reactie op de marktvraag. Financiële voordelen zijn onder meer hogere inkomsten door het creëren van bedrijfsmodellen voor aangrenzende sectoren, het betreden van nieuwe markten om meer inkomstenstromen tot stand te brengen, en het vergroten van bestaande inkomsten. Kostenoptimalisatie kan worden bereikt door een combinatie van productiviteitsverbeteringen, infrastructuur…




Verminder defecten en downtime met geautomatiseerde inspecties op basis van AI

3 min gelezen - Een grote, multinationale autofabrikant die verantwoordelijk is voor de jaarlijkse productie van miljoenen voertuigen, ging samenwerken met IBM om hun productieprocessen te stroomlijnen met naadloze, geautomatiseerde inspecties, aangestuurd door realtime gegevens en kunstmatige intelligentie (AI). Als autofabrikant heeft onze klant de inherente plicht om producten van hoge kwaliteit te leveren. Idealiter moeten ze eventuele gebreken ontdekken en verhelpen ruim voordat de auto de consument bereikt. Deze defecten zijn vaak duur, moeilijk te identificeren en brengen een groot aantal aanzienlijke risico’s met zich mee voor de klanttevredenheid.…




Onthulling van de transformatieve AI-technologie achter watsonx Orders

4 min gelezen - Je gaat naar je favoriete drive-thru om friet en een cheeseburger te pakken. Het is een eenvoudige bestelling en als je naar binnen rijdt, merk je dat er niet echt een rij is. Wat zou er mis kunnen gaan? Veel. Het restaurant ligt vlak bij een drukke snelweg met brullend verkeerslawaai en vliegtuigen vliegen laag boven hun hoofd als ze de nabijgelegen luchthaven naderen. Het is winderig. De stereo klinkt in de auto achter je en de klant op de volgende rijstrook probeert te bestellen om...

IBM-nieuwsbrieven

Ontvang onze nieuwsbrieven en onderwerpupdates die de nieuwste thought leadership en inzichten over opkomende trends bieden.

Abonneer nu

Meer nieuwsbrieven

spot_img

Laatste intelligentie

spot_img