Zephyrnet-logo

Wat is controleerbaarheid voor AI-systemen?

Datum:

beeld

Modzy Hacker Noon profielfoto

@modischModieus

Een softwareplatform voor organisaties en ontwikkelaars om op een verantwoorde manier AI in te zetten, te monitoren en er waarde uit te halen - op schaal.

Tot voor kort accepteerden we het ‘black box’-verhaal rond AI als een noodzakelijk kwaad dat niet vanuit AI als concept kon worden geëxtrapoleerd. We begrepen dat er soms afwegingen nodig waren om prestatienauwkeurigheid te bereiken, wat ten koste ging van de transparantie uitlegbaarheid.

Gelukkig zijn er de afgelopen jaren vorderingen gemaakt die het technologisch haalbaar maken om uit te leggen waarom AI-modellen tot beslissingen komen, wat een keerpunt vormt voor de toekomst van deze transformatieve technologie.

Om ervoor te zorgen dat AI mainstream wordt, moeten we transparantie en inzicht hebben in de manier waarop op AI gebaseerde beslissingen tot stand zijn gekomen. Dit betekent dat we in staat moeten zijn vast te stellen welke factoren hebben bijgedragen aan een beslissing.

De huidige aanpak is er een vol risico's, omdat organisaties vertrouwen op het vertrouwen op de toch al overbelaste datawetenschappers om hun werk te documenteren en uit te leggen. Deze aanpak leent zich niet om zich aan te passen aan de schaal die nodig is voor AI op bedrijfsschaal en vereist veel extra tijd die wordt verspild aan uitleg. In plaats daarvan moeten organisaties proberen tools in te voeren die controle mogelijk maken om het gedrag en het gebruik van AI binnen een organisatie in de loop van de tijd te volgen.

ModelOps-tools zijn in opkomst als een nieuwe manier om de prestaties van AI-modellen te monitoren en te beheren en tegelijkertijd de mogelijkheid te bieden om onder de motorkap te kijken en het AI-gebruik binnen een onderneming te controleren. De controleerbaarheid van AI is een cruciale stap om voorbij de huidige belemmeringen te komen en een wijdverspreide adoptie van AI te realiseren, waardoor organisaties de basis kunnen leggen voor betrouwbare AI.

Controleerbaarheid voor AI-systemen

Controleerbaarheid en compliance roepen vaak pijnlijke gevoelens op die verband houden met documentatie en governance. Voor AI-systemen is de inzet echter veel hoger. Het controleren van AI verschilt niet veel van het controleren van welke andere opkomende technologie dan ook, bijvoorbeeld cloud computing en cyberbeveiliging, behalve dat AI het potentieel heeft om reeds gemarginaliseerde groepen onevenredig te beïnvloeden vanwege inherente vooroordelen in datasets die kunnen worden versterkt (niet om druk uit te oefenen).

We hebben al gezien dat de huidige aanpak tijd kost en gevaarlijke gevolgen heeft voor de levens van mensen, en een nieuwe aanpak uitnodigt om de integriteit van door AI ondersteunde besluitvorming te beschermen en te waarborgen. Gelukkig kunnen we, door het gedrag van AI-systemen te controleren, een aantal van deze negatieve gevolgen proactief verzachten en voorkomen.

Transparantie is van cruciaal belang voor het vermogen van zowel eindgebruikers als belanghebbenden om AI te begrijpen en te vertrouwen, en controleerbaarheid is een onderdeel van transparantie.

Als datawetenschappers willen weten dat AI zich gedraagt ​​zoals verwacht, moeten ze toegang hebben tot prestatiestatistieken, gemakkelijk kunnen identificeren wanneer modellen zijn afgeweken van de verwachte resultaten en aanbevelingen hebben om de koers te kunnen corrigeren. Op dezelfde manier moeten de belangrijkste leiders die betrokken zijn bij AI-governance ook kunnen begrijpen hoe en waar AI in de hele onderneming wordt gebruikt, inclusief het beantwoorden van vragen over wie wat wanneer heeft gedaan.

Uiteindelijk biedt het monitoren van AI-systemen via oplossingen waarin ModelOps-functionaliteit is ingebouwd organisaties de mogelijkheid om dit in realtime te doen. En een historisch beeld van de prestaties en het gebruik van AI binnen een onderneming.

Een ander onderdeel van de controleerbaarheid berust op het waarborgen dat AI betrouwbaar, betrouwbaar en robuust is en door alle belanghebbenden kan worden gevalideerd en geverifieerd. De huidige ModelOps-tools maken realtime inzicht in de prestaties van modellen mogelijk, evenals automatische registratie en tracking van het gedrag van individuele gebruikers binnen het systeem. Voorbij zijn de dagen waarin datawetenschappers moeten graven om resultaten te reproduceren of hun werk te laten zien.

Deze tools automatiseren en volgen deze informatie voor AI, met eenvoudige dashboards waarmee belanghebbenden prestatiestatistieken kunnen zien die zijn afgestemd op wat voor hen het belangrijkst is. Dit betekent dat belanghebbenden, bijvoorbeeld bedrijfsleiders, IT-leiders, auditors en beveiligingsleiders, informatie nodig hebben op een verteerbare manier die aansluit bij hun unieke rollen. Ongeacht de rol of de informatiebehoefte biedt AI-auditeerbaarheid de middelen voor een holistisch inzicht in het AI-gebruik in een onderneming.

Controleerbaarheid en betrouwbare AI

Hoewel de controleerbaarheid van AI geen nieuw of zelfs nieuw concept is, heeft het het potentieel om de adoptie te versnellen door transparante, betrouwbare AI mogelijk te maken. In combinatie met de vooruitgang op het gebied van de uitlegbaarheid van AI-modellen, biedt controleerbaarheid inzicht in de AI-gezondheid van een organisatie.

Dit is het moment om een ​​sterke basis te leggen voor AI-succes op de lange termijn door het gebruik en de prestaties van AI te documenteren en te monitoren. Het omarmen van de hoorbaarheid van AI zal meer waarde ontsluiten, wat leidt tot een grotere adoptie van AI met verminderde risico’s.

by Modieus @modisch. Een softwareplatform voor organisaties en ontwikkelaars om op een verantwoorde manier AI in te zetten, te monitoren en er waarde uit te halen - op schaal.Bezoek ons

Tags

Doe mee met Hacker Noon

Maak uw gratis account aan om uw persoonlijke leeservaring te ontgrendelen.

PlatoAi. Web3 opnieuw uitgevonden. Gegevensintelligentie versterkt.

Klik hier om toegang te krijgen.

Bron: https://hackernoon.com/what-is-auditability-for-ai-systems-wnz3714?source=rss

spot_img

VC Café

VC Café

Laatste intelligentie

spot_img