Zephyrnet-logo

Machine Learning, AI en risicobeheer: TIR34971 uitgelegd

Datum:

Machine Learning, AI and Risk Management- TIR34971 Explained

TIR34971:2023, Toepassing van ISO 14971 op machine learning in kunstmatige intelligentie, werd in maart 2023 gepubliceerd.

Het technische rapport is een reactie op de opkomst van AI, die een laag complexiteit heeft toegevoegd aan de naleving van voorschriften en normen in de MedTech-industrie die niet specifiek betrekking hebben op nieuwere technologieën zoals AI. 

En als machinaal leren (ML) steeds vaker voorkomt in diagnose- en behandelingsaanbevelingen, heeft de MedTech-industrie advies nodig over hoe ze in lijn kunnen blijven met normen zoals ISO 14971 bij het ontwerpen en ontwikkelen van apparaten die ML gebruiken.

Dat is waar TIR34971:2023 om de hoek komt kijken. Dit rapport is bedoeld om fabrikanten van medische hulpmiddelen te begeleiden bij het volgen van het risicobeheerproces in ISO 14971 bij het bouwen van apparaten die gebruik maken van machine learning.

BONUSBRON: Klik hier om een ​​gratis ISO 14971:2019 Gap Analysis Tool te downloaden om compliance te garanderen en uw risicobeheerproces te verbeteren.

Wat is TIR34971 en wie zou het moeten gebruiken?

TIR34971 is een technisch rapport dat bedoeld is als aanvulling op ISO 14971:2019. Het technisch rapport wel niet een nieuw risicobeheerproces bieden of de vereisten van ISO 14971:2019 uitbreiden.

Het biedt echter wel een leidraad voor fabrikanten die moeten begrijpen hoe ze ISO 14971 kunnen toepassen op gereguleerde medische AI-technologieën. Met andere woorden, als uw apparaat machine learning gebruikt, helpt deze richtlijn u bij het overwegen van de unieke risico's die zijn verbonden aan de ML-component van uw apparaat en hoe u deze risico's moet evalueren en beheersen.

Wat zijn enkele belangrijke overwegingen in het AI-risicobeheerproces?

De structuur van TIR34971 volgt het risicobeheerproces zoals uiteengezet in ISO 14971. Nogmaals, er is hier niets nieuws in termen van de vereisten die worden vermeld in ISO 14971:2019. Zoals het technische rapport opmerkt: "Klassieke risicobeheerbenaderingen zijn van toepassing op ML-systemen."

Dat gezegd hebbende, creëert het gebruik van machine learning in een product een groot aantal potentieel nieuwe en onbekende risico's voor eindgebruikers. 

Zo begint een risicoanalyse nog altijd met het identificeren en documenteren van een duidelijke omschrijving van uw toestel en het beoogde gebruik. Maar als uw apparaat machine learning gebruikt, zijn de vragen die u stelt over beoogd gebruik en voorzienbaar misbruik een beetje anders dan bij een traditioneel medisch apparaat. 

TIR34971 merkt op dat u mogelijk vragen moet stellen, zoals:

  • Is dit software die diagnose- of behandelingsaanbevelingen geeft? Hoe belangrijk is deze informatie bij het beïnvloeden van de gebruiker? Informeert of stimuleert het klinisch management?

  • Biedt het systeem een ​​niet-ML-implementatie van dezelfde functionaliteit?

  • Heeft dit apparaat autonome functies? Wat is de mate van autonomie?

  • Heeft dit apparaat de mogelijkheid om in de loop van de tijd te leren? Kan het zijn prestatiekenmerken aanpassen, en zo ja, wat zijn de grenzen aan die aanpassing?

  • Als het systeem bedoeld is om na verloop van tijd te leren, heeft dat dan mogelijk invloed op het beoogde gebruik?

Paragraaf 5.3 van het rapport, Identificatie van kenmerken met betrekking tot veiligheid, bevat een schat aan informatie over waar je op moet letten bij het werken met AI en machine learning. 

Gegevensbeheer 

Aangezien medische apparaten op basis van machine learning moeten worden "getraind" op gegevens voordat ze bij patiënten worden gebruikt, zijn er een aantal risico's verbonden aan gegevensbeheer. Dit is een lang hoofdstuk, maar enkele van de meest kritieke problemen met gegevensbeheer zijn:

  • Incorrecte data

  • Onvolledige gegevens

  • Onjuiste afhandeling van uitschieters in de data

  • Inconsistente gegevens die bijvoorbeeld van bron tot bron verschillen

  • Subjectieve gegevens die zijn beïnvloed door persoonlijke overtuigingen of meningen

  • Atypische gegevens die niet de kwaliteit van gegevens vertegenwoordigen bij het daadwerkelijke gebruik van het apparaat

Vooringenomenheid

Vooringenomenheid is een belangrijke bron van potentieel risico als het gaat om de prestaties van een medisch hulpmiddel dat gebruikmaakt van machine learning. Hoewel niet alle vooroordelen inherent negatief zijn, zijn er een aantal verschillende manieren waarop de gegevens die worden gebruikt om ML-algoritmen te trainen kunnen zodanig vertekend zijn dat dit hun veiligheid en doeltreffendheid aantast. 

Deze vooroordelen omvatten:

  • Impliciete vooringenomenheid

  • Selectie vooroordeel 

  • Niet-normaliteit

  • Proxy-variabelen

  • Vooringenomenheid van de experimentator

  • Groepsattributiebias

  • Verwarrende variabelen

Gegevensopslag, beveiliging en privacy

Dit verwijst naar het feit dat de gegevens die worden gebruikt tijdens het ontwikkelen, testen en trainen van een ML-toepassing een aantrekkelijk doelwit kunnen zijn voor kwaadwillende actoren. 

En zoals TIR34971 opmerkt: "Hoewel veel van de technieken voor het waarborgen van cyberbeveiliging van toepassing zijn op ML, kan het vanwege de ondoorzichtige aard van ML moeilijk te detecteren zijn wanneer de beveiliging is aangetast." Dit betekent dat elk MedTech-bedrijf dat ML in hun apparaten gebruikt, de prestaties van hun producten moet controleren en passende maatregelen moet nemen om de privacy te waarborgen, zoals het gebruik van synthetische gegevens

Oververtrouwen

Overtrust verwijst naar de neiging van gebruikers om vertrouwen in technologie te ontwikkelen tot het punt dat ze er overdreven afhankelijk van worden en de technologie vertrouwen, zelfs wanneer de omstandigheden aangeven dat ze sceptisch zouden moeten zijn.

Overtrust kan optreden wanneer gebruikers:

  • Ontwikkel te veel vertrouwen in het vermogen van de toepassing.

  • Risico's kleiner achten dan ze zijn en delegeren aan de applicatie.

  • Heb een zware werkdruk. De kans is groter dat u de applicatie vertrouwt als u het gevoel heeft dat u geen tijd heeft om iets zelf te doen of het werk dubbel te controleren. 

  • Hebben weinig vertrouwen in hun eigen kunnen en stellen de aanvraag uit.

Adaptieve systemen

Een adaptief systeem dat in de loop van de tijd leert terwijl het doorgaat met het verzamelen van gegevens, creëert nieuwe uitdagingen met betrekking tot wijzigingsbeheer voor het medische hulpmiddel. TIR34971 stelt voor dat fabrikanten methoden moeten gebruiken die continue validatie van deze adaptieve algoritmen ondersteunen, waardoor ze mogelijk kunnen worden teruggedraaid naar eerder gevalideerde modellen als de prestaties buiten de geaccepteerde statistieken vallen. 

Onthoud dat hoewel deze kenmerken met betrekking tot veiligheid uniek kunnen zijn voor apparaten die machine learning gebruiken, het risicobeheerproces zoals beschreven in ISO 14971 niet is veranderd. 

TIR34971 bevat ook informatie over het toepassen van wat u leert in uw risicoanalyse op uw risico-evaluatie, risicocontroles, evaluatie van restrisico's, beoordeling van risicobeheer en productie- en postproductieactiviteiten. 

Wat staat er in de bijlagen TIR34971?

Zoals vaak het geval is, geven de bijlagen in TIR34971 verduidelijking van concepten en voorbeelden van wat er in het hoofdgedeelte van de tekst is besproken.

  • bijlage A is gewoon een overzicht van de risicobeheerproces volgens ISO 14971, wat misschien eenvoudig lijkt, maar het is geweldig om als referentie te hebben terwijl je je een weg baant door het technische rapport. 

  • Bijlage B. geeft voorbeelden van machine-learning gerelateerde gevaren, evenals de relaties tussen die gevaren, hun voorzienbare opeenvolging van gebeurtenissen, gevaarlijke situaties, schade en risicobeheersingsmaatregelen.

  • Bijlage C specificeert enkele van de personeelskwalificaties die mogelijk vereist zijn om het risicobeheerproces op de juiste manier uit te voeren met een apparaat dat een ML-component heeft.

En tenslotte Bijlage D behandelt de overwegingen voor autonome systemen. Dit is een belangrijk onderdeel van uw risicobeheer, omdat de mate van autonomie in een systeem van invloed is op de risico's van het apparaat. Medische hulpmiddelen met een zekere mate van autonomie zullen specifieke risicobeheersingsmaatregelen nodig hebben om hun veiligheid en doeltreffendheid te waarborgen.

BONUSBRON: Klik hier om een ​​gratis ISO 14971:2019 Gap Analysis Tool te downloaden om compliance te garanderen en uw risicobeheerproces te verbeteren.

Kies een door AI aangedreven risicobeheeroplossing die exclusief is ontworpen voor medische apparaten

Bij Greenlight Guru weten we dat risicobeheer meer is dan zomaar een checkbox-activiteit; het is een integraal onderdeel van de gehele levenscyclus van medische hulpmiddelen. 

Daarom hebben we een unieke tool voor risicobeheer ontwikkeld, speciaal gemaakt voor MedTech-bedrijven. De risicooplossingen van Greenlight Guru biedt MedTech-teams een slimmere manier om risico's voor hun apparaat(en) en hun bedrijf te beheren. 

In lijn met zowel ISO 14971:2019 als de risicogebaseerde vereisten van ISO 13485:2016, combineert onze complete oplossing door AI gegenereerde inzichten met intuïtieve, speciaal gebouwde risicobeheerworkflows voor gestroomlijnde naleving en verminderd risico gedurende de gehele levenscyclus van apparaten.

Klaar om te zien hoe Risk Solutions de manier kan veranderen waarop uw bedrijf risicobeheer benadert? Haal dan jouw gratis demo van Greenlight Guru <p></p> 

spot_img

Laatste intelligentie

spot_img