Zephyrnet-logo

Visualisatie en kennisontdekking van interpreteerbare modellen. (arXiv: 2005.03632v1 [cs.LG])

Datum:

[Ingediend op 7 mei 2020]

PDF downloaden

Abstract: Steeds meer sectoren die mensenlevens beïnvloeden, gebruiken Machine
Leermiddelen (ML). Vandaar de noodzaak om hun werkingsmechanisme te begrijpen
en het evalueren van hun eerlijkheid bij de besluitvorming, worden van het grootste belang,
luidt het tijdperk van Explainable AI (XAI) in. In deze bijdrage hebben we geïntroduceerd
een paar intrinsiek interpreteerbare modellen waar ook mee om kan gaan
ontbrekende waarden, naast het extraheren van kennis uit de dataset en over
het probleem. Deze modellen zijn ook in staat om de classificator te visualiseren
en beslissingsgrenzen: het zijn de hoekgebaseerde varianten van Learning Vector
Kwantisering. We hebben de algoritmen gedemonstreerd op een synthetische dataset en een
real-world one (gegevensset voor hartziekten uit de UCI-repository). Het nieuwe
ontwikkelde classificaties hielpen bij het onderzoeken van de complexiteit van de UCI
dataset als een probleem met meerdere klassen. De prestaties van de ontwikkelde classificatoren
waren vergelijkbaar met die gerapporteerd in de literatuur voor deze dataset, met
extra waarde van interpreteerbaarheid, wanneer de dataset als binair werd behandeld
klasse probleem.

Inzendingsgeschiedenis

Van: Sreejita Ghosh [e-mail bekijken]
[V1]
Do 7 mei 2020 17:37:06 UTC (1,986 KB)

Bron: http://arxiv.org/abs/2005.03632

spot_img

Laatste intelligentie

spot_img