Zephyrnet-Logo

Eingesetzte KI stellt Unternehmen einem erheblichen Risiko aus, sagt FICO Report 

Datum:

Die meisten Unternehmen setzen KI mit erheblichem Risiko ein, findet ein neuer Bericht der Fair Isaac Corp. aufgrund unausgereifter Prozesse für die KI-Governance. (Bildnachweis: Getty Images) 

Von John P. Desmond, AI Trends Editor  

Ein neuer Bericht über verantwortungsvolle KI von Fair Isaac Corp. (FICO), dem Unternehmen, das Ihnen Kreditratings liefert, stellt fest, dass die meisten Unternehmen KI mit erheblichen Risiken einsetzen. 

Der Bericht, Der Staat der verantwortungsvollen KI: 2021, bewertet, wie gut Unternehmen bei der Einführung einer verantwortungsvollen KI sind und stellt sicher, dass sie KI ethisch, transparent, sicher und im besten Interesse ihrer Kunden einsetzen.  

Scott Zoldi, Chief Analytics Officer, FICO

„Die kurze Antwort: nicht großartig“, sagt Scott Zoldi, Chief Analytics Officer bei FICO, in einem kürzlich veröffentlichten Bericht über die Blog von Fair Isaac. In Zusammenarbeit mit dem Marktforschungsunternehmen Corinium für die zweite Ausgabe des Berichts befragten die Analysten im Februar und März 100 2021 KI-fokussierte Führungskräfte aus den Bereichen Finanzdienstleistungen, Versicherungen, Einzelhandel, Gesundheitswesen und Pharma, Fertigung, öffentliche Verwaltung und Versorgungsunternehmen.  

Unter den Highlights: 

  • 65 % der Unternehmen der Befragten können nicht erklären, wie bestimmte KI-Modellentscheidungen oder -vorhersagen getroffen werden; 
  • 73 % hatten Schwierigkeiten, Unterstützung von der Führungsebene für die Priorisierung von KI-Ethik und verantwortungsvollen KI-Praktiken zu erhalten und  
  • Nur 20 % überwachen ihre Modelle aktiv in der Produktion auf Fairness und Ethik. 

Mit den weltweiten Umsätzen für den KI-Markt, einschließlich Software, Hardware und Dienstleistungen, die von IDC-Marktforschern ein Wachstum von 16.4% im Jahr 2021 auf 327.5 Milliarden US-Dollar prognostizieren, steigt die Abhängigkeit von KI-Technologie. Darüber hinaus nennen die Autoren des Berichts „eine dringende Notwendigkeit“, die Bedeutung von KI-Governance und verantwortungsvoller KI auf Vorstandsebene zu heben.  

Verantwortungsvolle KI definieren 

Zoldi, der mehr als 100 Autorenpatente in Bereichen wie Betrugsanalyse, Cybersicherheit, Inkasso und Kreditrisiko hält, untersucht unvorhersehbares Verhalten. Er definiert Verantwortliche KI hier und hat weltweit viele Vorträge zu diesem Thema gehalten.  

"OOrganisationen nutzen zunehmend KI, um wichtige Prozesse zu automatisieren, die in einigen Fällen lebensverändernde Entscheidungen für ihre Kunden treffen“, sagte er. „Nicht zu verstehen, wie diese Entscheidungen getroffen werden und ob sie ethisch und sicher sind, schafft enorme rechtliche Anfälligkeiten und Geschäftsrisiken.“ 

Die FICO-Studie ergab, dass Führungskräfte keinen Konsens darüber haben, welche Verantwortlichkeiten ein Unternehmen in Bezug auf KI haben sollte. Fast die Hälfte (45 %) gab an, über die Einhaltung gesetzlicher Vorschriften hinaus keine Verantwortung für den ethischen Umgang mit KI-Systemen zu tragen, die Entscheidungen treffen, die sich direkt auf den Lebensunterhalt der Menschen auswirken könnten. „Aus meiner Sicht spricht dies für die Notwendigkeit von mehr Regulierung“, sagte er.  

KI-Modell-Governance-Frameworks sind erforderlich, um KI-Modelle zu überwachen, um sicherzustellen, dass die von ihnen getroffenen Entscheidungen rechenschaftspflichtig, fair, transparent und verantwortungsbewusst sind. Nur 20 % der Befragten überwachen die KI in der Produktion heute aktiv, so der Bericht. „Führungsteams und Vorstände können ohne ein modellhaftes Handbuch zur Durchsetzung der Governance und Unternehmensprozesse zur Überwachung der KI in der Produktion nicht mit dem Mantra ‚Tu nichts Böses‘ erfolgreich sein“, sagte Zoldi. „KI-Führungskräfte müssen Standards für ihre Unternehmen etablieren, wo es heute keine gibt, und eine aktive Überwachung fördern.“ 

Die Wirtschaft erkennt, dass sich die Dinge ändern müssen. Etwa 63 % glauben, dass KI-Ethik und verantwortungsvolle KI innerhalb von zwei Jahren zum Kern der Strategie ihres Unternehmens werden werden.  

Cortnie Abercrombie, Gründerin und CEO, AI Truth

„Ich denke, es gibt jetzt viel mehr Bewusstsein dafür, dass die Dinge schief laufen“, sagte Cortnie Abercrombie, Gründerin und CEO der verantwortlichen KI-Befürwortungsgruppe AI Truth und Mitwirkende am FICO-Bericht. "Aber ich weiß nicht, ob es unbedingt mehr Wissen darüber gibt, wie das passiert." 

Einige Unternehmen erleben Spannungen zwischen Führungskräften, die Modelle schnell in Produktion bringen möchten, und Datenwissenschaftlern, die sich die Zeit nehmen wollen, um die Dinge richtig zu machen. „Ich habe viel von dem gesehen, was ich missbrauchte Datenwissenschaftler nenne“, sagte Abercrombie. 

Wenig Konsens über die ethische Verantwortung von KI  

Ganna Pogrebna, Leiterin für Behavioral Data Science, Alan Turing Institute

In Bezug auf den fehlenden Konsens über die ethische Verantwortung im Zusammenhang mit KI müssen Unternehmen daran arbeiten, schlug der Bericht vor. „Im Moment entscheiden Unternehmen selbst, was sie für ethisch und unethisch halten, was extrem gefährlich ist. Selbstregulierung funktioniert nicht“, sagte Ganna Pogrebna, Lead for Behavioral Data Science am Alan Turing Institute, ebenfalls Mitwirkender am FICO-Bericht. „Ich empfehle jedem Unternehmen, das Ausmaß des Schadens, der potenziell mit der Bereitstellung eines KI-Systems verbunden sein könnte, im Vergleich zu dem Ausmaß des Gutes zu bewerten, das potenziell entstehen könnte“, sagte sie.   

Um die Verzerrung von KI-Modellen zu bekämpfen, stellte der FICO-Bericht fest, dass immer mehr Unternehmen den Prozess intern einführen, wobei sich nur 10 % der befragten Führungskräfte auf eine externe Firma verlassen, um Modelle für sie zu evaluieren.   

Die Forschung zeigt, dass Unternehmen während der Modellentwicklung eine Reihe von Ansätzen verwenden, um Ursachen für KI-Bias zu finden, und dass nur wenige Unternehmen über eine umfassende Reihe von Checks and Balances verfügen.  

Nur 22 % der Befragten gaben an, dass ihre Organisation ein KI-Ethikgremium hat, das Fragen zur KI-Ethik und -Fairness prüft. Jeder Dritte gibt an, über ein Modellvalidierungsteam zur Bewertung neu entwickelter Modelle zu verfügen, und 38 % geben an, dass Schritte zur Minderung von Datenverzerrungen in die Modellentwicklung integriert sind.  

Die diesjährige Studie zeigt eine überraschende Verschiebung der geschäftlichen Prioritäten weg von der Erklärbarkeit und hin zur Modellgenauigkeit. „Unternehmen müssen in der Lage sein, den Leuten zu erklären, warum ihnen jede Ressource, die ihnen von einer KI verweigert wurde, verweigert wurde“, sagte Abercrombie von AI Truth.  

Berichten zufolge nehmen feindliche KI-Angriffe zu  

Gegnerische KI-Angriffe, bei denen Eingaben in Modelle des maschinellen Lernens gehackt werden, um den korrekten Betrieb des Modells zu vereiteln, nehmen laut dem Bericht zu, wobei 30 % der Unternehmen einen Anstieg melden, verglichen mit 12 % im Vorjahr Umfrage. Zoldi erklärte, dass ihn das Ergebnis überraschte und schlug vor, dass die Umfrage eine Reihe von Definitionen rund um die gegnerische KI benötigt.  

Data Poisoning und andere feindliche KI-Technologien grenzen an Cybersicherheit. „Dies ist möglicherweise ein Bereich, in dem die Cybersicherheit nicht dort ist, wo sie sein muss“, sagte Zoldi.  

Die Unternehmenspolitik wurde als größtes Hindernis für die Einführung verantwortungsbewusster KI-Praktiken genannt. „Was uns heute fehlt, ist ehrliches und direktes Reden darüber, welche Algorithmen verantwortungsbewusster und sicherer sind“, sagte Zoldi. 

Befragte von Unternehmen, die Vorschriften einhalten müssen, haben wenig Vertrauen, dass sie ihre Arbeit gut machen. 31 % berichten über die Prozesse, die sie verwenden, um sicherzustellen, dass Projekte die Vorschriften einhalten. Etwa 68 % geben an, dass ihre Modell-Compliance-Prozesse ineffektiv sind.  

Was die Audit-Trails für die Modellentwicklung betrifft, so geben vier Prozent zu, keine standardisierten Audit-Trails zu pflegen, was bedeutet, dass einige KI-Modelle, die heute in der Wirtschaft verwendet werden, nur von den Datenwissenschaftlern verstanden werden, die sie ursprünglich codiert haben.  

Dies ist nach Ansicht von Melissa Koide, CEO der KI-Forschungsorganisation FinRegLab und Mitarbeiterin des FICO-Berichts, nicht der Fall, was als verantwortungsvolle KI bezeichnet werden könnte. „Ich beschäftige mich hauptsächlich mit Compliance-Risiken und den fairen Kreditvergabeseiten von Banken und Fintechs“, sagte sie. „Ich denke, sie sind alle sehr darauf eingestellt und besorgt darüber, wie sie erfolgreich mit undurchsichtigeren Modellen umgehen.“  

Immer mehr Organisationen schließen sich im Hinblick auf den Wechsel zu verantwortungsvoller KI zusammen, einschließlich der Partnerschaft auf AI, gegründet im Jahr 2016 und umfasst Amazon, Facebook, Google, Microsoft und IBM, The Europäische Kommission im Jahr 2019 eine Reihe unverbindlicher ethischer Richtlinien für die Entwicklung einer vertrauenswürdigen KI mit Beiträgen von 52 unabhängigen Experten veröffentlicht, so ein kürzlich veröffentlichter Bericht in VentureBeat. Darüber hinaus ist die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) hat einen globalen Rahmen für KI rund um gemeinsame Werte geschaffen.  

Auch die Weltwirtschaftsforum entwickelt ein Toolkit für Corporate Officers zur verantwortungsvollen Operationalisierung von KI. Es nehmen Führungskräfte aus der ganzen Welt teil.   

„Wir haben die Plattform ins Leben gerufen, um einen Rahmen zu schaffen, um die Vorteile von KI und ML zu beschleunigen und die Risiken zu mindern“, sagte Kay Firth-Butterfield, Head of AI and Machine Learning und Mitglied des Executive Committee beim World Economic Forum. „Der erste Ausgangspunkt für den Einsatz von verantwortungsvoller KI für jedes Unternehmen ist eine Ethikerklärung. So wird Ihre KI-Roadmap erfolgreich und verantwortungsbewusst aufgestellt.“ 

Wison Pang, CTO von Appen, einem Entwicklungsunternehmen für maschinelles Lernen, das den VentureBeat-Artikel verfasst hat, nannte drei Schwerpunktbereiche für einen Wechsel zu verantwortungsvoller KI: Risikomanagement, Governance und Ethik.  

„Unternehmen, die Pipelines integrieren und Kontrollen während des gesamten Baus, der Bereitstellung und darüber hinaus einbetten, werden mit größerer Wahrscheinlichkeit erfolgreich sein“, sagte er.  

Lesen Sie die Quellartikel und Informationen zu   Blog von Fair Isaacim Bericht von Fair Isaac, Der Staat der verantwortungsvollen KI: 2021, zur Definition in Verantwortliche KI und im VentureBeat. 

Münzsmart. Beste Bitcoin-Börse in Europa
Quelle: https://www.aitrends.com/ethics-and-social-issues/deployed-ai-putting-companies-at-significant-risk-says-fico-report/

spot_img

Neueste Intelligenz

spot_img