Λογότυπο Zephyrnet

Αναπτύχθηκε εταιρείες τεχνητής νοημοσύνης με σημαντικό κίνδυνο, λέει η έκθεση FICO 

Ημερομηνία:

Οι περισσότερες εταιρείες αναπτύσσουν τεχνητή νοημοσύνη σε σημαντικό κίνδυνο, βρίσκει μια νέα έκθεση από την Fair Isaac Corp., λόγω των ανώριμων διαδικασιών για τη διακυβέρνηση AI. (Πίστωση: Getty Images) 

Από τον John P. Desmond, AI Trends Editor  

Μια νέα έκθεση σχετικά με την υπεύθυνη τεχνητή νοημοσύνη από την Fair Isaac Corp. (FICO), η εταιρεία που σας φέρνει πιστοληπτικές αξιολογήσεις, διαπιστώνει ότι οι περισσότερες εταιρείες αναπτύσσουν AI με σημαντικό κίνδυνο. 

Η έκθεση, Η κατάσταση της υπεύθυνης τεχνητής νοημοσύνης: 2021, αξιολογεί πόσο καλά κάνουν οι εταιρείες στην υιοθέτηση υπεύθυνης τεχνητής νοημοσύνης, διασφαλίζοντας ότι χρησιμοποιούν AI με ηθικό, διαφανή, ασφαλή και προς το συμφέρον των πελατών τους.  

Scott Zoldi, Διευθύνων Σύμβουλος Analytics, FICO

«Η σύντομη απάντηση: όχι υπέροχη», δηλώνει ο Scott Zoldi, Διευθύνων Σύμβουλος της Analytics στο FICO, σε πρόσφατο λογαριασμό στο blog του Fair Isaac. Σε συνεργασία με την εταιρεία πληροφοριών της αγοράς Corinium για τη δεύτερη έκδοση της έκθεσης, οι αναλυτές ερεύνησαν 100 ηγέτες που ασχολήθηκαν με την τεχνητή νοημοσύνη από τομείς χρηματοοικονομικών υπηρεσιών, ασφάλισης, λιανικής, υγειονομικής περίθαλψης και φαρμακευτικών προϊόντων, μεταποίησης, δημόσιων και βοηθητικών υπηρεσιών τον Φεβρουάριο και τον Μάρτιο του 2021.  

Ανάμεσα στα κυριότερα σημεία: 

  • Το 65% των εταιρειών των ερωτηθέντων δεν μπορεί να εξηγήσει τον τρόπο λήψης συγκεκριμένων αποφάσεων ή προβλέψεων μοντέλου AI. 
  • Το 73% προσπάθησε να πάρει εκτελεστική υποστήριξη για την ιεράρχηση της ηθικής της τεχνητής νοημοσύνης και των υπεύθυνων πρακτικών AI. και  
  • Μόνο το 20% παρακολουθεί ενεργά τα μοντέλα παραγωγής τους για δικαιοσύνη και ηθική. 

Με παγκόσμια έσοδα για την αγορά τεχνητής νοημοσύνης, συμπεριλαμβανομένων λογισμικού, υλικού και υπηρεσιών, η πρόβλεψη των ερευνητών αγοράς IDC θα αυξηθεί κατά 16.4% το 2021 σε 327.5 δισεκατομμύρια δολάρια, αυξάνεται η εξάρτηση από την τεχνολογία AI. Μαζί με αυτό, οι συντάκτες της έκθεσης αναφέρουν "επείγουσα ανάγκη" για να αναδείξουν τη σημασία της διακυβέρνησης της τεχνητής νοημοσύνης και της υπεύθυνης τεχνητής νοημοσύνης στο επίπεδο της αίθουσας συνεδριάσεων.  

Ορισμός υπεύθυνου AI 

Ο Ζόλντι, ο οποίος κατέχει περισσότερα από 100 κατοχυρωμένα διπλώματα ευρεσιτεχνίας σε τομείς όπως αναλύσεις απάτης, ασφάλεια στον κυβερνοχώρο, συλλογές και πιστωτικός κίνδυνος, μελετά απρόβλεπτη συμπεριφορά. Ορίζει Υπεύθυνη τεχνητή νοημοσύνη εδώ και έχει δώσει πολλές συζητήσεις για το θέμα σε όλο τον κόσμο.  

T ηΟι οργανώσεις αξιοποιούν όλο και περισσότερο την AI για να αυτοματοποιήσουν βασικές διαδικασίες που, σε ορισμένες περιπτώσεις, λαμβάνουν αποφάσεις που αλλάζουν τη ζωή για τους πελάτες τους », δήλωσε. «Η μη κατανόηση του τρόπου λήψης αυτών των αποφάσεων και του αν είναι ηθικές και ασφαλείς, δημιουργεί τεράστιες νομικές ευπάθειες και επιχειρηματικό κίνδυνο». 

Η μελέτη FICO διαπίστωσε ότι τα στελέχη δεν έχουν συναίνεση σχετικά με το ποιες ευθύνες μιας εταιρείας πρέπει να είναι όταν πρόκειται για AI. Σχεδόν οι μισοί (45%) δήλωσαν ότι δεν είχαν καμία ευθύνη πέραν της κανονιστικής συμμόρφωσης για τη διαχείριση ηθικών συστημάτων AI που λαμβάνουν αποφάσεις που θα μπορούσαν να επηρεάσουν άμεσα την επιβίωση των ανθρώπων. «Κατά την άποψή μου, αυτό αναφέρεται στην ανάγκη για περισσότερη ρύθμιση», δήλωσε.  

Απαιτούνται πλαίσια διακυβέρνησης μοντέλου AI για την παρακολούθηση μοντέλων AI για να διασφαλιστεί ότι οι αποφάσεις που λαμβάνουν είναι υπεύθυνες, δίκαιες, διαφανείς και υπεύθυνες. Μόνο το 20% των ερωτηθέντων παρακολουθούν ενεργά το AI στην παραγωγή σήμερα, σύμφωνα με την έκθεση. «Οι εκτελεστικές ομάδες και τα διοικητικά συμβούλια δεν μπορούν να πετύχουν με ένα μάντρα« do no κακό »χωρίς ένα πρότυπο οδηγό επιβολής διακυβέρνησης και εταιρικές διαδικασίες για την παρακολούθηση της τεχνητής νοημοσύνης στην παραγωγή», δήλωσε ο Zoldi. «Οι ηγέτες της τεχνητής νοημοσύνης πρέπει να καθορίσουν πρότυπα για τις εταιρείες τους όπου δεν υπάρχουν σήμερα και να προωθήσουν την ενεργό παρακολούθηση». 

Η επιχείρηση αναγνωρίζει ότι τα πράγματα πρέπει να αλλάξουν. Περίπου το 63% πιστεύει ότι η ηθική της τεχνητής νοημοσύνης και η υπεύθυνη τεχνητή νοημοσύνη θα αποτελέσουν πυρήνα της στρατηγικής του οργανισμού τους εντός δύο ετών.  

Cortnie Abercrombie, Ιδρυτής και Διευθύνων Σύμβουλος, AI Truth

«Νομίζω ότι τώρα υπάρχει πολύ περισσότερη συνειδητοποίηση ότι τα πράγματα πάνε στραβά», δήλωσε η Cortnie Abercrombie, Ιδρυτής και Διευθύνων Σύμβουλος της υπεύθυνης ομάδας AI AI Truth, και συνεισφέροντας στην έκθεση FICO. "Αλλά δεν ξέρω ότι υπάρχει απαραίτητα περισσότερη γνώση για το πώς συμβαίνει αυτό." 

Ορισμένες εταιρείες αντιμετωπίζουν ένταση μεταξύ των ηγετικών στελεχών που μπορεί να θέλουν να εισέλθουν γρήγορα μοντέλα στην παραγωγή και επιστημόνων δεδομένων που θέλουν να αφιερώσουν χρόνο για να κάνουν τα πράγματα σωστά. «Έχω δει πολλά από αυτά που αποκαλώ κακοποιημένους επιστήμονες δεδομένων», δήλωσε ο Abercrombie. 

Μικρή συναίνεση γύρω από ποιες είναι οι ηθικές ευθύνες γύρω από το AI  

Ganna Pogrebna, Υπεύθυνος Επιστήμης Δεοντολογίας Συμπεριφοράς, The Alan Turing Institute

Όσον αφορά την έλλειψη συναίνεσης σχετικά με τις ηθικές ευθύνες γύρω από την τεχνητή νοημοσύνη, οι εταιρείες πρέπει να εργαστούν σε αυτό, προτείνει η έκθεση. «Προς το παρόν, οι εταιρείες αποφασίζουν μόνες τους ό, τι νομίζουν ότι είναι ηθικό και ανήθικο, κάτι που είναι εξαιρετικά επικίνδυνο. Η αυτορρύθμιση δεν λειτουργεί », δήλωσε η Ganna Pogrebna, επικεφαλής της επιστήμης δεδομένων συμπεριφοράς στο Ινστιτούτο Alan Turing, επίσης συνεισφέροντας στην έκθεση FICO. «Συνιστώ σε κάθε εταιρεία να εκτιμήσει το επίπεδο βλάβης που θα μπορούσε ενδεχομένως να προκύψει με την ανάπτυξη ενός συστήματος AI, έναντι του επιπέδου του καλού που θα μπορούσε ενδεχομένως να έρθει», δήλωσε.   

Για την καταπολέμηση της προκατάληψης μοντέλου AI, η έκθεση FICO διαπίστωσε ότι περισσότερες εταιρείες φέρνουν τη διαδικασία εσωτερικά, με μόνο το 10% των στελεχών που ερωτήθηκαν να βασίζονται σε μια εταιρεία τρίτου μέρους για την αξιολόγηση μοντέλων για αυτά.   

Η έρευνα δείχνει ότι οι επιχειρήσεις χρησιμοποιούν μια σειρά από προσεγγίσεις για να εξαλείψουν τις αιτίες της προκατάληψης της τεχνητής νοημοσύνης κατά τη διάρκεια της ανάπτυξης μοντέλων και ότι λίγοι οργανισμοί έχουν μια ολοκληρωμένη σειρά ελέγχων και ισορροπιών.  

Μόνο το 22% των ερωτηθέντων δήλωσαν ότι ο οργανισμός τους διαθέτει ένα συμβούλιο δεοντολογίας AI για να εξετάζει ερωτήσεις σχετικά με την ηθική και τη δικαιοσύνη του AI. Μία στις τρεις αναφορές έχει μια ομάδα επικύρωσης μοντέλων για την αξιολόγηση μοντέλων που έχουν αναπτυχθεί πρόσφατα, και το 38% αναφέρει ότι έχει βήματα μετριασμού προκαταλήψεων δεδομένων ενσωματωμένα στην ανάπτυξη μοντέλων.  

Η φετινή έρευνα δείχνει μια εκπληκτική μετατόπιση των επιχειρηματικών προτεραιοτήτων μακριά από την επεξήγηση και την ακρίβεια του μοντέλου. «Οι εταιρείες πρέπει να είναι σε θέση να εξηγήσουν στους ανθρώπους γιατί απορρίφθηκε οτιδήποτε πόρος τους αρνήθηκε από μια AI», δήλωσε η Abercrombie της AI Truth.  

Οι επίμαχες επιθέσεις AI αναφέρθηκαν ότι αυξάνονται  

Οι επιθέσεις Adversarial AI, στις οποίες εισέρχονται εισροές σε μοντέλα μηχανικής μάθησης σε μια προσπάθεια να αποτραπεί η σωστή λειτουργία του μοντέλου, αυξάνονται, σύμφωνα με την έκθεση, με το 30% των οργανισμών να αναφέρουν αύξηση, σε σύγκριση με 12% το προηγούμενο έτος επισκόπηση. Ο Ζόλντι δήλωσε ότι το αποτέλεσμα τον εξέπληξε και πρότεινε ότι η έρευνα χρειάζεται ένα σύνολο ορισμών σχετικά με την αντιπαραβολή του AI.  

Η δηλητηρίαση δεδομένων και άλλες τεχνολογικές τεχνολογίες τεχνητής νοημοσύνης συνορεύουν με την ασφάλεια στον κυβερνοχώρο. «Αυτό μπορεί να είναι μια περιοχή όπου η ασφάλεια στον κυβερνοχώρο δεν είναι εκεί που πρέπει να είναι», δήλωσε ο Zoldi.  

Η οργανωτική πολιτική αναφέρθηκε ως το νούμερο ένα εμπόδιο στην καθιέρωση υπεύθυνων πρακτικών τεχνητής νοημοσύνης. «Αυτό που μας λείπει σήμερα είναι ειλικρινής και ευθεία συζήτηση σχετικά με τους αλγόριθμους που είναι πιο υπεύθυνοι και ασφαλείς», δήλωσε ο Zoldi. 

Οι ερωτηθέντες από εταιρείες που πρέπει να συμμορφώνονται με τους κανονισμούς έχουν λίγη εμπιστοσύνη ότι κάνουν καλή δουλειά, με το 31% να αναφέρει τις διαδικασίες που χρησιμοποιούν για να διασφαλίσουν ότι τα έργα συμμορφώνονται με τους κανονισμούς είναι αποτελεσματικά. Περίπου το 68% αναφέρει ότι οι διαδικασίες συμμόρφωσης του μοντέλου τους είναι αναποτελεσματικές.  

Όσον αφορά τα μονοπάτια ελέγχου ανάπτυξης μοντέλων, τέσσερα τοις εκατό παραδέχονται ότι δεν διατηρούν τυποποιημένα ίχνη ελέγχου, πράγμα που σημαίνει ότι ορισμένα μοντέλα AI που χρησιμοποιούνται στις επιχειρήσεις σήμερα κατανοούνται μόνο από τους επιστήμονες δεδομένων που τους κωδικοποίησαν αρχικά.  

Αυτό υπολείπεται αυτού που θα μπορούσε να περιγραφεί ως Υπεύθυνος AI, κατά την άποψη της Melissa Koide, Διευθύνων Σύμβουλος του ερευνητικού οργανισμού AI FinRegLab, και συνεισφέροντας στην έκθεση FICO. «Αντιμετωπίζω πρωτίστως τον κίνδυνο συμμόρφωσης και τις εύλογες πλευρές δανεισμού τραπεζών και fintechs», δήλωσε. «Νομίζω ότι είναι όλοι αρκετά εξοικειωμένοι και αρκετά ανήσυχοι για το πώς διακυβέρνησης χρησιμοποιούν επιτυχώς περισσότερα αδιαφανή μοντέλα».  

Περισσότεροι οργανισμοί συνεργάζονται γύρω από τη μετάβαση στο Υπεύθυνο AI, συμπεριλαμβανομένου του Εταιρική σχέση για το AI, σχηματίστηκε το 2016 και περιλαμβάνει Amazon, Facebook, Google, Microsoft και IBM, The Ευρωπαϊκή Επιτροπή το 2019 δημοσίευσε ένα σύνολο μη δεσμευτικών δεοντολογικών κατευθυντήριων γραμμών για την ανάπτυξη αξιόπιστης τεχνητής νοημοσύνης, με συμβολή 52 ανεξάρτητων εμπειρογνωμόνων, σύμφωνα με πρόσφατη έκθεση στο VentureBeat. Επιπλέον, το Οργανισμός Οικονομικής Συνεργασίας και Ανάπτυξης (ΟΟΣΑ) έχει δημιουργήσει ένα παγκόσμιο πλαίσιο για την τεχνητή νοημοσύνη γύρω από κοινές τιμές  

Επίσης, η Παγκόσμιο Οικονομικό Φόρουμ αναπτύσσει μια εργαλειοθήκη για εταιρικούς υπαλλήλους για τη λειτουργία της τεχνητής νοημοσύνης με υπεύθυνο τρόπο. Οι ηγέτες από όλο τον κόσμο συμμετέχουν.   

«Ξεκινήσαμε την πλατφόρμα για να δημιουργήσουμε ένα πλαίσιο για να επιταχύνουμε τα οφέλη και να μετριάσουμε τους κινδύνους της AI και ML», δήλωσε ο Kay Firth-Butterfield, επικεφαλής της AI και Machine Learning και μέλος της Εκτελεστικής Επιτροπής στο Παγκόσμιο Οικονομικό Φόρουμ. «Η πρώτη θέση για κάθε εταιρεία να ξεκινήσει όταν αναπτύσσει υπεύθυνη AI είναι με μια δήλωση δεοντολογίας. Αυτό δημιουργεί τον χάρτη πορείας σας για να είναι επιτυχής και υπεύθυνος. " 

Ο Wison Pang, ο CTO της Appen, μια εταιρεία ανάπτυξης μηχανικής μάθησης, που συνέταξε το άρθρο του VentureBeat, ανέφερε τρεις τομείς εστίασης για μια μετάβαση στην Υπεύθυνη AI: διαχείριση κινδύνου, διακυβέρνηση και ηθική.  

«Οι εταιρείες που ενσωματώνουν αγωγούς και ενσωματώνουν ελέγχους σε όλη την κατασκευή, την ανάπτυξη και πέρα ​​από αυτό είναι πιο πιθανό να βιώσουν επιτυχία», δήλωσε.  

Διαβάστε τα άρθρα και τις πληροφορίες προέλευσης ο blog του Fair Isaacστην έκθεση Fair Isaac, Η κατάσταση της υπεύθυνης τεχνητής νοημοσύνης: 2021, σχετικά με τον ορισμό στο Υπεύθυνη τεχνητή νοημοσύνη και VentureBeat. 

Coinsmart. Beste Bitcoin-Börse στην Ευρώπη
Πηγή: https://www.aitrends.com/ethics-and-social-issues/deployed-ai-putting-companies-at-significant-risk-says-fico-report/

spot_img

Τελευταία Νοημοσύνη

spot_img