Λογότυπο Zephyrnet

Δίνοντας στην τεχνητή νοημοσύνη μια αίσθηση ενσυναίσθησης θα μπορούσε να μας προστατεύσει από τις χειρότερες παρορμήσεις της

Ημερομηνία:

Στην ταινία M3GAN, μια προγραμματίστρια παιχνιδιών δίνει στην πρόσφατα ορφανή ανιψιά της, την Κάντι, ένα ρομπότ που λειτουργεί με τεχνητή νοημοσύνη σε μέγεθος παιδιού με έναν στόχο: να προστατεύσει την Κάντι. Το ρομπότ M3GAN συμπάσχει με το τραύμα του Cady. Αλλά τα πράγματα σύντομα πηγαίνουν νότια, με το ρομπότ μεγέθους πίντας να επιτίθεται σε οτιδήποτε και σε οποιονδήποτε θεωρεί ότι αποτελεί απειλή για τον Κάντι.

Το M3GAN δεν ήταν κακόβουλο. Ακολούθησε τον προγραμματισμό του, αλλά χωρίς καμία φροντίδα ή σεβασμό για τα άλλα όντα—τελικά συμπεριλαμβανομένου του Cady. Κατά μία έννοια, καθώς ασχολήθηκε με τον φυσικό κόσμο, το M3GAN έγινε κοινωνιοπαθητικός τεχνητής νοημοσύνης.

Το κοινωνιοπαθητικό AI δεν είναι απλώς ένα θέμα που διερευνάται στο Χόλιγουντ. Για τον Δρ. Leonardo Christov-Moore από το Πανεπιστήμιο της Νότιας Καλιφόρνια και τους συναδέλφους του, είναι καιρός να οικοδομήσουμε τεχνητή ενσυναίσθηση στην τεχνητή νοημοσύνη - και να εξαλείψουμε τυχόν αντικοινωνικές συμπεριφορές στην αρχή.

In μια έκθεση δημοσιεύθηκε την περασμένη εβδομάδα στις Επιστημονική Ρομποτική, η ομάδα υποστήριξε για α νευροεπιστήμη προοπτική για ενσωμάτωση της ενσυναίσθησης σε γραμμές κώδικα. Το κλειδί είναι να προσθέσετε «ένστικτα του εντέρου» για επιβίωση—για παράδειγμα, την ανάγκη αποφυγής του σωματικού πόνου. Με την αίσθηση του πώς μπορεί να «πληγωθεί», ένας πράκτορας AI θα μπορούσε στη συνέχεια να χαρτογραφήσει αυτή τη γνώση σε άλλους. Είναι παρόμοιο με τον τρόπο με τον οποίο οι άνθρωποι μετρούν ο ένας τα συναισθήματα του άλλου: Καταλαβαίνω και νιώθω τον πόνο σου επειδή έχω ξαναπάει εκεί.

Οι πράκτορες τεχνητής νοημοσύνης που βασίζονται στην ενσυναίσθηση προσθέτουν ένα επιπλέον στρώμα προστατευτικών κιγκλιδωμάτων που «αποτρέπει τη μη αναστρέψιμη σοβαρή βλάβη». είπε Κριστόφ-Μουρ. Είναι πολύ δύσκολο να βλάψετε τους άλλους εάν μιμηθείτε ψηφιακά —και επομένως «βιώνετε» τις συνέπειες.

Ψηφιακό ντα Βίντσι

Η ταχεία άνοδος του ChatGPT και άλλων μεγάλων μοντέλων παραγωγής αιφνιδίασε τους πάντες, εγείροντας αμέσως ερωτήματα σχετικά με το πώς μπορούν να ενσωματωθούν στον κόσμο μας. Μερικές χώρες είναι ήδη απαγορεύεται την τεχνολογία λόγω κινδύνων κυβερνοασφάλειας και προστασίας της ιδιωτικής ζωής. Οι εμπειρογνώμονες της τεχνητής νοημοσύνης σήκωσαν επίσης κώδωνα κινδύνου σε ανοιχτή επιστολή τους νωρίτερα φέτος που προειδοποίησε για τους «βαθίους κινδύνους για την κοινωνία» της τεχνολογίας.

Εξακολουθούμε να προσαρμοζόμαστε σε έναν κόσμο που τροφοδοτείται από AI. Αλλά καθώς αυτοί οι αλγόριθμοι υφαίνουν όλο και περισσότερο τον δρόμο τους στον ιστό της κοινωνίας, είναι καιρός να δούμε τις πιθανές συνέπειές τους. Πώς καθοδηγούμε τους πράκτορες της τεχνητής νοημοσύνης να μην κάνουν κακό, αλλά να συνεργάζονται με την ανθρωπότητα και να βοηθούν την κοινωνία;

Είναι ένα σκληρό πρόβλημα. Οι περισσότεροι αλγόριθμοι τεχνητής νοημοσύνης παραμένουν ένα μαύρο κουτί. Δεν γνωρίζουμε πώς και γιατί πολλοί αλγόριθμοι παράγουν αποφάσεις.

Ωστόσο, οι πράκτορες έχουν μια ασυνήθιστη ικανότητα να βρίσκουν «καταπληκτικές και επίσης μυστηριώδεις» λύσεις που είναι αντίθετες με τους ανθρώπους, είπε ο Christov-Moore. Δώστε τους μια πρόκληση - ας πούμε, να βρουν τρόπους να δημιουργήσουν όσο το δυνατόν περισσότερες θεραπευτικές πρωτεΐνες - και συχνά θα φαντάζονται λύσεις που οι άνθρωποι δεν έχουν καν σκεφτεί.

Η αδέσμευτη δημιουργικότητα έχει κόστος. «Το πρόβλημα είναι ότι είναι πιθανό να επιλέξουν μια λύση που θα μπορούσε να οδηγήσει σε καταστροφική, μη αναστρέψιμη βλάβη στα ζωντανά όντα, και ιδιαίτερα στους ανθρώπους», είπε ο Christov-Moore.

Η προσθήκη μιας δόσης τεχνητής ενσυναίσθησης στην τεχνητή νοημοσύνη μπορεί να είναι το ισχυρότερο προστατευτικό κιγκλίδωμα που έχουμε σε αυτό το σημείο.

Ας μιλήσουμε για συναισθήματα

Η ενσυναίσθηση δεν είναι συμπάθεια.

Για παράδειγμα: Πρόσφατα έβαλα υπεροξείδιο του υδρογόνου σε μια φρέσκια πληγή πλάτους XNUMX ιντσών. Συμπάθεια είναι όταν καταλαβαίνεις ότι ήταν επώδυνο και δείχνεις φροντίδα και συμπόνια. Ενσυναίσθηση είναι όταν φαντάζεσαι ζωντανά πώς θα ένιωθε ο πόνος πάνω σου (και θα ανατριχιάσει).

Προηγούμενη έρευνα στη νευροεπιστήμη δείχνει ότι η ενσυναίσθηση μπορεί χονδρικά να αναλυθεί σε δύο κύρια συστατικά. Το ένα είναι καθαρά λογικό: παρατηρείς τη συμπεριφορά κάποιου, αποκωδικοποιείς την εμπειρία του και συμπεραίνεις τι του συμβαίνει.

Οι περισσότερες υπάρχουσες μέθοδοι για τεχνητή ενσυναίσθηση ακολουθούν αυτόν τον δρόμο, αλλά είναι μια γρήγορη διαδρομή προς την κοινωνιοπαθητική τεχνητή νοημοσύνη. Παρόμοια με τους διαβόητους ανθρώπινους ομολόγους, αυτοί οι πράκτορες μπορεί να μιμούνται συναισθήματα αλλά να μην τα βιώνουν, ώστε να μπορούν να προβλέψουν και να χειριστούν αυτά τα συναισθήματα σε άλλους χωρίς κανένα ηθικό λόγο για να αποφύγουν τη βλάβη ή την ταλαιπωρία.

Το δεύτερο συστατικό συμπληρώνει την εικόνα. Εδώ, η τεχνητή νοημοσύνη αποκτά μια αίσθηση ευπάθειας που μοιράζεται σε ανθρώπους και άλλα συστήματα.

«Αν ξέρω απλώς σε ποια κατάσταση βρίσκεστε, αλλά δεν το μοιράζομαι καθόλου, τότε δεν υπάρχει λόγος να με συγκινήσει εκτός κι αν είχα κάποιο είδος πολύ ισχυρού ηθικού κώδικα που είχα αναπτύξει», είπε ο Christov-Moore. .

Ένα ευάλωτο AI

Ένας τρόπος για να κωδικοποιήσετε την ευπάθεια είναι να εμποτίσετε την τεχνητή νοημοσύνη με την αίσθηση ότι παραμένει ζωντανή.

Οι άνθρωποι πεινούν. Υπερθερμασμένο. Παγωμένος. Ευχάριστος. Μελαγχολικός. Χάρη στην εξέλιξη, έχουμε ένα στενό αλλά ευέλικτο παράθυρο για κάθε βιολογική μέτρηση που βοηθά στη διατήρηση της συνολικής σωματικής και ψυχικής υγείας, που ονομάζεται ομοιόσταση. Η γνώση των δυνατοτήτων του σώματος και του μυαλού μας καθιστά δυνατή την αναζήτηση οποιωνδήποτε λύσεων είναι δυνατές όταν βρισκόμαστε σε απροσδόκητα δυναμικά περιβάλλοντα.

Αυτοί οι βιολογικοί περιορισμοί δεν είναι ένα σφάλμα, αλλά μάλλον ένα χαρακτηριστικό για τη δημιουργία ενσυναίσθησης στην τεχνητή νοημοσύνη, είπαν οι συγγραφείς.

Μια προηγούμενη ιδέα για τον προγραμματισμό της τεχνητής ενσυναίσθησης στην τεχνητή νοημοσύνη είναι να γραφτούν σαφείς κανόνες για το σωστό και το λάθος. Έρχεται με εμφανή προβλήματα. Τα συστήματα που βασίζονται σε κανόνες είναι άκαμπτα και είναι δύσκολο να περιηγηθούν γύρω από ηθικά γκρίζες περιοχές. Είναι επίσης δύσκολο να καθιερωθούν, με διαφορετικούς πολιτισμούς να έχουν πολύ διαφορετικά πλαίσια για το τι είναι αποδεκτό.

Αντίθετα, η προσπάθεια για επιβίωση είναι καθολική και αποτελεί σημείο εκκίνησης για τη δημιουργία ευάλωτης τεχνητής νοημοσύνης.

«Στο τέλος της ημέρας, το κύριο πράγμα είναι ο εγκέφαλός σας… πρέπει να ασχοληθεί με το πώς να διατηρήσετε ένα ευάλωτο σώμα στον κόσμο και την εκτίμησή σας για το πόσο καλά τα πάτε σε αυτό», είπε ο Christov-Moore.

Αυτά τα δεδομένα εκδηλώνονται στη συνείδηση ​​ως συναισθήματα που επηρεάζουν τις επιλογές μας: άνετα, άβολα, πηγαίνετε εδώ, φάτε εκεί. Αυτές οι κινήσεις είναι «το βασικό αποτέλεσμα της ταινίας της ζωής μας και μας δίνουν την αίσθηση ότι [αν τα πράγματα] πάνε καλά ή δεν πάνε», είπε ο Christov-Moore. Χωρίς ένα ευάλωτο σώμα που πρέπει να συντηρηθεί -είτε ψηφιακά είτε φυσικά ως ρομπότ- ένας πράκτορας τεχνητής νοημοσύνης δεν μπορεί να έχει δέρμα στο παιχνίδι για συλλογική ζωή που τον οδηγεί προς ή μακριά από ορισμένες συμπεριφορές.

Πώς να φτιάξετε λοιπόν ένα ευάλωτο AI;

«Πρέπει να βιώσεις κάτι σαν να υποφέρεις», είπε ο Christov-Moore.

Η ομάδα δημιούργησε ένα πρακτικό σχέδιο. Ο κύριος στόχος είναι η διατήρηση της ομοιόστασης. Στο πρώτο βήμα, το «παιδί» της τεχνητής νοημοσύνης περιφέρεται σε ένα περιβάλλον γεμάτο εμπόδια, ενώ αναζητά ευεργετικές ανταμοιβές και διατηρεί τον εαυτό του ζωντανό. Στη συνέχεια, αρχίζει να αναπτύσσει μια ιδέα για το τι σκέφτονται οι άλλοι παρακολουθώντας τους. Είναι σαν ένα πρώτο ραντεβού: το παιδί με τεχνητή νοημοσύνη προσπαθεί να φανταστεί τι «σκέφτεται» μια άλλη τεχνητή νοημοσύνη (τι λέτε για μερικά φρέσκα λουλούδια;), και όταν είναι λάθος (το άλλο AI μισεί τα λουλούδια), υφίσταται ένα είδος θλίψης και προσαρμόζει τις προσδοκίες του. Με πολλαπλές προσπάθειες, η τεχνητή νοημοσύνη τελικά μαθαίνει και προσαρμόζεται στις προτιμήσεις του άλλου.

Τέλος, η τεχνητή νοημοσύνη χαρτογραφεί τα εσωτερικά μοντέλα του άλλου στον εαυτό του, ενώ διατηρεί τη δική του ακεραιότητα. Κατά τη λήψη μιας απόφασης, μπορεί στη συνέχεια να εξετάσει ταυτόχρονα πολλαπλές απόψεις, σταθμίζοντας κάθε στοιχείο για μια μεμονωμένη απόφαση – με τη σειρά της να την κάνει πιο έξυπνη και πιο συνεργάσιμη.

Προς το παρόν, αυτά είναι μόνο θεωρητικά σενάρια. Παρόμοια με τους ανθρώπους, αυτοί οι πράκτορες AI δεν είναι τέλειοι. Παίρνουν κακές αποφάσεις όταν αγχώνονται εγκαίρως και αγνοούν τις μακροπρόθεσμες συνέπειες.

Τούτου λεχθέντος, η τεχνητή νοημοσύνη «δημιουργεί έναν αποτρεπτικό παράγοντα που βασίζεται στην ίδια της τη νοημοσύνη… που την αποτρέπει από αποφάσεις που θα μπορούσαν να προκαλέσουν κάτι σαν βλάβη σε άλλους ζωντανούς παράγοντες καθώς και στον εαυτό της», είπε ο Christov-Moore. «Εξισορροπώντας τη ζημιά, την ευημερία και την άνθηση σε πολλαπλά αντικρουόμενα σενάρια σε αυτόν τον κόσμο, η τεχνητή νοημοσύνη μπορεί να καταλήξει σε αντίθετες διαισθητικές λύσεις σε πιεστικά προβλήματα σε επίπεδο πολιτισμού που δεν έχουμε καν σκεφτεί ποτέ. Αν καταφέρουμε να ξεπεράσουμε αυτό το επόμενο εμπόδιο… η τεχνητή νοημοσύνη μπορεί να μετατραπεί από κίνδυνος σε επίπεδο πολιτισμού στον μεγαλύτερο σύμμαχο που είχαμε ποτέ».

Image Credit: Μοχάμεντ Χασάν από Pixabay

spot_img

Τελευταία Νοημοσύνη

spot_img