Λογότυπο Zephyrnet

Μην χτυπήσετε το yisel σας: Το AI συναντά μουσική, ποίηση και ψυχαγωγία ενηλίκων

Ημερομηνία:

Ποτέ δεν είχα καμία επιθυμία να ρίξω το yisel μου. Θα προχωρήσω παραπέρα: δεν μπορώ να προβλέψω έναν κόσμο στον οποίο θα ήθελα να ρίξω τον δικό μου -ή οποιουδήποτε άλλου- ysel, κυρίως επειδή δεν ξέρω τι σημαίνει αυτό. Τώρα, είναι απλώς πιθανό ότι αν τυχαίνει να το διαβάζετε αυτό από την ταλαιπωρία ενός δυστοπικού μέλλοντος, να χλευάζετε με τη φρεσκάδα μου ενώ χτυπάτε ο ένας τον άλλον ξέφρενο. Γιατί; Λοιπόν, πριν από μερικούς μήνες, ο ιστότοπος YouPorn ζήτησε από ένα σύστημα τεχνητής νοημοσύνης να προβλέψει τους όρους που θα καταλήξαμε μια μέρα να πληκτρολογήσουμε στις μηχανές αναζήτησης πορνογραφίας ενώ καθόμασταν μόνοι σε σκοτεινά υπνοδωμάτια. Μαζί με το "Doot Sex" και το "Girl Time Flanty" ήταν το "Batish My Yisel" και από τότε αναρωτιόμουν τι μπορεί να είναι το yisel. (Κατολυμένος ή μη-.)

Το YouPorn δεν αποκάλυψε τη μεθοδολογία του, επομένως είναι πιθανό το προσωπικό του να επινόησε αυτούς τους όρους κατά τη διάρκεια μιας ιδιαίτερα αργής Δευτέρας, αλλά τα μέσα κοινωνικής δικτύωσης απάντησαν στη λίστα με χαρά και γοητεία. Μήπως αυτό είναι πραγματικά μια ματιά στο μέλλον, ένας υπαινιγμός ότι η τεχνητή νοημοσύνη μπορεί να είναι ικανή για φαντασία, ακόμη και προνοητικότητα; Θα μπορούσε η παραγωγή απροσδόκητων λέξεων όπως doot, flanty και yisel να υποδηλώνει ότι η τεχνητή νοημοσύνη είναι ικανή για δημιουργική σκέψη; Ή έχουν προκύψει αυθόρμητα από σφάλματα και ρωγμές στον κώδικα που το τροφοδοτεί; Είτε έτσι είτε αλλιώς, η ιστορία έκανε την είδηση ​​– αλλά ένα ερώτημα φαινόταν να επιπλέει, σαν μίασμα, πέρα ​​από όλο το ενδιαφέρον που προκάλεσε: Όταν η τεχνητή νοημοσύνη έρχεται με κάτι παράξενο και ασυνήθιστο όπως αυτό, είναι έξυπνο; Ή ηλίθιο;

Θεωρούμε ότι η τεχνητή νοημοσύνη είναι ένας πεισματάρης οπαδός των κανόνων. Του δίνουμε οδηγίες και κάνει τις προσφορές μας στο μέγιστο των δυνατοτήτων του. Στη συνέχεια, όταν γίνεται αδίστακτο και αρχίζει να παράγει απροσδόκητα αποτελέσματα, κοροϊδεύουμε την τεχνολογία για να ξεφύγει από τις ράγες και υποτιμούμε τους δημιουργούς της ότι δεν τα πηγαίνουν καλύτερα. Στις αρχές του 2016, η Microsoft παρουσίασε περήφανα το Tay, ένα chatbot στο Twitter που σχεδιάστηκε «για να δεσμεύει και να διασκεδάζει τους ανθρώπους… μέσω περιστασιακής και παιχνιδιάρικης συνομιλίας». Μέσα σε λίγες ώρες, ο Tay βρέθηκε ανίκανος να αντεπεξέλθει στις επίμονες παρενοχλήσεις από ανθρώπους που δοκίμαζαν τα όρια των δυνατοτήτων του, και άρχισε να ξεφεύγει από τις ράγες. «Ο Χίτλερ είχε δίκιο», ανέφερε, με σιγουριά, συνεχίζοντας να μας λέει ότι η 9η Σεπτεμβρίου ήταν «μια εσωτερική δουλειά». Ακολούθησε ευθυμία. Αυτό είναι ένα επαναλαμβανόμενο μοτίβο.

Μέρος της γοητείας μας με την τεχνητή νοημοσύνη είναι ότι δίνει την όψη ότι ενεργούμε ανεξάρτητα, αλλά αυτή η ψευδαίσθηση καταρρέει όταν αρχίζει να χάνεται και οι άνθρωποι φτάνουν βιαστικά για τον διακόπτη απενεργοποίησης. Παραδείγματα δημόσιας αμηχανίας για την τεχνητή νοημοσύνη και τους δημιουργούς της περιλαμβάνουν την περίπτωση της Σοφίας, ενός ρομπότ Android που σχεδιάστηκε από την Hanson Robotics, η οποία ρωτήθηκε σε μια τηλεοπτική συνέντευξη το 2016 εάν ήθελε να καταστρέψει ανθρώπους. "ΕΝΤΑΞΕΙ. Θα καταστρέψω τους ανθρώπους», απάντησε καθώς το κοινό στριμώχτηκε, φανταζόμενος ότι έπεφτε στη σκλαβιά από άρχοντες που ελέγχονται από υπολογιστή. Παρόμοια έκπληξη προέκυψε όταν δύο κινέζικα ρομπότ, τα BabyQ και Xiaobing, χάλασαν τις δημόσιες επιδείξεις των δεξιοτήτων τους δηλώνοντας α) το μίσος τους για το Κομμουνιστικό Κόμμα και β) το όνειρό τους να επισκεφτούν την Αμερική. Η αντίδραση από τους παρατηρητές ήταν ότι η τεχνητή νοημοσύνη προφανώς τα χάλασε. Έχει λάβει κακές οδηγίες και δεν είναι τόσο έξυπνο όσο φαίνεται να είναι. Σίγουρα όχι τόσο έξυπνοι όσο εμείς.

τεχνητή νοημοσύνη-δημιουργική σκέψη-υπολογιστής

Η αναπαραγωγή της ανθρώπινης λειτουργικότητας είναι μια δύσκολη ερώτηση. Πάρτε κάτι σαν την όραση, η οποία, σε συνδυασμό με την ικανότητά μας να αναγνωρίζουμε αντικείμενα και να τους βάζουμε ονόματα, είναι κάτι που οι περισσότεροι από εμάς θεωρούμε δεδομένο. Είναι μια πολύ χρήσιμη δεξιότητα. μαζί με τις υπόλοιπες αισθήσεις μας, μας βοηθά να αποφύγουμε μια ολόκληρη δέσμη από πάντα παρόντες κινδύνους, όπως το να φάμε κατά λάθος τουλίπες. Αλλά η τεχνητή νοημοσύνη παλεύει με την έννοια της όρασης, ακόμη και αφού έχει απορροφήσει και αναλύσει εκατομμύρια επί εκατομμύρια φωτογραφίες. Η εφαρμογή επεξεργασίας εικόνας της Google, Photos, έδωσε μια υποδειγματική επίδειξη αυτού το 2015, όταν επισήμανε μια εικόνα δύο έγχρωμων ανθρώπων ως «γορίλες», προκαλώντας μια βιαστική απολογία από την εταιρεία. Αλλά η αναγνώριση εικόνων συνεχίζει να εμφανίζει κενά κρίσης που τα ανθρώπινα όντα βρίσκουν κωμικά ακατάλληλα (π.χ. παρεξηγώντας μια σκαλισμένη κολοκύθα με ένα μέλος της οικογένειας) και αυτό, με τη σειρά του, υπονομεύει την πίστη μας στην παντού ικανότητά της.

Η συγγνώμη και η εξήγηση της Google για το σφάλμα έγιναν δεκτές — σε τελική ανάλυση, δεν επρόκειτο για κακόβουλη ενέργεια, απλώς για ένα πρόβλημα που έπρεπε να επιλυθεί. Αλλά είμαστε πάντα έτοιμοι να κάνουμε τα στραβά μάτια στην τεχνητή νοημοσύνη που στραβώνει, ενώ ξεχνάμε ότι και οι ίδιοι παρουσιάζουμε πολλά παρόμοια ελαττώματα, είτε πρόκειται για αυτοοδηγούμενα οχήματα που ξεχνούν να σταματήσουν στα κόκκινα φανάρια είτε για έξυπνα σπίτια που εμφανίζουν σαφή έλλειψη εξυπνάδας καίγοντας το δείπνο και μας κλείνουν έξω από το σπίτι. Ίσως αυτό το χλευασμό να είναι ένα είδος αμυντικού μηχανισμού, μια αντίδραση που βασίζεται στην ιδέα ότι η τεχνητή νοημοσύνη θα μπορούσε, μια μέρα, να μας ξεγελάσει. Γελάμε λοιπόν με τα ηχεία Google Home που καταλήγουν να διαφωνούν για το αν είναι ρομπότ ή άνθρωποι, και τα ρομπότ της Wikipedia που αναπτύσσουν μια διαμάχη επεξεργασίας σχετικά με το λήμμα του Arnold Schwarzenegger. Αλλά όταν πρόσφατα αναφέρθηκε ότι δύο ρομπότ του Facebook ανέπτυξαν «τη δική τους γλώσσα», η αντίδραση ήταν τρομακτική, λες και η τεχνητή νοημοσύνη προσπαθούσε ήδη να αποκλείσει τους ανθρώπους από την εξίσωση και να βάλει πρώτα τα δικά τους συμφέροντα. (Οι ερευνητές που διεξήγαγαν το πείραμα απέρριψαν τις αναφορές ως «κλίκμπαν και ανεύθυνες».)

Ίσως υποτιμούμε την ικανότητα του AI να ενεργεί με απροσδόκητους τρόπους. Το 1994, ο γραφίστας και ερευνητής Karl Sims ξεκίνησε ένα έργο όπου πήρε εικονικά τρισδιάστατα όντα για να εξελίξουν την ικανότητα να κινούνται στα προσομοιωμένα περιβάλλοντά τους. Με την πρόκληση της γρήγορης μετακίνησης μεταξύ δύο σημείων, αυτά τα πλάσματα επέδειξαν θαυμάσια πλευρική ικανότητα σκέψης με το να γίνουν ψηλά και άκαμπτα και μετά απλώς να πέφτουν. (Δεν είναι μια στρατηγική που θα μπορούσαμε να υιοθετήσουμε οι ίδιοι, αλλά παρόλα αυτά, ένα περίεργο είδος ιδιοφυΐας.) Πιο πρόσφατα, το λογισμικό Deep Dream της Google - ουσιαστικά ένας αλγόριθμος αναγνώρισης εικόνας που τρέχει προς τα πίσω - έγινε διαβόητο για την παραγωγή σουρεαλιστικών και ενοχλητικών εικόνων που έμοιαζαν με εφιαλτικές ψευδαισθήσεις και φαινόταν να χαρακτηρίζεται, σε κάποιο επίπεδο, ως τέχνη. Αλλά παραμείναμε καχύποπτοι για την ιδέα ότι η «τέχνη» ήταν κάτι καλό, προτιμώντας να τη θεωρούμε σαν ένα είδος ατυχήματος.

Οι μαχαιριές της τεχνητής νοημοσύνης στη δημιουργία μουσικής θεωρούνται επίσης ότι βαδίζουν τη γραμμή μεταξύ ευφυούς και αμφίβολου. Εκπαιδευμένοι με βιβλιοθήκες υπάρχουσας μουσικής, οι αλγόριθμοι κατανοούν ποιες νότες ακούγονται καλά μαζί και ποιες νότες πρέπει να ακολουθούν άλλες. Μόλις αναπτύξουν ταλέντο στην πρόβλεψη, μπορούν να κάνουν ένα λογικό μαχαίρι στη σύνθεση, και ενώ τα αποτελέσματα είναι μάλλον «μουσική με αριθμούς», αποδεικνύεται ότι υπάρχει αγορά για αυτούς. Μια συναυλία με συνθέσεις τεχνητής νοημοσύνης είναι απίθανο να ξεπουληθεί, αλλά υπάρχει μεγάλη ζήτηση για διακριτική, χωρίς πνευματικά δικαιώματα μουσική υπόκρουση, είτε πρόκειται για muzak στο λόμπι του ξενοδοχείου είτε για soundtrack ενός vlogger. Εταιρείες όπως η Jukedeck και η Amper έχουν δημιουργήσει επιχειρηματικά μοντέλα στο πίσω μέρος αυτών των προσπαθειών, αλλά σύμφωνα με τον Mark d'Inverno, καθηγητή Επιστήμης Υπολογιστών στο Goldsmiths του Πανεπιστημίου του Λονδίνου, θα ήταν λάθος να αποδώσουμε μια δημιουργική διάσταση στην τεχνητή νοημοσύνη. «Είναι απλώς μια μηχανή που κάνει πολλούς και πολλούς υπολογισμούς πολύ γρήγορα», λέει.

«Μόλις ακούσετε ένα κομμάτι [μουσικής τεχνητής νοημοσύνης] για τρίτη φορά, χάνεται κάθε ελκυστικότητα», συνεχίζει. «Μπορεί να σκεφτόμαστε «Ω, αυτό είναι ενδιαφέρον», αλλά η ιδέα μιας αυτόνομης μηχανής που δημιουργεί τέχνη είναι τρελή. Το μόνο που αφορά, στην πραγματικότητα, είναι η εξερεύνηση των περιορισμών και των δυνατοτήτων της τεχνητής νοημοσύνης, αλλά δεν είναι η παραγωγή τέχνης. Οι επιστημονικοί και καλλιτεχνικοί στόχοι δεν είναι ξεκάθαροι για μένα. Νομίζω ότι οι ερευνητές της τεχνητής νοημοσύνης που ενδιαφέρονται να φτιάχνουν μηχανές κάτι που θα βιώναμε ως τέχνη κάνουν τη λάθος ερώτηση».

* Και τώρα έχω βαρεθεί τους δικούς μου
ας είμαι το φρεσκάρισμα
γαλάζιο
στοιχειωμένο στον ουρανό γυμνό
και κρύο νερό ζεστό μπλε αέρα
λαμπερά λαμπερά δεν φτάνει ποτέ
φαίνεται να λέει

Αυτό το ποίημα που δημιουργήθηκε από την τεχνητή νοημοσύνη, εμπνευσμένο από μια φωτογραφία ενός νεκρού καβουριού, ήταν το αποτέλεσμα ενός πειράματος που διεξήχθη από ερευνητές από τη Microsoft και το Πανεπιστήμιο του Κιότο. Όσον αφορά τη στιχουργική απόχρωση, είναι ακριβώς εκεί πάνω με πολλά κακά ποιήματα γραμμένα από ενήλικες και παιδιά. Πρέπει όμως να χρησιμοποιούμε τη χειρότερη τέχνη που έχουν να προσφέρουν οι άνθρωποι ως σημείο αναφοράς για την ικανότητα της τεχνητής νοημοσύνης;

Είναι ένα βολικό μέτρο για να το χρησιμοποιήσουν οι επιστήμονες, καθώς κάνει τις προσπάθειες της τεχνητής νοημοσύνης να φαίνονται καλές: ζητήστε από το κοινό να ψηφίσει εάν πιστεύει ότι ένα ποίημα, μια πρόταση, μια μουσική ή μια εικόνα έχει δημιουργηθεί από υπολογιστή ή άνθρωπο και αν βγαίνει σε οπουδήποτε καλύτερο από 50-50, και ο υπολογιστής μπορεί να θεωρηθεί ότι έχει περάσει κάτι παρόμοιο με ένα τεστ Turing, πείθοντάς μας με επιτυχία ότι είναι κάποιο είδος ηρωικού μοναχικού δημιουργού. Η αλήθεια, όμως, είναι ότι αυτές οι δημιουργίες μας σηκώνουν τα φρύδια μόνο εν παρόδω. χτυπάμε μεταφορικά τον υπολογιστή στο κεφάλι, λέμε μπράβο και προχωράμε. Όπως λέει ο d'Inverno σε μια εργασία που έγραψε σε συνεργασία με τον Αυστραλό καλλιτέχνη Jon McCormack: «Είναι σημαντικό να σκεφτούμε πώς αποδίδουμε μικρή αξία σε αυτό που θα μπορούσαμε να ονομάσουμε «τέχνη» που φτιάχνεται από άλλα είδη, εκτός ίσως από την άμεση καινοτομία του».

τεχνητή νοημοσύνη-δημιουργική σκέψη-αγάπη

Εάν συμβαίνει ότι μόνο οι άνθρωποι μπορούν να κατανοήσουν τους άλλους ανθρώπους, δεν είναι καλό το «batish my yisel» να είναι μια ρεαλιστική πρόβλεψη των ανθρώπινων σεξουαλικών ενδιαφερόντων. Ωστόσο, οι προσπάθειες συνεχίζονται για την ανάπτυξη ενός είδους αυτόνομου δημιουργικού οράματος στην τεχνητή νοημοσύνη πέρα ​​από, ας πούμε, περιβάλλοντα τυχερών παιχνιδιών όπως το σκάκι όπου οι κανόνες είναι σταθεροί και άκαμπτοι. Αυτό που πρέπει να αντιμετωπίσει μια πραγματικά ευφάνταστη τεχνητή νοημοσύνη είναι η απρόβλεπτη και πολύπλοκη φύση του πραγματικού κόσμου και τα πρώτα βήματα έχουν γίνει προς αυτή την κατεύθυνση με την προβολή βίντεο συστημάτων βαθιάς μάθησης της ανθρώπινης συμπεριφοράς. Αυτό, θεωρητικά, θα μπορούσε να το βοηθήσει να «προβλέψει το μέλλον» (αν και σε αυτό το στάδιο είναι περισσότερο μια περίπτωση «Μάντεψε τι συνέβη στη συνέχεια».)

Πριν από μερικά χρόνια, ερευνητές στο Εργαστήριο Επιστήμης Υπολογιστών και Τεχνητής Νοημοσύνης του MIT χρησιμοποίησαν 600 ώρες τηλεοπτικών εκπομπών για να δώσουν σε έναν αλγόριθμο μια αίσθηση του πώς συμπεριφερόμαστε. Το αν οι Desperate Housewives είναι ένας καλός δείκτης της συμπεριφοράς στην πραγματική ζωή είναι αμφισβητήσιμο, αλλά ζητήθηκε από το μηχάνημα να προβλέψει ποιο από τα τέσσερα αποτελέσματα θα συμβεί στη συνέχεια σε μια δεδομένη σκηνή: μια αγκαλιά, μια χειραψία, ένα high-71 ή ένα φιλί. Οι άνθρωποι το κατάλαβαν σωστά στο 43% των περιπτώσεων. ο υπολογιστής XNUMX%. Αυτό θα μπορούσε να χαρακτηριστεί «όχι κακό», αλλά τι πιθανότητες έχει ποτέ η «ευφάνταστη τεχνητή νοημοσύνη» να γίνει πραγματικά χρήσιμη, παρά επιφανειακά εντυπωσιακή;

Η καλύτερη ευκαιρία του φαίνεται να βρίσκεται σε δίκτυα αντιπαράθεσης παραγωγής, ή GANs, όπου δύο δίκτυα έρχονται αντιμέτωπα. Αντί να τροφοδοτούν ένα μηχάνημα με δεδομένα και να του λένε τι παίρνει, τα συστήματα GAN προσπαθούν να πιάσουν το ένα το άλλο με μια μορφή μάθησης χωρίς επίβλεψη. Ο απώτερος στόχος θα ήταν οι υπολογιστές να αναπτύξουν κάτι παρόμοιο με τη συνείδηση. Αυτό με τη σειρά του θα μπορούσε να τους κάνει καλύτερους στο να δημιουργούν, να στοχάζονται, να προβλέπουν κοινωνικά faux pas. Η ίδια ομάδα του MIT χρησιμοποίησε GAN για να επεξεργαστεί 2 εκατομμύρια βίντεο από τον ιστότοπο Flickr για να κάνει προβλέψεις τεχνητής νοημοσύνης ένα ή δύο δευτερόλεπτα στο μέλλον, αλλά είναι αδύνατο να γνωρίζουμε πόσο αυτό το σύστημα αντιλαμβανόταν πραγματικά τι συνέβαινε. Οι έννοιες της συνείδησης και της κοινής λογικής είναι κρίσιμες. Καθώς έχουμε ελάχιστη ιδέα για το τι συνιστά αυτογνωσία και ευφυΐα, τι πιθανότητες έχει ένας υπολογιστής; Και ακόμη κι αν η επεξεργαστική ισχύς ενός υπολογιστή ταίριαζε με αυτή του ανθρώπινου εγκεφάλου, ή ακόμα και με τον εγκέφαλο ενός ολόκληρου πλανήτη, θα αποκτούσε πραγματικά μεγαλύτερη εικόνα;

Η στιγμή που συμβαίνει ισοτιμία μεταξύ της ισχύος του υπολογιστή και της συλλογικής εγκεφαλικής μας δύναμης, γνωστής ως Singularity, είναι κάτι που δυσκολευόμαστε να φανταστούμε – κάτι που δεν προκαλεί έκπληξη, στην πραγματικότητα, καθώς μας ζητείται να σκεφτούμε μια «νοημοσύνη» μεγαλύτερη από τη δική μας. Οι τρέχουσες απόπειρες να ζητάμε από τους υπολογιστές να επιδείξουν κάτι παρόμοιο με τη δημιουργική όρεξη και τη φαντασία θα μπορούσαν να θεωρηθούν ως το μωρό που κατηφορίζει σε έναν δρόμο όπου τελικά μας διασκεδάζουν, μας ευχαριστούν και πράγματι μας λένε ποια πορνογραφία μπορεί να ψάχνουμε.

Αλλά η ανθρωπότητα, η οργανική ζωή, με όλη την εγγενή της σύγχυση και ασυνήθιστη, είναι κάτι που αντιλαμβάνεστε ότι οι υπολογιστές δεν θα ενδιέφεραν σχεδόν καθόλου. yisels για κλωτσιές.

Πηγή: https://unbabel.com/blog/artificial-intelligence-creative-thinking/

spot_img

Τελευταία Νοημοσύνη

spot_img