Zephyrnet-Logo

Objekttransplantationen können KI-Maschinelles Lernen und autonome Autos durcheinander bringen

Datum:

Visuelle Objekttransplantation kann das Erkennungssystem eines selbstfahrenden Autos verwirren und es ermöglichen, dass es den Elefanten im Raum nicht sieht. (GETTY IMAGES)

Von Lance Eliot, dem Insider für KI-Trends

Haben Sie jemals die Videos gesehen, die eine Szene zeigen, in der irgendeine Art von Aktivität stattfindet, wie Menschen, die sich gegenseitig einen Ball werfen und dann ein Gorilla durch den Hintergrund schlendert?

Wenn Sie kein solches Video gesehen haben, bedeutet dies entweder, dass Sie möglicherweise zu viele Katzenvideos ansehen oder dass Sie noch nicht mit dem Konzept von vertraut sind Unaufmerksamkeitsblindheit oder was manche als Beispiel für selektive Aufmerksamkeit betrachten.

Der Gorilla ist kein echter Gorilla, sondern eine Person in einem Gorilla-Anzug (wollte dies erwähnen, falls Sie befürchten, dass ein tatsächlicher Gorilla in menschliche Versammlungen eindringt und der Planet möglicherweise zu den Affen geleitet wird!).

Insgesamt besteht die Vorstellung darin, dass Sie sich auf die andere im Video dargestellte Aktivität konzentrieren und nicht bemerken, dass ein Gorilla in die Szene geschlendert ist.

Gorilla im Kopf

Wenn ich Leuten von diesem Phänomen erzähle und wenn sie noch keines dieser Videos gesehen haben, sind sie oft ziemlich zweifelhaft, dass diejenigen, die solche Videos ansehen, den Gorilla wirklich nicht gesehen haben.

Nun, da ich Ihnen davon erzählt habe, werden Sie sich wahrscheinlich nicht von einem solchen Video „täuschen“ lassen, da Sie darüber gewarnt wurden.

Wir bitten um Entschuldigung.

Ich denke, ich hätte sagen sollen Spoiler Alarm bevor ich dir vom Gorilla erzählte.

Für diejenigen, die Zweifel an der Behauptung haben, dass Leute, die sich ein solches Video ansehen, einen Gorilla nicht bemerken (was, wie ich anerkenne, plausibler erscheinen könnte, wenn sie kein Eichhörnchen bemerken, versichere ich Ihnen auf jeden Fall, dass eine große Anzahl kognitionsbezogener Experimente durchgeführt wurde wurden mit den "unsichtbaren Gorilla" -Videos gemacht und solche Studien stützen diese Behauptung. Die Experimente deuten darauf hin, dass viele Leute, die sich das Video ansehen, überhaupt nicht wissen, dass ein Gorilla in die Szene eingedrungen ist.

Wenn Sie solche Leute unmittelbar nach dem Ansehen des Videos fragen, ob sie einen Gorilla bemerkt haben, schwören die meisten Leute, dass es absolut unmöglich ist, dass ein Gorilla in der Szene war.

Wenn sie ihnen das Video ein zweites Mal zeigen, sehen sie dann den Gorilla, bestehen aber auch darauf, dass Sie sie austricksen, indem Sie ein identisches Video zeigen, aber eines, in das Sie einen Gorilla nachträglich eingefügt haben. Diese Leute werden absolut davon überzeugt sein, dass Sie versuchen, sie dazu zu bringen, fälschlicherweise zu glauben, dass das Originalvideo einen Gorilla enthält.

Ein Experiment beinhaltete sogar das Video der Person, als sie das Gorilla-bezogene Video anfangs sah, so dass die Person, nachdem sie über den Gorilla informiert worden war, das Video von sich selbst sehen und hoffentlich dann glauben konnte, dass das erste Video einen Gorilla enthielt .

Ich bin mir sicher, dass es einige gibt, die so verdächtig sind, dass sie glauben, Sie hätten das Video des Videos behandelt, und sich daher weigern, immer noch zu glauben, was sie gesehen haben (oder was sie nicht gesehen haben).

Es gibt ein bisschen Trick in dieser Angelegenheit.

Meistens weist der Experimentator die Person an, nach etwas anderem im Video zu suchen, z. B. zu sehen, ob jemand den Ball fallen lässt, während er ihn wirft, oder zu zählen, wie oft der Ball hin und her geworfen wird. Ich erwähne diesen ziemlich wichtigen Punkt, denn wenn Sie keinen anderen Fokus auf das Video hätten, wären die Chancen viel höher, dass Sie den Gorilla bemerken würden. Da Ihre Aufmerksamkeit jedoch vom Experimentator absichtlich geformt wurde, neigen Sie dazu, andere Aspekte auszublenden, die sich nicht auf die Angelegenheit beziehen, auf die Sie aufmerksam werden sollten.

Aus kognitiver Sicht wird der Aspekt, den Gorilla nicht zu bemerken, manchmal auf unbeabsichtigte Blindheit zurückgeführt.

Dies bedeutet, dass Sie nicht besonders darauf geachtet haben, den Gorilla zu erkennen, und daher blind waren, ihn zu bemerken. Andere neigen dazu, dies als Beispiel für selektive Aufmerksamkeit zu beschreiben. Ihre Aufmerksamkeit richtet sich auf etwas anderes, auf das Sie achten sollten. Infolgedessen wählen Sie nur die Aspekte in der Szene aus, die sich auf den erforderlichen Fokus beziehen. Sie müssen nicht auf andere Aspekte achten, und tatsächlich könnte es ablenken, wenn Sie sich anderswo in der Szene umsehen, und daher könnte es sein, dass Sie bei der zugewiesenen Aufgabe schlechter abschneiden.

Der Elefant im Raum

Wechseln wir jetzt von Gorillas zu Elefanten.

Sie haben wahrscheinlich den berühmten Ausdruck gehört, dass sich ein Elefant im Raum befindet.

Dies ist eine beliebte metaphorische Redewendung und bedeutet, dass es etwas gibt, das jeder bemerkt oder sich dessen bewusst ist, für das aber niemand es ansprechen oder darüber sprechen möchte.

Zum Beispiel ging ich neulich Abend zu einer Abendparty und einer der Teilnehmer kam mit einem ziemlich ungewöhnlichen Hut an. Die Teilnehmer waren alle äußerst zurückhaltend und höflich, und niemand zeigte offen auf den Hut oder machte direkte explizite Bemerkungen zu dem Hut. Der Hut war der Elefant im Raum. Es war da, aber niemand sprach besonders darüber. Wir alle haben es gesehen und wussten, dass es ungewöhnlich war.

Diesen Sommer ging ich zu unserem örtlichen Jahrmarkt und konnte in einem Raum mit einem Elefanten stehen. Ja, ein echter Elefant. In diesem Fall wusste jeder, dass sich ein Elefant im Raum befand, und alle sprachen darüber und zeigten darauf. Dies war kein metaphorischer Elefant. Es wäre sicherlich interessanter gewesen, wenn der Elefant im Raum gewesen wäre und jeder so getan hätte, als würde er es nicht bemerken. Ich denke, das könnte etwas gefährlich sein, wenn der Elefant plötzlich beschließt, im Raum herumzulaufen.

Wie auch immer, einige KI-Forscher haben kürzlich eine faszinierende Studie über einen Elefanten im Raum durchgeführt.

Es war ein Bild eines Elefanten.

Das von ihnen durchgeführte Experiment befasste sich mit der Verwendung von maschinellem Lernen (ML) und künstlichen neuronalen Netzen (ANN).

Lassen Sie mich näher darauf eingehen.

Erstens ist Ihnen möglicherweise bewusst, dass Sie bei der Verwendung von maschinellem Lernen und tiefen neuronalen Netzen mit sogenannten kontroversen Beispielen kämpfen müssen.

Dies bezieht sich auf die Vorstellung, dass einige ML und ANN überempfindlich gegenüber gezielten Störungen sein können.

Angenommen, Sie trainieren ein neuronales Netzwerk, um Bilder von Schildkröten zu finden.

Kleine Schildkröten, große Schildkröten, Schildkröten, die sich in ihren Muscheln verstecken, Schildkröten, die ihre Köpfe herausstrecken usw. Sie zeigen dem neuronalen Netzwerk zunächst Hunderte oder vielleicht Tausende von relativ scharfen und klaren Bildern von Schildkröten. Das neuronale Netzwerk scheint allmählich ziemlich gut darin zu werden, die Schildkröte auf den Bildern zu erkennen, die ihr gezeigt werden. Sie testen dies, indem Sie dem neuronalen Netzwerk ein Bild mit einer Schildkröte und einem Eichhörnchen zeigen. Das neuronale Netzwerk kann mit Sicherheit erkennen, welches dieser Tiere die Schildkröte ist (und identifiziert das Eichhörnchen nicht falsch als Schildkröte).

Großartig, Sie sind bereit, das neuronale Netzwerk zu verwenden.

Angenommen, ich arbeite ein bisschen in Photoshop an dem Bild, das die Schildkröte und das Eichhörnchen enthielt. Ich mache eine Kopie des Eichhörnchenschwanzes und klebe ihn auf den hinteren Teil der Schildkröte. Ich kopiere eines der Beine der Schildkröte auf das Eichhörnchen. Zugegeben, das sieht etwas nach Frankenstein aus, aber gehen Sie für den Moment mit mir auf diesen Gedanken.

Ich zeige das Bild dem neuronalen Netzwerk.

Was passieren könnte ist, dass das neuronale Netzwerk jetzt meldet, dass die Schildkröte keine Schildkröte ist und behauptet, dass es überhaupt keine Schildkröte auf dem Bild gibt. Oder das neuronale Netzwerk könnte behaupten, dass das Bild zwei Schildkröten enthält, die fälschlicherweise glauben, dass das Eichhörnchen auch eine Schildkröte ist. Wie konnte das passieren?

Manchmal kann sogar eine kleine Störung das neuronale Netzwerk verwirren.

Wenn sich das neuronale Netzwerk nur auf die Beine von Schildkröten konzentrierte und ein Schildkrötenbein am Eichhörnchen entdeckte, könnte dies den Schluss ziehen, dass das Eichhörnchen auch eine Schildkröte ist. Wenn das neuronale Netzwerk am Schwanz der Schildkröte geschliffen hätte, um festzustellen, ob eine Schildkröte eine Schildkröte ist, hätte der Aspekt, dass die Schildkröte einen Eichhörnchenschwanz hatte, das neuronale Netzwerk veranlasst, nicht mehr zu glauben, dass die Schildkröte eine Schildkröte ist.

Dies ist eine der bekannten Gefahren oder sagen wir inhärenten Einschränkungen bei der Verwendung von maschinellem Lernen und neuronalen Netzen.

Ein guter KI-Entwickler wird versuchen, die Empfindlichkeit des neuronalen Netzwerks gegenüber den verschiedenen „Faktoren“ zu ermitteln, auf die das neuronale Netzwerk bei seiner Detektivarbeit gestoßen war. Leider sind viele tiefe neuronale Netze so kompliziert, dass es nicht ohne weiteres möglich ist, festzustellen, was sie für die Detektivarbeit verwenden. Alles, was Sie haben, ist eine komplizierte Reihe mathematischer Aspekte, für die Sie möglicherweise nicht „logisch“ erkennen können, worauf es sich bezieht.

Ich habe oft erwähnt, dass dies etwas ist, auf das sich selbstfahrende KI-Autos einstellen müssen.

AI Autonome Autos und unaufmerksame Aufmerksamkeit

Es gibt verschiedene Studien, die gezeigt haben, wie einfach es sein kann, einen Algorithmus für maschinelles Lernen oder ein neuronales Netzwerk zu verwechseln, der von einem selbstfahrenden fahrerlosen autonomen KI-Auto verwendet werden kann.

Diese werden häufig verwendet, wenn die KI die visuellen Kamerabilder untersucht, die von den Sensoren des selbstfahrenden Autos erfasst werden.

Einige meiner Artikel über bemerkenswertes maschinelles Lernen und Einschränkungen des neuronalen Netzwerks sowie Bedenken in Bezug auf selbstfahrende KI-Autos finden Sie in den folgenden Artikeln:

https://aitrends.com/selfdrivingcars/expert-systems-ai-self-driving-cars-crucial-innovative-techniques/

https://aitrends.com/selfdrivingcars/ensemble-machine-learning-for-ai-self-driving-cars/

https://aitrends.com/ai-insider/machine-learning-benchmarks-and-ai-self-driving-cars/

https://aitrends.com/ai-insider/explanation-ai-machine-learning-for-ai-self-driving-cars/

https://aitrends.com/ai-insider/federated-machine-learning-for-ai-self-driving-cars/

Am Cybernetic AI Self-Driving Car Institute entwickeln wir AI-Software für selbstfahrende Autos. Daher nutzen und entwickeln wir diese KI-Systeme aktiv mithilfe von maschinellem Lernen und neuronalen Netzen. Für die Autohersteller und Technologiefirmen ist es wichtig, solche Werkzeuge sorgfältig und mit Bedacht einzusetzen.

Lassen Sie mich näher darauf eingehen.

Zunächst möchte ich die Vorstellung klarstellen und einführen, dass es unterschiedliche Niveaus von selbstfahrenden KI-Autos gibt. Die oberste Stufe wird als Stufe 5 betrachtet. Ein selbstfahrendes Auto der Stufe 5 wird von der KI gefahren und es ist kein menschlicher Fahrer beteiligt. Bei der Konstruktion von selbstfahrenden Fahrzeugen der Stufe 5 entfernen die Autohersteller sogar das Gaspedal, das Bremspedal und das Lenkrad, da dies Geräte sind, die von menschlichen Fahrern verwendet werden. Das selbstfahrende Auto der Stufe 5 wird nicht von einem Menschen gefahren, und es besteht auch keine Erwartung, dass ein menschlicher Fahrer im selbstfahrenden Auto anwesend sein wird. Es liegt alles auf den Schultern der KI, das Auto zu fahren.

Für selbstfahrende Autos unter Level 5 und Level 4 muss sich ein menschlicher Fahrer im Auto befinden. Der menschliche Fahrer gilt derzeit als Verantwortlicher für die Handlungen des Autos. Die KI und der menschliche Fahrer teilen sich gemeinsam die Fahraufgabe. Trotz dieses gemeinsamen Teilens soll der Mensch vollständig in die Fahraufgabe eingetaucht bleiben und jederzeit bereit sein, die Fahraufgabe auszuführen. Ich habe wiederholt vor den Gefahren dieses Co-Sharing-Arrangements gewarnt und vorausgesagt, dass es viele ungünstige Ergebnisse bringen wird.

Mein allgemeiner Rahmen für selbstfahrende KI-Autos finden Sie in meinem Artikel: https://aitrends.com/selfdrivingcars/framework-ai-self-driving-driverless-cars-big-picture/

Informationen zum Niveau selbstfahrender Autos finden Sie in meinem Artikel: https://aitrends.com/selfdrivingcars/richter-scale-levels-self-driving-cars/

In meinem Artikel erfahren Sie, warum selbstfahrende Autos der Stufe 5 wie ein Mondschuss sind: https://aitrends.com/selfdrivingcars/self-driving-car-mother-ai-projects-moonshot/

Informationen zu den Gefahren einer gemeinsamen Nutzung der Fahraufgabe finden Sie in meinem Artikel: https://aitrends.com/selfdrivingcars/human-back-up-drivers-for-ai-self-driving-cars/

Konzentrieren wir uns hier auf das wahre selbstfahrende Auto.

Viele der Kommentare gelten auch für weniger selbstfahrende Autos der Stufen 5 und 4, aber das vollautonome selbstfahrende KI-Auto wird in dieser Diskussion die größte Aufmerksamkeit erhalten.

Hier sind die üblichen Schritte für die KI-Fahraufgabe:

  • Erfassung und Interpretation von Sensordaten
  • Sensorfusion
  • Aktualisierung des Modells der virtuellen Welt
  • KI-Aktionsplanung
  • Auto steuert Befehlsausgabe

Ich habe bereits in dieser Diskussion erwähnt, dass ein Aspekt, bei dem man vorsichtig sein muss, das Potenzial von gegnerischen Beispielen beinhaltet, das KI-System zu verwirren oder irrezuführen.

Objekttransplantationen

Es gibt eine weitere ähnliche potenzielle Schwierigkeit, die manchmal als Objekttransplantation bezeichnet wird.

Eine interessante Forschungsstudie, die von Forschern der York University und der University of Toronto durchgeführt wurde, bietet eine aufschlussreiche Analyse der Bedenken im Zusammenhang mit der Objekttransplantation (die Studie trug den cleveren Titel „Der Elefant im Raum“).

Die Objekttransplantation kann mit meinen früheren Kommentaren zum Gorilla im Video verglichen werden, allerdings mit einem etwas anderen Dreh.

Stellen Sie sich vor, Sie sehen sich das Video mit einem Gorilla an.

Angenommen, Sie haben den Gorilla tatsächlich bemerkt, als er in die Szene kam.

Wenn die Szene aus Leuten bestehen würde, die einen Ball hin und her werfen, würden Sie eher glauben, dass es sich um einen echten Gorilla handelt, oder eher glauben, dass es sich um einen falschen Gorilla handelt (dh jemanden in einem Gorilla-Anzug)?

Angenommen, die Leute warfen den Ball weiter und wurden nicht durch die Anwesenheit des Gorillas ausgeflippt, würde ich wetten, dass Sie mental schnell ableiten würden, dass es ein gefälschter Gorilla sein muss.

Ihr Kontext des Videos würde so ziemlich derselbe bleiben wie vor der Einführung des Gorillas.

Das Aussehen des Gorillas hat nicht wesentlich verändert, woraus die Szene Ihrer Meinung nach bestand.

Würde die Einführung des Gorillas Sie plötzlich glauben lassen, dass die Menschen irgendwo im Dschungel sein müssen?

Wahrscheinlich nicht.

Würde der Gorilla Sie veranlassen, andere Objekte im Raum zu betrachten und zu glauben, dass es sich möglicherweise um Gorilla-Objekte handelt?

Angenommen, im Raum befand sich ein gelb gefärbter Stab.

Bevor der Gorilla auftauchte, haben Sie den Stock bemerkt und nur angenommen, dass es sich nur um einen Stock handelt. Sobald der Gorilla angekommen ist, wenn Sie sich jetzt mental bewegen und an Gorillas denken, scheint der gelbe Stock jetzt vielleicht eine Banane zu sein. Sie wissen, dass Gorillas Bananen mögen. Daher könnte etwas, das etwas wie eine Banane aussieht, tatsächlich eine Banane sein.

Mir ist klar, dass Sie sich über die Idee lustig machen könnten, dass Sie einen gelben Stock plötzlich als Banane interpretieren würden, nur weil der Gorilla dort ist. Ein Kind, das sich das Video ansieht, ist möglicherweise anfälliger für einen solchen mentalen Sprung. Das Kind hat in seinem Leben vielleicht nicht so viele Bananen gesehen wie Sie, und daher scheint ein gelber Stab der Ähnlichkeit einer Banane visuell nahe genug zu sein, dass ein Kind sie für eine solche halten würde. Das Kind glaubte nicht, dass es eine Banane war, bevor es den Gorilla sah. Es war der Gorilla, der das Kind veranlasste, die Szene und das stielartige Objekt im Kontext eines Gorillas neu zu interpretieren.

Das Transplantieren visueller Objekte kann die Erkennungsaspekte eines trainierten maschinellen Lernsystems wie eines tiefen neuronalen Faltungsnetzwerks auf möglicherweise ähnliche Weise beeinflussen.

Mithilfe der beliebten Tensorflow-Objekterkennungsfunktion und in Kombination mit dem Microsoft MS-COCO-Datensatz verwendeten die Forscher ein Bild eines Menschen, der in einem Raum saß und Videospiele spielte, und transplantierten dann ein Objekt in das Bild, um zu sehen, was das Neuronale ist Das Netzwerk berichtete über die Objekte im Bild (im Wesentlichen führten die Forscher eine Transformation im Photoshop-Stil zum Bild durch).

Sie verpflanzten ein Bild eines Elefanten, so dass es auf dem Bild mit dem sitzenden Menschen erscheint.

In einigen Fällen erkannte das neuronale Netzwerk nicht, dass sich der Elefant auf dem Bild befand, und bemerkte vermutlich nicht einmal, dass er sich dort befand (daher der kluge Titel der Forschungsstudie als Umgang mit dem Elefanten im Raum!).

Abhängig davon, wo sich der Elefant auf dem Bild befand, berichtete das neuronale Netzwerk an einer Stelle, dass der Elefant tatsächlich ein Stuhl war.

In einem anderen Fall wurde der Elefant in der Nähe anderer zuvor identifizierter Objekte wie Tasse und Buch platziert, und dennoch berichtete das neuronale Netzwerk nicht mehr, die Tasse oder das Buch gefunden zu haben. Es gab auch Fälle von getauschten Identifikationen, bei denen das neuronale Netzwerk einen Stuhl und eine Couch identifiziert hatte, aber mit dem Elefanten in der Nähe dieser Bildbereiche berichtete das neuronale Netzwerk dann, dass der Stuhl eine Couch und die Couch ein Stuhl war.

Sie könnten sich über dieses Experiment beschweren und sagen, dass es vielleicht „unfair“ ist, plötzlich einen Elefanten in ein Bild zu setzen, das nichts mit Elefanten zu tun hat.

Das neuronale Netzwerk war nicht explizit darauf trainiert worden, dass ein Elefant und der sitzende Mensch gleichzeitig ein Videospiel spielen. Nun, die Forscher haben diesen Aspekt berücksichtigt und das Experiment wiederholt, aber ein Bild verwendet, für das sie lediglich bereits im Bild enthaltene Elemente aufgenommen und diese ausgewählten Elemente in der Szene verschoben haben. Wiederum gab es verschiedene unangemessene Ergebnisse, die vom neuronalen Netzwerk erzeugt wurden und Objektfehlerkennungen der einen oder anderen Art beinhalteten.

Ich würde auch vorschlagen, dass wir entschieden nicht viel Sympathie für das neuronale Netzwerk an sich und den Aspekt haben sollten, dass es nicht auf die Möglichkeiten des gemeinsamen Auftretens geschult wurde - es ist inhärent unfähig, die Aspekte des gemeinsamen Auftretens „on the fly“ zu bewältigen „Sozusagen ist eine Schwäche, die wir für solche KI-Systeme insgesamt überwinden müssen.

AI Selbstfahrende Autos und Objekttransplantationen

In einem ähnlichen Zusammenhang habe ich bereits im Bereich der selbstfahrenden KI-Autos erwähnt, dass es eine anhaltende Debatte über denselben Begriff der Objekttransplantation gegeben hat, insbesondere über das Thema eines Mannes auf einem Pogo-Stick, der plötzlich in der Straße und in der Nähe eines selbstfahrenden KI-Autos.

Für meinen Artikel, der die Pogo-Stick-Materie behandelt, siehe: https://aitrends.com/selfdrivingcars/egocentric-design-and-ai-self-driving-cars/

Es gibt einige KI-Entwickler, die argumentiert haben, dass es verständlich ist, dass die KI eines selbstfahrenden Autos einen Mann auf einem Pogo-Stick auf der Straße möglicherweise nicht erkennt.

Mit Erkennen meine ich, dass die vom selbstfahrenden Auto aufgenommenen visuellen Bilder von der KI untersucht werden und dass das KI-System nicht erkennen konnte, dass das Objekt auf der Straße aus einem Mann auf einem Pogo-Stick bestand. Es wurde festgestellt, dass sich ein Objekt dort befand und eine ziemlich unregelmäßige Form hatte, aber es konnte nicht erkannt werden, dass die Form aus einer Person und einem Pogo-Stick bestand (in diesem Fall werden die beiden kombiniert, da sich der Mann auf einem Pogo befand Stock und Pogoing).

Warum sollte es nützlich oder wichtig sein zu erkennen, dass die Form aus einer Person auf einem Pogo-Stick besteht?

Als denkender Mensch und unter der Annahme, dass Sie schon einmal einen Pogo-Stick gesehen haben und einen, der verwendet wird, wissen Sie wahrscheinlich, dass es darum geht, auf und ab zu gehen und sich auch vorwärts oder rückwärts oder von Seite zu Seite zu bewegen . Wenn Sie mitfahren und plötzlich eine Person auf der Straße pogoing sehen würden, würden Sie wahrscheinlich wissen, dass Sie auf mögliche unregelmäßige Bewegungen des Pogo-Sticks und seines Insassen achten sollten. Sie könnten möglicherweise sogar vorhersagen, in welche Richtung die Person gehen würde, indem Sie ihren Blickwinkel beobachten und wie stark sie pogoing.

Ein KI-System, das den pogoing Menschen lediglich als Blob interpretiert, wäre nicht ohne weiteres in der Lage, das Verhalten des Blobs vorherzusagen. Vorhersagen sind entscheidend, wenn Sie ein Auto fahren. Menschliche Fahrer schauen sich ständig in der Umgebung des Autos um und versuchen vorherzusagen, was als nächstes passieren könnte. Dieser Radfahrer auf der Radspur webt möglicherweise gerade so weit, dass Sie vorhersagen können, dass er auf Ihre Spur abbiegt, und ergreifen daher im Voraus Vorsichtsmaßnahmen. Wir müssen damit rechnen, dass selbstfahrende KI-Autos und insbesondere die echten selbstfahrenden Autos der Stufe 5 in der Lage sein müssen, diese Art der Vorhersagemodellierung durchzuführen.

Das Spektrum potenzieller Probleme im Zusammenhang mit Problemen bei der Objekttransplantation umfasst:

  • Bei der Objekttransplantation besteht die Möglichkeit, dass das transplantierte Objekt überhaupt nicht erkannt wird, obwohl es normalerweise in einem anderen Kontext erkannt wurde.
  • Oder das Konfidenzniveau oder die Wahrscheinlichkeit, die mit der Objektsicherheit verbunden sind, kann im Vergleich zu dem, was es sonst gewesen wäre, verringert sein (im Fall des dem Bild hinzugefügten Elefanten und der nachfolgenden fehlenden Tasse oder dem Buch könnte es sein, dass das neuronale Netzwerk hatte die Tasse und das Buch entdeckt, aber ihrer Identität eine sehr geringe Wahrscheinlichkeit zugewiesen und berichtet, dass sie nicht da waren, basierend auf einem Schwellenwert, der als im Bild vorhanden angesehen werden musste).
  • Die Erkennung des transplantierten Objekts kann, falls eine Erkennung erfolgt, zu einer falschen Identifizierung anderer Objekte in der Szene führen.
  • Andere Objekte werden möglicherweise nicht mehr erkannt.
  • Oder diesen anderen Objekten wird möglicherweise eine geringere Wahrscheinlichkeit als identifizierbare Objekte zugewiesen. Aufgrund des transplantierten Objekts können sowohl lokale als auch nicht lokale Effekte auftreten.
  • Andere Objekte können aufgrund der Einführung des transplantierten Objekts hinsichtlich ihrer Identität gewechselt werden.

Fazit

Für selbstfahrende KI-Autos gibt es eine Vielzahl von Sensoren, die Daten über die Welt um das selbstfahrende Auto sammeln. Dazu gehören Kameras, die Bilder und Videos aufnehmen, Radar, Schall, LIDAR usw. Die KI muss die Daten untersuchen und versuchen herauszufinden, was die Daten über die umgebenden Objekte anzeigen.

Sind diese Autos dem selbstfahrenden Auto voraus oder sind es Motorräder?

Stehen Fußgänger am Bordstein oder nur ein Hydrant und ein Lichtmast?

Dies sind entscheidende Bestimmungen für das selbstfahrende KI-Auto und seine Fähigkeit, die Fahraufgabe auszuführen.

KI-Entwickler müssen die Einschränkungen und Überlegungen berücksichtigen, die sich aus der Objekttransplantation ergeben. Die KI-Systeme des selbstfahrenden Autos müssen so geformt sein, dass sie die Objekttransplantation ausreichend und sicher in Echtzeit durchführen können, während das selbstfahrende Auto in Bewegung ist. Die Landschaft um das selbstfahrende Auto wird nicht immer makellos sein und keine ungewöhnlichen oder scheinbar unzusammenhängenden Objekte enthalten.

Als ich Professor war, kam jedes Jahr ein Zirkus in die Stadt und die Zirkustiere kamen mit dem Zug an, der zufällig für die Zeit, in der der Zirkus in der Stadt war, in der Nähe des Campus geparkt wurde. Es fand sogar eine große Parade statt, bei der die Zirkusartisten die Tiere vom Campus zum nahe gelegenen Kongresszentrum marschierten. Es war ein ziemlich jährliches Spektakel.

Ich erwähne dies, weil unter den Tieren Elefanten waren, zusammen mit Giraffen und anderen „wilden“ Tieren. Ob Sie es glauben oder nicht, am Morgen der jährlichen Parade fuhr ich normalerweise mein Auto direkt in der Nähe der verschiedenen Tiere, während ich mich auf den Weg zum Campus machte, um Unterricht für diesen Tag zu geben. Es war, als wäre ich in eine andere Welt versetzt worden.

Wenn ich ein selbstfahrendes KI-Auto benutzt hätte, fragt man sich, was die KI aus den Elefanten und Giraffen neben dem Auto gemacht haben könnte. Hätte die KI plötzlich den Kontext geändert und angenommen, ich würde jetzt im Dschungel fahren? Würde es verwirrt werden und glauben, dass die Lichtmasten tatsächlich hohe Dschungelbäume waren?

Ich sage diesen letzten Aspekt über den Zirkus in einem Scherz, möchte aber die Facette ernst nehmen, dass es wichtig ist, die bestehenden Einschränkungen verschiedener Algorithmen für maschinelles Lernen und Techniken und Werkzeuge für künstliche neuronale Netze zu erkennen. KI selbstfahrende Autohersteller müssen auf Trab sein, um sich auf Objekttransplantationen vorzubereiten und mit ihnen umzugehen.

Und das ist kein Elefantenwitz.

Das ist der Elefant im Raum und auf der Straße für selbstfahrende KI-Autos.

Copyright 2020 Dr. Lance Eliot

Dieser Inhalt wurde ursprünglich auf AI Trends veröffentlicht.

[Ed. Hinweis: Für Leser, die an Dr. Eliots laufenden Geschäftsanalysen über das Aufkommen selbstfahrender Autos interessiert sind, siehe seine Online-Forbes-Kolumne: https://forbes.com/sites/lanceeliot/]

Quelle: https://www.aitrends.com/ai-insider/object-transplants-can-confound-ai-machine-learning-and-autonomous-cars/

spot_img

Neueste Intelligenz

spot_img