Logo Zéphyrnet

Les trois lois de la robotique et des voitures autonomes d'Asimov 

Date :

Puisqu'il s'agit de la vie ou de la mort en jeu, il est concevable que nous devrions envisager d'appliquer les trois lois des robots d'Asimov aux voitures autonomes. (Crédit: Getty Images)  

Par Lance Eliot, l'IA Trends Insider 

Les progrès de l'intelligence artificielle (IA) continueront de stimuler l'adoption généralisée des robots dans notre vie quotidienne. Les robots qui semblaient autrefois si chers qu'ils ne pouvaient être achetés qu'à des fins de fabrication lourdes ont progressivement diminué leur coût et leur taille a également été réduite. Vous pouvez considérer que l'aspirateur Roomba dans votre maison est un type de robot, bien que nous n'ayons toujours pas le robot de majordome jamais promis qui était censé s'occuper de nos tâches quotidiennes.   

Peut-être l'un des plus connus facettes about robots est l'ensemble légendaire de trois règles proposées par l'écrivain Isaac Asimov. Son conte de science-fiction intitulé Les trois lois a été publié en 1942 et a apparemment été imparable en termes d'intérêt et d'adhésion continus.   

Voici les trois règles qu'il a intelligemment conçues: 

1)      Un robot ne peut pas blesser un être humain ou, par inaction, permettre à un être humain de se blesser, 

2)      Un robot doit obéir aux ordres qui lui sont donnés par des êtres humains, sauf lorsque de tels ordres entreraient en conflit avec la première loi, 

3)      Un robot doit protéger sa propre existence tant qu'une telle protection n'est pas en conflit avec la première ou la deuxième loi. 

Lorsque vous lirez les remarques d'Asimov sur les robots, vous voudrez peut-être remplacer le mot «robot» simplement par le surnom général de l'IA. Je dis cela parce que vous êtes susceptible d'interpréter autrement étroitement ses trois règles comme si elles ne s'appliquaient qu'à un robot qui nous ressemble, ayant traditionnellement des jambes, des bras, une tête, un corps, etc.   

Tous les robots ne sont pas nécessairement organisés de la sorte.   

Certains des derniers robots ressemblent à des animaux. Peut-être avez-vous vu les vidéos en ligne populaires de robots à quatre pattes et qui semblent être un chien ou un type de créature similaire. Il existe même des robots qui ressemblent à des insectes. Ils ont l'air assez effrayants, mais ils sont néanmoins importants pour comprendre comment nous pourrions utiliser la robotique dans toutes sortes de possibilités.   

Un robot n'a pas besoin d'être inspiré biologiquement. Un robot aspirateur ne ressemble pas particulièrement à un animal ou à un insecte. Vous pouvez vous attendre à ce que nous ayons toutes sortes de robots qui semblent assez inhabituels et ne semblent pas être basés uniquement sur un organisme vivant.   

Certains robots sont juste devant nos yeux, et pourtant nous ne les considérons pas comme des robots. Un tel exemple est l'avènement de véritables voitures autonomes basées sur l'IA. 

Une voiture qui est conduite par un système d'IA peut être considérée comme un type de robot. La raison pour laquelle vous ne considérez peut-être pas une voiture autonome comme un robot est qu'elle n'a pas ce robot qui parle à pied assis sur le siège du conducteur. Au lieu de cela, le système informatique caché dans le soubassement ou le coffre de la voiture fait la conduite. Cela semble échapper à notre attention et donc le véhicule ne semble pas facilement être une sorte de robot, bien qu'il le soit effectivement. 

Au cas où vous vous poseriez la question, des efforts encourageants sont en cours pour créer des robots qui parlent à pied et qui seraient capables de conduire une voiture. Imaginez comment cela bouleverserait notre monde.   

À l'heure actuelle, la fabrication d'une voiture autonome consiste à modifier la voiture pour qu'elle soit autonome. Si nous avions des robots capables de se déplacer, de s'asseoir dans une voiture et de conduire le véhicule, cela signifierait que TOUTE les voitures existantes pourraient essentiellement être considérées comme des voitures autonomes (ce qui signifie qu'elles pourraient être conduites par de tels robots, plutôt que d'être conduites par un humain). Au lieu de forcer progressivement les voitures conventionnelles à l'arrivée de voitures autonomes, il ne serait pas nécessaire de concevoir une voiture autonome entièrement contenue, et nous comptions sur ces robots sinueux pour être nos conducteurs. 

À l'heure actuelle, le chemin le plus rapide ou le plus rapide pour avoir des voitures autonomes est l'intégration dans l'approche du véhicule. Certains pensent qu'il y a une ironie amère dans cette approche. Ils soutiennent que ces voitures autonomes émergentes vont inévitablement être usurpées par ces robots qui parlent à pied. En ce sens, la voiture autonome d'aujourd'hui deviendra obsolète et démodée, laissant la place à nouveau aux commandes de conduite conventionnelles afin que le véhicule puisse être conduit par un humain ou être conduit par un robot de conduite. 

En outre, certains espèrent que nous serons si avancés dans l'adoption de voitures autonomes que nous n'utiliserons pas de robots indépendants pour conduire nos voitures.   

Voici la logique. 

Si un conducteur de robot est assis au volant, cela suggère que les commandes de conduite conventionnelles seront toujours disponibles à l'intérieur d'une voiture. Cela implique également que les humains pourront toujours conduire une voiture, quand ils le souhaitent. Mais la croyance est que les systèmes de conduite IA, qu'ils soient intégrés ou faisant partie d'un robot parlant à pied, seront de meilleurs conducteurs et réduiront les incidences de conduite en état d'ébriété et d'autres comportements de conduite indésirables. En bref, une vraie voiture autonome n'aura aucune commande de conduite, empêchant un robot qui parle à la marche de conduire (vraisemblablement) et empêchant (heureusement, affirment certains) un humain de conduire.   

Cela conduit à penser que peut-être le monde sera-t-il complètement passé à de véritables voitures autonomes et même si un robot de conduite qui parle à pied pourrait devenir réalisable, les choses seront si avancées que personne ne reviendra en arrière et ne réintroduira les voitures conventionnelles. 

Cela ressemble un peu à un vœu pieux. OD'une manière ou d'une autre, l'objectif central semble être de sortir le conducteur humain de l'équation. Cela met une voiture autonome-une qui a le système de conduite AI intégré ou un pilote de robot-dansà a position pour décider life or décès.   

Si cela semble plutôt funeste et sombre, Pour conférer au moment où tu mettez votre bien-aimé adolescent pilote débutant aux commandes de conduite. TLe spectre de la vie ou de la mort devient soudain assez prononcé. L'adolescentd le conducteur ressent généralement également ce devoir,.   

Depuis que Vie et mort   sur la ligne, hVoici la question intrigante d'aujourd'hui: Faites les trois Asimov   des robots s'appliquent aux vraies voitures autonomes basées sur l'IA, et si oui, que faut-il faire à ce sujet?   

Déballons la question et voyons. 

Pour mon cadre sur les voitures autonomes AI, voir le lien ici: https://aitrends.com/ai-insider/framework-ai-self-driving-driverless-cars-big-picture/   

Pourquoi c'est un effort lunaire, voir mon explication ici: https://aitrends.com/ai-insider/self-driving-car-mother-ai-projects-moonshot/ 

Pour en savoir plus sur les niveaux en tant que type d'échelle de Richter, voir ma discussion ici: https://aitrends.com/ai-insider/richter-scale-levels-self-driving-cars/   

Pour l'argument de la bifurcation des niveaux, voir mon explication ici: https://aitrends.com/ai-insider/reframing-ai-levels-for-self-driving-cars-bifurcation-of-autonomy/   

Comprendre les niveaux des voitures autonomes 

Pour clarifier, les vraies voitures autonomes sont celles que l'IA conduit entièrement seule et qu'il n'y a aucune assistance humaine pendant la tâche de conduite.   

Ces véhicules sans conducteur sont considérés comme un niveau 4 et un niveau 5, tandis qu'une voiture qui nécessite qu'un conducteur humain partage l'effort de conduite est généralement considérée comme un niveau 2 ou un niveau 3. Les voitures qui partagent la tâche de conduite sont décrites comme étant semi-autonome et contenant généralement une variété de modules complémentaires automatisés appelés ADAS (Advanced Driver-Assistance Systems).   

Il n'y a pas encore de vraie voiture autonome au niveau 5, que nous ne savons même pas encore si cela sera possible, ni combien de temps il faudra pour y arriver.   

Pendant ce temps, les efforts de niveau 4 tentent progressivement d'obtenir une certaine traction en subissant des essais routiers publics très étroits et sélectifs, bien qu'il y ait une controverse sur la question de savoir si ces tests devraient être autorisés en soi (nous sommes tous des cobayes à vie ou à mort dans une expérience se déroulant sur nos autoroutes et nos routes, certains affirment). 

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de ces types de voitures ne sera pas très différente de la conduite de véhicules conventionnels, il n'y a donc pas beaucoup de nouvelles en soi à couvrir à ce sujet (cependant, comme vous le verrez dans un instant, les points suivants sont généralement applicables).  

Pour les voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment, à savoir que malgré ces conducteurs humains qui continuent à publier des vidéos d'eux-mêmes s'endormant au volant d'une voiture de niveau 2 ou de niveau 3 , nous devons tous éviter d'être induits en erreur en leur faisant croire que le conducteur peut détourner son attention de la tâche de conduite tout en conduisant une voiture semi-autonome.   

Vous êtes la partie responsable des actions de conduite du véhicule, quelle que soit la quantité d'automatisation pouvant être lancée dans un niveau 2 ou 3. 

Pour savoir pourquoi le pilotage à distance ou l'utilisation de voitures autonomes est généralement évité, voir mon explication ici: https://aitrends.com/ai-insider/remote-piloting-is-a-self-driving-car-crutch/   

Pour vous méfier des fausses nouvelles concernant les voitures autonomes, consultez mes conseils ici: https://aitrends.com/ai-insider/ai-fake-news-about-self-driving-cars/   

Les implications éthiques des systèmes de conduite IA sont importantes, voir mon indication ici: https://aitrends.com/selfdrivingcars/ethically-ambiguous-self-driving-cars/   

Soyez conscient des pièges de la normalisation de la déviance en ce qui concerne les voitures autonomes, voici mon appel aux armes: https://aitrends.com/ai-insider/normalization-of-deviance-endangers-ai-self-driving-cars/   

Voitures autonomes et lois d'Asimov 

Pour les vrais véhicules autonomes de niveau 4 et de niveau 5, aucun conducteur humain ne sera impliqué dans la tâche de conduite. Tous les occupants seront des passagers; tl'IA fait la conduite 

Examinons brièvement chacune des trois règles d'Asimov et voyons comment elles pourraient s'appliquer aux vraies voitures autonomes. Premièrement, il y a la règle selon laquelle un robot ou un système de conduite IA (dans ce cas) ne doit pas blesser un humain, que ce soit par une action manifeste et ni par son inaction.   

C'est un défi de taille lorsqu'on est assis au volant d'une voiture. 

Une voiture autonome roule dans une rue et détecte attentivement les environs. À l'insu du système de conduite AI, un petit enfant se tient entre deux voitures garées, caché de la vue et caché de la portée sensorielle et de la profondeur de la voiture autonome. L'IA conduit à la limite de vitesse affichée. Tout à coup, l'enfant sort dans la rue.   

Certaines personnes supposent qu'une voiture autonome ne rencontrera jamais personne puisque l'IA possède ces capacités sensorielles de pointe et ne sera pas un conducteur ivre. Malheureusement, dans le genre de scénario que je viens de présenter, la voiture autonome va percuter cet enfant. Je dis cela parce que la loi de la physique est primordiale sur toute notion rêveuse de ce qu'un système de pilotage IA peut faire. 

Si l'enfant est apparemment sorti de nulle part et est maintenant disons à une distance de 15 pieds de la voiture en mouvement, et que la voiture autonome roule à 30 miles par heure, la distance d'arrêt est d'environ 50 à 75 pieds, ce qui signifie que l'enfant pourrait be frappé. Pas de deux façons à ce sujet.  

Et cela signifierait que le système de conduite AI vient de violer la première règle d'Asimov. 

L'IA a blessé un être humain. Gardez à l'esprit que je stipule que l'IA invoquerait en effet les freins de la voiture autonome et ferait tout ce qui est en son pouvoir pour éviter que l'enfant ne soit éperonné. Néanmoins, le temps et la distance sont insuffisants pour que l'IA évite la collision.   

Maintenant que nous avons montré l'impossibilité de toujours respecter la première règle d'Asimov en termes de respect strict de la règle, vous pouvez au moins affirmer que le système de conduite AI tentative pour obéir à la règle. En ayant utilisé les freins, il semblerait que le système de conduite AI ait essayé de ne pas heurter l'enfant, et l'impact pourrait être un peu moins grave si le véhicule était presque arrêté au moment de l'impact.   

Qu'en est-il de l'autre partie de la première règle qui stipule qu'il ne devrait y avoir aucune inaction qui pourrait causer le tort à un être humain? 

On suppose que si la voiture autonome n'essayait pas de s'arrêter, ce genre d'inaction pourrait relever de ce domaine, à savoir une fois de plus ne pas réussir à observer la règle. Nous pouvons ajouter une touche à cela. Supposons que le système de conduite AI soit capable de dévier la voiture, le faisant suffisamment pour éviter de heurter l'enfant, mais pendant ce temps, la voiture autonome se heurte à un séquoia. Il y a un passager à l'intérieur de la voiture autonome et cette personne reçoit un coup du lapin à cause de l'accident. 

D'accord, l'enfant dans la rue a été sauvé, mais le passager à l'intérieur de la voiture autonome est maintenant blessé. Vous pouvez vous demander si l'action pour sauver l'enfant était digne par rapport au résultat de blesser le passager. Vous pouvez également vous demander si l'IA n'a pas pris les mesures appropriées pour éviter de blesser le passager. Ce type de dilemme éthique est souvent décrit via le tristement célèbre problème du chariot, un aspect que j'ai soutenu avec véhémence est très applicable aux voitures autonomes et mérite beaucoup plus d'attention alors que l'avènement des voitures autonomes se poursuit.   

Tout compte fait, nous pouvons convenir que la première règle de la triade d'Asimov est un objectif ambitieux utile pour une véritable voiture autonome basée sur l'IA, bien que ces l'accomplissement sera assez difficile à réaliser et restera probablement à jamais une énigme pour la société.   

La deuxième des lois d'Asimov est que le robot ou dans ce cas le système de conduite de l'IA est censé obéir aux ordres qui lui sont donnés par un humain, à l'exclusion des situations dans lesquelles une telle commande émise par l'homme entre en conflit avec la première règle (c'est-à-dire, ne nuire aux humains).   

Cela semble simple et tout à fait agréable. 

Pourtant, même cette règle a ses problèmes.   

J'ai couvert dans mes chroniques l'histoire d'un homme qui a utilisé une voiture pour écraser un tireur sur un pont qui tirait et tuait des gens au hasard. Selon les autorités, le conducteur a été héroïque en ayant arrêté ce tireur.   

Si la deuxième loi Asimov était programmée dans le système de conduite AI d'une voiture autonome, et supposons qu'un passager ordonne à l'IA de renverser un tireur, l'IA refuserait vraisemblablement de le faire. Ceci est évident car l'instruction nuirait à un humain. Mais, nous savons que c'était un cas qui semble outrepasser la convention selon laquelle vous ne devriez pas utiliser votre voiture pour percuter des gens. 

Vous pourriez vous plaindre qu'il s'agit d'une exception rare. Je suis d'accord.    

De plus, si nous devions ouvrir la porte pour permettre aux passagers des voitures autonomes de dire à l'IA de renverser quelqu'un, le chaos et le chaos qui en résulteraient seraient intenables. En bref, il y a certainement un fondement pour soutenir que la deuxième règle devrait être appliquée, même si cela signifie que dans ces rares occasions, elle entraînerait un préjudice dû à l'inaction. 

Le fait est que vous n'avez pas besoin d'aller bien au-delà du monde quotidien pour trouver des situations qui n'auraient pas de sens pour qu'un système de conduite IA obéisse sans aucun doute à un passager. Un conducteur dans une voiture autonome dit à l'IA de monter sur le trottoir. Il n'y a pas de piétons sur le trottoir, donc personne ne sera blessé.   

Je vous demande, si le système de conduite AI obéit à cet humain-commande prononcée?   

Non, l'IA ne devrait pas, et nous allons finalement devoir faire face aux types d'énoncés de passagers humains que les systèmes de conduite IA prendront en compte, et quelles commandes seront rejetées. 

Le troisième exclure Asimov a postulé que le robot ou, dans ce cas, le système de conduite de l'IA doit protéger sa propre existence, tant que les première et deuxième règles ne sont pas annulées.   

Une voiture autonome doit-elle tenter de préserver son existence? 

Dans une chronique précédente, j'ai mentionné que certains pensent que les voitures autonomes auront environ quatre ans d'existence, pour finalement succomber à l'usure en seulement quatre ans de conduite. Cela semble surprenant car nous nous attendons à ce que les voitures durent beaucoup plus longtemps, mais la différence avec les voitures autonomes est qu'elles fonctionneront probablement près de 24 × 7 et gagneront beaucoup plus de kilomètres qu'une voiture conventionnelle (une voiture conventionnelle reste inutilisée à environ 95%. à 99% du temps).   

D'accord, alors supposez qu'une voiture autonome approche de sa fin utile. Il est prévu que le véhicule se rende au tas d'ordures pour le recyclage.   

Est-il acceptable que le système de conduite AI puisse décider d'éviter d'aller au centre de recyclage et ainsi essayer de préserver son existence?   

Je suppose que si un humain lui a dit d'y aller, la deuxième règle l'emporte et la voiture autonome doit obéir. L'IA peut être délicate et trouver des moyens sournois de se conformer à la première et à la deuxième règle, et néanmoins trouver une base de bonne foi pour rechercher sa pérennité (je laisse cela comme un exercice conscient que vous devez réfléchir).   

Pour plus de détails sur les ODD, voir mon indication sur ce lien ici: https://www.aitrends.com/ai-insider/amalgamating-of-operational-design-domains-odds-for-ai-self-driving-cars/ 

Sur le sujet des voitures autonomes tout-terrain, voici mes précisions: https://www.aitrends.com/ai-insider/off-roading-as-a-challenging-use-case-for-ai-autonomous-cars/ 

J'ai insisté pour qu'il y ait un responsable de la sécurité chez les constructeurs automobiles autonomes, voici le scoop: https://www.aitrends.com/ai-insider/chief-safety-officers-needed-in-ai-the-case-of-ai-self-driving-cars/ 

Attendez-vous à ce que les poursuites judiciaires deviennent progressivement une partie importante de l'industrie automobile autonome, voir mes détails explicatifs ici: https://aitrends.com/selfdrivingcars/self-driving-car-lawsuits-bonanza-ahead/ 

Conclusion   

IIl semblerait que les trois règles d'Asimov doivent être prises avec un grain de sel. Les systèmes de conduite IA peuvent être conçus avec ces règles dans le cadre de l'architecture globale, mais les règles sont des aspirationsdes lois non irréfutables et immuables.   

Peut-être que le point le plus important de cet entraînement mental sur les règles d'Asimov est de faire la lumière sur quelque chose que peu de gens font preuve de diligence raisonnable. Dans le cas des vraies voitures autonomes basées sur l'IA, il y a bien plus à concevoir et à déployer ces véhicules autonomes que de simples facettes mécaniques de la conduite d'une voiture.   

Conduire une voiture est un énorme dilemme éthique que les humains tiennent souvent pour acquis. Nous devons déterminer la réalité de la façon dont les systèmes de conduite par IA vont prendre des décisions de vie ou de mort. Cela doit être fait avant de commencer à inonder nos rues de voitures autonomes. 

Asimov l'a mieux dit: «L'aspect le plus triste de la vie en ce moment est que la science rassemble les connaissances plus rapidement que la société ne recueille la sagesse.»   

Des mots vrais qui valent la peine d'être revisités.  

Copyright 2021 Dr Lance EliotCe contenu est à l'origine publié sur AI Trends.  

[Ed. Remarque: Pour les lecteurs intéressés par les analyses commerciales en cours du Dr Eliot sur l'avènement des voitures autonomes, consultez sa colonne Forbes en ligne: https://forbes.com/sites/lanceeliot/] 

http://ai-selfdriving-cars.libsyn.com/website 

Source : https://www.aitrends.com/ai-insider/asimovs-three-laws-of-robotics-and-ai-autonomous-cars/

spot_img

Dernières informations

spot_img

Discutez avec nous

Salut! Comment puis-je t'aider?