Zephyrnet-logo

AI als bemiddelaar: 'slimme' antwoorden helpen mensen communiceren tijdens pandemie

Datum:

Het dagelijkse leven tijdens een pandemie betekent sociale afstand nemen en nieuwe manieren vinden om op afstand contact te maken met vrienden, familie en collega's. En terwijl we online en via tekst communiceren, zou kunstmatige intelligentie een rol kunnen spelen om onze gesprekken op het goede spoor te houden, volgens nieuw onderzoek van Cornell University.

Mensen die moeilijke gesprekken voerden, zeiden dat ze kunstmatig intelligente systemen - de "slimme" antwoordsuggesties in teksten - meer vertrouwden dan de mensen met wie ze spraken, volgens een nieuwe studie, "AI as a Moral Crumple Zone: The Effects of Mediated AI Communication on Attribution and Trust", online gepubliceerd in het tijdschrift Computers in menselijk gedrag.

"We merken dat wanneer er iets misgaat, mensen de verantwoordelijkheid op zich nemen die anders bij hun menselijke partner zou zijn gelegd en een deel daarvan aan het kunstmatige-intelligentiesysteem toewijzen", zegt Jess Hohenstein, een promovendus op het gebied van informatiewetenschap en de eerste auteur van het artikel. "Dit introduceert een potentieel om AI te nemen en te gebruiken als bemiddelaar in onze gesprekken."

Het algoritme kan bijvoorbeeld merken dat het bergafwaarts gaat door de gebruikte taal te analyseren en vervolgens strategieën voor conflictoplossing voorstellen, zei Hohenstein.

De studie was een poging om de talloze manieren te onderzoeken - zowel subtiel als significant - waarop AI-systemen zoals slimme antwoorden de manier waarop mensen met elkaar omgaan veranderen. Het kiezen van een voorgesteld antwoord dat niet helemaal is wat je bedoelde te zeggen, maar je wat typen bespaart, kan de loop van je gesprekken - en je relaties - fundamenteel veranderen, aldus de onderzoekers.

"Communicatie is zo fundamenteel voor hoe we percepties van elkaar vormen, hoe we relaties aangaan en onderhouden, of hoe we iets kunnen bereiken door samen te werken", zegt co-auteur Malte Jung, assistent-professor informatica en directeur van het laboratorium Robots in Groups, dat onderzoekt hoe robots de groepsdynamiek veranderen.

"Deze studie valt binnen de bredere agenda om te begrijpen hoe deze nieuwe AI-systemen ons vermogen tot interactie aantasten", zei Jung. "We denken vaak na over hoe het ontwerp van systemen van invloed is op hoe we ermee omgaan, maar minder studies richten zich op de vraag hoe de technologieën die we ontwikkelen van invloed zijn op hoe mensen met elkaar omgaan."

Naast het belichten van hoe mensen computers waarnemen en ermee omgaan, biedt de studie mogelijkheden om de menselijke communicatie te verbeteren - met subtiele begeleiding en herinneringen van AI.

Hohenstein en Jung zeiden dat ze probeerden te onderzoeken of AI zou kunnen functioneren als een "morele kreukelzone" - het technologische equivalent van de kreukelzone van een auto, ontworpen om te vervormen om de impact van de crash te absorberen.

"Er zit een fysiek mechanisme aan de voorkant van de auto dat is ontworpen om de kracht van de botsing te absorberen en de verantwoordelijkheid te nemen voor het minimaliseren van de gevolgen van de crash", zei Hohenstein. "Hier zien we dat het AI-systeem een ​​deel van de morele verantwoordelijkheid op zich neemt."

Het onderzoek werd mede mogelijk gemaakt door de National Science Foundation.

Verhaal Bron:

Materialen door Cornell University. Origineel geschreven door Melanie Lefkowitz. Opmerking: inhoud kan worden bewerkt voor stijl en lengte.

Bron: https://www.sciencedaily.com/releases/2020/03/200331162237.htm

spot_img

Laatste intelligentie

spot_img