Zephyrnet-logo

Behulpzame assistenten, romantische partners of oplichters? Deel twee » CCC-blog

Datum:

CCC ondersteunde drie wetenschappelijke sessies op de jaarlijkse AAAS-conferentie van dit jaar, en voor het geval u er niet persoonlijk bij kon zijn, zullen we elke sessie samenvatten. Vandaag zullen we de hoogtepunten van het vraag- en antwoordgedeelte van de sessie samenvatten: “Grote taalmodellen: behulpzame assistenten, romantische partners of oplichters?Dit panel, gemodereerd door Dr. Maria Gini, CCC-raadslid en hoogleraar computerwetenschappen en techniek aan de Universiteit van Minnesota Dr. Ece Kamar, Managing Director van AI Frontiers bij Microsoft Research, Dr. Hal Daumé III, hoogleraar computerwetenschappen aan de Universiteit van Maryland, en Dr. Jonathan May, hoogleraar computerwetenschappen aan het Information Sciences Institute van de University of Southern California.

Hieronder vindt u de fascinerende samenvatting van het vraag- en antwoordgedeelte van de "Grote taalmodellen: behulpzame assistenten, romantische partners of oplichters?"paneel. Is AI in staat tot liefde? Welke impact kunnen deze modellen hebben op kinderen? Hoe verhouden de AI-mogelijkheden van de Verenigde Staten zich tot elkaar? Ontdek het hieronder:

Vraag: Welke praktijken moeten we doen bij het inzetten van AI-taalmodellen in meertalige en multiculturele contexten?

Dr. May: Bij het ontwikkelen van technologie en het neerhalen van muren moet het voor mensen gemakkelijker worden gemaakt om te doen wat ze willen doen. Wat iedereen wil doen, en niet alleen ik. Bedankt AI, geweldig om op mij te focussen, maar we moeten aandacht besteden aan de rest van de wereld in het algemeen.

Vraag: Een aantal van deze algemene kwesties – dit is niet de eerste keer dat ze ter sprake komen. Het lijkt erop dat de gemeenschap hier niet zelf op zal komen. Ik vraag me af of jullie allemaal ideeën hebben over hoe je deze gesprekken in actie kunt brengen?

Dr. Kamar: Er zijn rollen voor veel verschillende partijen om te spelen. Evaluatie is van groot belang bij het vertegenwoordigen van verschillende culturen en bevolkingsgroepen. Wanneer datasets geen diversiteit in de wereldrepresentatie hebben, zijn de resulterende systemen niet representatief. Er moet veel werk worden verzet bij het vormen van beste praktijken voor evaluatie, regelgeving en nalevingsmaatregelen. Het Witte Huis heeft toezeggingen gedaan en de blauwdruk voor een AI Bill of Rights gaat van start. Er zijn processen geïmplementeerd in de hele industrie, waarbij veel grote geesten samenwerken (niet perfect, maar generaliserend over de hele industrie heen is er potentieel). Er vinden bijeenkomsten plaats om tot convergentie te komen, wat momenteel als standaard begint; mogelijk in toekomstige regelgeving. Hoe voeren we evaluaties, veiligheidsanalyses, enz. uit? Geen van deze gesprekken heeft de diversiteit die in de kamer nodig is. Bedenk wie er in de kamer moet zijn als er beslissingen worden genomen.

Dr. Daumé: Ik denk dat als mensen over regulering praten, vooral op het gebied van AI, iedereen aan strafmaatregelen denkt. Maar dit kan ook regelgeving stimuleren. Het financieren van beleidsmakers en NSF zou de ontwikkeling van instrumenten kunnen bevorderen die ons als natie en de wereld helpen.

Vraag: De financiering voor AI loopt in de VS ver achter in vergelijking met andere plaatsen in de wereld. De nieuwe investering van NSF bedraagt ​​20 miljoen euro, wat peanuts is vergeleken met investeringen in de industrie. De federale overheid publiceert al jaren rapporten uit onderzoeken en de conclusie is dat de VS aan de slag moeten. Ik houd van de faseveranderingsanalogie van Ece. De thermodynamische limiet met getallen groeit. Wij willen open AI, wie gaat daarvoor betalen? Er is niet genoeg geld. Wat zijn jouw suggesties? AI openen? Maar we hebben niet eens open access publiceren. Zou u de president aanbevelen om geen wetgeving te hebben?

Dr. May: Ik denk dat er geld is; iemand merkte tegen mij op dat je erin bent geslaagd de regering ervan te overtuigen deeltjes rond te draaien, maar dat je het niet naar ons hebt kunnen omleiden.

Dr. Kamar: De reden dat bedrijven die deze modellen bouwen deze resultaten verkrijgen, is door centralisatie van middelen. Er is veel dat je haalt uit schaalgrootte. We moeten nadenken over hoe we investeringen in de academische wereld centraliseren, zodat we een gedeelde bron krijgen in plaats van veel verschillende modellen. We zien dat het niet alleen om schaal gaat. Niet iets wat we nu moeten doen, maar de huidige architectuur is niet geweldig. Het hebben van goede AI-mogelijkheden moet niet alleen over meer geld en meer macht gaan.

Vraag: Vooroordelen over oververtegenwoordiging in antwoorden. Weten we waar het vandaan komt? Ik ben een wiskundeman, en mijn gedachten gaan naar: is het een combinatie van afrondingsfouten die vooringenomenheid toevoegt? Als er sprake is van gelijke vertegenwoordiging, kan ik me voorstellen dat dit een gelijke vertegenwoordiging oplevert, of zou het er nog steeds zijn?

Dr. May: Veel komt neer op piekfuncties. Zacht maximum is een belangrijk onderdeel van training. Hoogste wil nummer 1 zijn. Het is niet zo dat er sprake is van een perfecte taaluitvoer, maar we willen wel enige vooringenomenheid hebben.' We willen alleen maar de schade aan mensen tot een minimum beperken, en vaak onderkennen we deze niet. Implementatie zonder begrip is een probleem. 

Dr. Daumé: Een van de uitdagingen met deze modellen is dat er geen beperkte AI-modellen meer zijn. Ze zeggen dat ze alles kunnen, dus het is moeilijk om alles te testen.

Vraag: U noemde AI een hulpmiddel of een vervanging, welke kant denkt u op?

Dr. Daumé: Er gaat meer geld naar vervanging.

Vraag: De titel vermeldde romantische AI. Daar wil ik meer over weten.

Dr. May: Er zit niet genoeg intentie in modellen om levensvatbare romantische vervangingen te zijn, maar ze zijn net zo goed als mensen in het herkennen van patronen, zelfs als ze niet bestaan.

Dr. Kamar: Ik raad je aan om niet over AI te denken zoals het nu is. Probeer in de toekomst te projecteren – stel je voor dat deze systemen over een paar jaar voor jou gepersonaliseerd zullen zijn. Wat is de relatie die u met dat systeem zult hebben?

Dr. May: Maar zal het van je houden?

Dr. Kamar: Het zal je vertellen dat het van je houdt.

Dr. May: Maar is dat genoeg?

Vraag: Ik wil advies horen voor mensen die niet op het gebied van AI actief zijn. Hoe kunnen we met deze tools omgaan? Wat moeten we weten?

Dr. Daumé: Aan de Universiteit van Maryland voeren we deze gesprekken veel. Ik kan gemakkelijk zeggen dat de journalistiek over vijf jaar anders zal zijn, en ook op andere terreinen. Het is ongemakkelijk om te zeggen dat de rol van hoogleraar over vijf jaar anders zal zijn, maar dat zal wel zo zijn. Ik heb collega's die verschillende LLM-plug-ins gebruiken voor voorstellen en papers; het gebeurt al. Ik heb regelmatig examenvragen die door tools zijn geschreven, maar ik moet wel controleren op juistheid. Het schrijven van examenvragen geeft mij geen plezier, dus AI kan het van mij overnemen. In het hoger onderwijs moeten we er meer over nadenken. Hoe verandert het onze banen? Er zijn veel discussies gaande op universiteiten, maar er is niet veel sprake van het bundelen van middelen.

Vraag: Hoe welkom is het dat AI in de toekomst wordt beoordeeld bij het overwegen van militaire toepassingen? Er is tijdens deze sessie geen melding gemaakt van militaire toepassingen. Ik weet dat als ik de mensen half goed lees, er over dat onderwerp een verschil van mening bestaat.

Dr. May: Het leger is breed, veel van mijn werk wordt gesponsord door het ministerie van Defensie. Moeilijk specifiek te beantwoorden, in het algemeen lijkt het ministerie van Defensie (niet namens hen te spreken) prioriteit te geven aan de veiligheid en beveiliging van de VS, en zal dat blijven doen en LLM's en AI inzetten om de VS te helpen veilig te zijn.

Dr. Kamar: We moeten ook praten over tweeërlei gebruik. Als je kijkt naar het militaire werk dat gaande is op het gebied van de biologie of cyberveiligheid, kunnen we de veelbelovende instrumenten die we nu hebben gebruiken, omdat we veilige systemen en nieuwe medicijnen willen. Maar bij elk goed gebruik zul je een slecht gebruik hebben. In welke gebruikssituaties willen we niet dat AI wordt gebruikt? In open source-applicaties kunnen mensen deze modellen repliceren. Hoe voorkomen we dat mensen in deze gevallen schade berokkenen?

Vraag: Bij interactie met taalmodellen begrijpen volwassenen dat het niet levend/zelfbewust is, maar hoe zit het enkele generaties later; kinderen die het hebben gehad sinds ze zich het socialiseren herinneren? Ze hebben een tutor of leraar die volledig AI is; het systeem is ingebed met een instructeur. Ze kunnen een band opbouwen met de instructie, denken dat ze een geweldige relatie hebben, en dan wordt het programma verwijderd. Wat is de kinderpsychologie van sociaal-emotionele banden met niet-persoonlijke entiteiten?

Dr. Kamar: We hebben onderzoek nodig, interdisciplinair onderzoek, en we hebben het snel nodig. Over vijf jaar krijgen we deze antwoorden misschien, maar in die tijd kan AI een groot deel gaan uitmaken van het leven van mijn tienjarige. Uw vraag is uiterst belangrijk. Er is onderzoek dat aantoont dat zelfs onschuldige systemen achterdeurtjes kunnen hebben. We hebben veiligheidsexperts en specialisten op het gebied van kinderontwikkeling nodig die vandaag deze gesprekken voeren.

Dr. Daumé: Ik weet niet of iemand zich de surveillance Barbie herinnert – er is hier sprake van een groot privacyprobleem. Het is een interessanter maatschappelijk vraagstuk. De reacties waren overdreven positief. Kinderen zeiden dingen als: ik ben boos omdat Sally niet met mij speelde, en het geeft geen sociaal passende suggesties. Ik maak me zorgen over zeer positieve agenten, omdat positiviteit niet altijd het juiste antwoord is.

Heel erg bedankt voor het lezen, en blijf op de hoogte voor de samenvatting van ons derde en laatste panel op AAAS 2024.

spot_img

Laatste intelligentie

spot_img