Zephyrnet-logo

Samenvatting van beloften en valkuilen – Deel vier » CCC Blog

Datum:

CCC ondersteunde dit jaar drie wetenschappelijke sessies tijdens de jaarlijkse AAAS-conferentie. Deze week vatten we de hoogtepunten van de sessie samen: “Generatieve AI in de wetenschap: beloften en valkuilen.Dit panel, gemodereerd door Dr. Matthew Turk, voorzitter van het Toyota Technological Institute in Chicago). Dr. Rebecca Willett, hoogleraar statistiek en computerwetenschappen aan de Universiteit van Chicago, Dr. Markus Bühler, hoogleraar techniek aan het Massachusetts Institute of Technology, en Dr. Duncan Watson-Parris, assistent-professor bij Scripps Institution of Oceanography en het Halıcıoğlu Data Science Institute aan UC San Diego. In deel vier vatten we het vraag- en antwoordgedeelte van het panel samen. 

Op de presentaties van het panellid volgde een vraag- en antwoordsessie, en dr. Matthew Turk opende de discussie. “'Beloften en valkuilen' staat in de titel van dit paneel. We hebben veel van de beloften besproken, maar we hebben nog niet veel van de valkuilen aangepakt. Wat baart u zorgen over de toekomst van generatieve AI?”

“De betrouwbaarheid en betrouwbaarheid van deze modellen is een groot probleem”, begon dr. Rebecca Wilett. “Deze modellen kunnen dingen voorspellen die plausibel zijn, maar waarin belangrijke, opvallende elementen ontbreken; Kan ik als mens herkennen dat daar iets ontbreekt?”

Dr. Markus Buehler voegde eraan toe dat de daadwerkelijke voorspelling van een model een seconde kan duren, maar dat het experimentele validatieproces maanden, een jaar of langer kan duren. Dus hoe moeten we in de tussentijd te werk gaan als we de resultaten niet hebben geverifieerd? “We moeten ook de volgende generatie generatieve AI-ontwikkelaars opleiden, zodat zij modellen ontwerpen die betrouwbaar en verifieerbaar zijn, en dat we op fysica gebaseerde inzichten kunnen gebruiken bij de constructie van deze modellen.”

Dr. Duncan Watson-Parris bouwde voort op beide voorgaande punten en zei: “Omdat deze modellen zijn ontworpen om plausibele resultaten te genereren, kunnen we niet alleen naar de resultaten kijken om hun nauwkeurigheid te verifiëren. Generatieve AI-onderzoekers moeten een diep begrip hebben van hoe deze modellen werken om hun resultaten te kunnen verifiëren. Daarom is het correct opleiden van de volgende generatie zo belangrijk.”

Toehoorder: “In de materiaalkunde weten we welke richting we op moeten gaan voor het bestuderen van sommige materialen, maar voor andere, zoals supergeleiders op kamertemperatuur, weten we niet hoe we verder moeten. Hoe denk je dat de weg voorwaarts bij het bestuderen van deze onbekende materialen eruit zal zien? En hoe moet dit soort onderzoek vanuit regelgevend oogpunt mogelijk worden gemaakt?”

“Nou, ik ben geen expert op het gebied van onderzoek naar supergeleiders,” zei Dr. Buehler, “dus ik zal daar niet rechtstreeks op ingaan, maar ik kan wel in het algemeen praten over hoe we vooruitgang boeken in de materiaalkunde, met name op mijn gebied van eiwitten. en de ontwikkeling van biomaterialen. De manier waarop we vooruitgang boeken, is dat we de grenzen kunnen verleggen. We voeren nieuwe experimenten uit en testen bizarre ideeën en theorieën en kijken welke werken en waarom. Wat betreft de manier waarop we dit onderzoek mogelijk moeten maken, hebben we meer open-sourcemodellen met collectieve toegang nodig. Ik zou politici willen aanmoedigen om deze technologieën niet te overreguleren, zodat onderzoekers en het publiek toegang hebben tot dit soort modellen. Ik denk niet dat het een goed idee is om te voorkomen dat mensen deze modellen gebruiken, vooral niet als we ideeën en ontwikkelingen kunnen crowdsourcen en kennis uit diverse gebieden van menselijke activiteit kunnen introduceren. Toen de drukpers bijvoorbeeld werd uitgevonden, probeerden de autoriteiten de beschikbaarheid van deze technologie te beperken, zodat er maar weinig boeken massaal konden worden gelezen, maar deze poging mislukte jammerlijk. De beste manier om het publiek te beschermen is door de toegang tot deze modellen op zo’n manier te vergemakkelijken dat we ze uitgebreid kunnen ontwikkelen, onderzoeken en evalueren voor maximaal voordeel voor de samenleving.”

Toeschouwer: “De meeste generatieve AI-modellen van vandaag zijn regressiemodellen die zich richten op het simuleren of emuleren van verschillende scenario’s. Ontdekkingen in de wetenschap worden echter gevoed door de hypothesen en voorspellingen die we bedenken. Dus hoe creëren we modellen die bedoeld zijn om nieuwe voorspellingen te doen, in plaats van de huidige modellen die vooral voor experimenten worden gebruikt?”

Dr. Buehler reageerde als eerste en zei: “Je hebt gelijk: de meeste traditionele modellen voor machinaal leren zijn vaak gebaseerd op regressie, maar de modellen waar we het vandaag over hadden, werken anders. Wanneer je multi-agentsystemen met veel mogelijkheden samenstelt, beginnen ze feitelijk nieuwe scenario's te verkennen en beginnen ze te redeneren en voorspellingen te doen op basis van de experimenten die ze hebben uitgevoerd. Ze worden menselijker. Jij, als onderzoeker, zou geen experiment uitvoeren en gewoon klaar zijn – je zou een experiment uitvoeren en dan naar de gegevens gaan kijken en deze valideren en nieuwe voorspellingen doen op basis van deze gegevens, om de punten met elkaar te verbinden en te extrapoleren door het maken van hypothesen en het in beeld brengen van hoe een nieuw scenario zich zou ontvouwen. Je experimenteert, verzamelt nieuwe gegevens, ontwikkelt een theorie en stelt misschien een geïntegreerd raamwerk voor over een bepaald interessant onderwerp. Vervolgens verdedigt u uw ideeën tegen de kritiek van uw collega's en herziet u misschien uw hypothese wanneer er nieuwe informatie wordt gebruikt. Dit is hoe nieuwe multi-agent vijandige systemen werken, maar ze vullen uiteraard de menselijke vaardigheden aan met een veel groter vermogen om over enorme hoeveelheden gegevens en representaties van kennis te redeneren. Deze modellen kunnen al nieuwe hypothesen genereren die veel verder gaan dan wat al is bestudeerd, wat bijdraagt ​​aan het wetenschappelijke proces van ontdekking en innovatie.”

“Ik zou dat willen aanvullen,” kwam dr. Willett tussenbeide, “met het gebied van voltooiingsontdekking en symbolische regressie als een ander gebied dat veel meer gericht is op het genereren van hypothesen. Er wordt op dit gebied nog veel gewerkt.”

Toeschouwer: “Hoe kunnen we de toegang tot dit soort modellen vergroten en hindernissen overwinnen, zoals de meeste modellen die voor Engelssprekenden worden gemaakt?”

Dr. Rebecca Willett antwoordde en zei: “Veel mensen hebben toegang tot het gebruik van deze modellen, maar het ontwerpen en trainen ervan kost vele miljoenen dollars. Als slechts een kleine groep organisaties in staat is deze modellen op te zetten, dan neemt slechts een zeer kleine groep mensen de beslissingen en stelt zij prioriteiten in de wetenschappelijke gemeenschap. En vaak zijn de prioriteiten van deze organisaties en individuen winstgedreven. Dat gezegd hebbende, denk ik dat het landschap begint te veranderen. Organisaties als de NSF proberen een infrastructuur op te bouwen die toegankelijk is voor de bredere wetenschappelijke gemeenschap. Deze inspanning lijkt op de vroege ontwikkeling van supercomputers. In de beginperiode moesten onderzoekers langdurige voorstellen indienen om toegang te krijgen tot een supercomputer. Ik denk dat we vergelijkbare opkomende paradigma’s gaan zien in AI en generatieve AI.”

“Ik ben het ermee eens”, zei Dr. Watson-Parris. “Als ik daar vanuit regelgevingsoogpunt nog eens aan toevoeg, denk ik niet dat we fundamenteel onderzoek moeten reguleren, misschien wel de toepassingsruimten, maar niet het onderzoek zelf.”

Heel erg bedankt voor het lezen, en blijf op de hoogte van de samenvattingen van onze andere twee panels op AAAS 2024.

spot_img

Laatste intelligentie

spot_img