Zephyrnet-logo

De grootste ontdekkingen in de computerwetenschappen in 2023 | Quanta-tijdschrift

Datum:

Introductie

In 2023 domineerde kunstmatige intelligentie de populaire cultuur en verscheen in alles, van internetmemes tot hoorzittingen in de Senaat. Grote taalmodellen zoals die achter ChatGPT hebben veel van deze opwinding aangewakkerd, zelfs toen onderzoekers nog steeds moeite hadden om de ‘zwarte doos’ open te wrikken die hun innerlijke werking beschrijft. Beeldgeneratiesystemen maakten ook routinematig indruk op ons en brachten ons in verwarring met hun artistieke capaciteiten, maar daar werd expliciet op gegrondvest concepten ontleend aan de natuurkunde.

Het jaar bracht nog veel meer vooruitgang op het gebied van de informatica. Onderzoekers hebben subtiele maar belangrijke vooruitgang geboekt bij een van de oudste problemen op dit gebied, een vraag over de aard van harde problemen die ‘P versus NP’ wordt genoemd. In augustus mijn collega Ben Brubaker dit fundamentele probleem onderzocht en de pogingen van computationele complexiteitstheoretici om de vraag te beantwoorden: waarom is het moeilijk (in precieze, kwantitatieve zin) om te begrijpen wat moeilijke problemen moeilijk maakt? “Het is geen gemakkelijke reis geweest – het pad is bezaaid met valse bochten en wegversperringen, en het keert steeds weer terug in zichzelf”, schreef Brubaker. “Maar voor meta-complexiteitsonderzoekers is die reis naar een onbekend landschap zijn eigen beloning.”

Het jaar was ook vol met meer discrete maar nog steeds belangrijke stukjes individuele vooruitgang. Het algoritme van Shor, de lang beloofde killer-app van quantum computing, kreeg zijn doel eerste belangrijke upgrade na bijna 30 jaar. Onderzoekers leerden eindelijk hoe ze de kortste route via een algemeen type netwerk konden vinden bijna zo snel als theoretisch mogelijk is. En cryptografen, die een onverwachte verbinding met AI smeedden, lieten zien hoe machine learning-modellen en machinaal gegenereerde inhoud ook te maken hebben met verborgen kwetsbaarheden en berichten.

Het lijkt erop dat sommige problemen nog steeds buiten ons vermogen liggen om op te lossen – voorlopig.

Introductie

Al vijftig jaar lang proberen computerwetenschappers de grootste open vraag in hun vakgebied op te lossen, bekend als ‘P versus NP’. Het vraagt ​​grofweg hoe moeilijk bepaalde moeilijke problemen zijn. En al vijftig jaar zijn hun pogingen op een mislukking uitgelopen. Vaak, net toen ze vooruitgang begonnen te boeken met een nieuwe aanpak, stuitten ze op een barrière die bewees dat de tactiek nooit zou werken. Uiteindelijk begonnen ze zich af te vragen waarom het zo moeilijk is om te bewijzen dat sommige problemen moeilijk zijn. Hun inspanningen om dergelijke naar binnen gerichte vragen te beantwoorden zijn uitgegroeid tot een subveld, genaamd meta-complexiteit, dat de grootste inzichten in de vraag tot nu toe heeft opgeleverd.

In een augustus dit artikel en korte documentaire video, Quanta legde precies uit wat we weten, hoe we het weten en wat we net beginnen te ontdekken als het gaat om metacomplexiteit. Op het spel staat niet alleen de nieuwsgierigheid van de betrokken onderzoekers: het oplossen van P versus NP zou talloze logistieke problemen kunnen oplossen, alle cryptografie ter discussie kunnen stellen en zelfs iets kunnen zeggen over de ultieme aard van wat kenbaar is en wat voor altijd buiten ons bereik ligt.

Introductie

Zorg dat je voldoende spullen bij elkaar hebt, en je zult misschien verrast zijn door wat er kan gebeuren. Watermoleculen creëren golven, zwermen vogels vliegen en vliegen als één geheel, en onbewuste atomen komen samen tot leven. Wetenschappers noemen dit ‘opkomend gedrag’, en dat is ook zo onlangs hetzelfde gezien gebeurt met grote taalmodellen: AI-programma's zijn getraind op enorme tekstverzamelingen om menselijk schrift te produceren. Nadat ze een bepaalde grootte hebben bereikt, kunnen deze modellen plotseling onverwachte dingen doen die kleinere modellen niet kunnen, zoals het oplossen van bepaalde wiskundige problemen.

Toch heeft de toenemende belangstelling voor grote taalmodellen nieuwe zorgen opgeroepen. Deze programma's verzinnen onwaarheden, sociale vooroordelen in stand houden en niet kunnen verwerken zelfs enkele van de meest elementaire elementen van de menselijke taal. Bovendien blijven deze programma's een black box, waarvan de interne logica onkenbaar is, ook al is dat bij sommige onderzoekers wel het geval ideeën over hoe je dat kunt veranderen.

Introductie

Computerwetenschappers kennen al lang algoritmen die door grafieken kunnen zoeven – netwerken van knooppunten die met elkaar verbonden zijn door randen – waar de verbindingen enige kosten met zich meebrengen, zoals een tolweg die twee steden met elkaar verbindt. Maar tientallen jaren lang konden ze geen enkel snel algoritme vinden om het kortste pad te bepalen, terwijl aan een weg zowel kosten als beloningen verbonden konden zijn. Eind vorig jaar, een drietal onderzoekers een werkbaar algoritme opgeleverd dat is bijna net zo snel als theoretisch mogelijk is.

In maart berichtten onderzoekers een nieuw algoritme die op een precieze manier kan bepalen wanneer twee soorten wiskundige objecten, bekend als groepen, hetzelfde zijn; het werk kan leiden tot algoritmen die snel groepen (en misschien andere objecten) in het algemeen kunnen vergelijken, een verrassend moeilijke taak. Ander groot algoritmenieuws dit jaar omvatte een nieuwe manier van werken priemgetallen berekenen door willekeurige en deterministische benaderingen te integreren, kan de weerlegging van een al lang bestaand vermoeden over de prestaties van algoritmen met beperkte informatie, en een analyse die laat zien hoe een niet-intuïtief idee dat kan doen de prestaties verbeteren van algoritmen voor gradiëntdaling, die alomtegenwoordig zijn in machine learning-programma's en andere gebieden.

Introductie

Beeldgenererende tools zoals DALL·E 2 zijn dit jaar explosief in populariteit gestegen. Geef ze gewoon een schriftelijke opdracht en ze spugen een kunsttableau terug met de afbeelding van wat je maar hebt gevraagd. Maar het werk dat de meeste van deze kunstmatige kunstenaars mogelijk maakte, was dat wel geweest brouwt al vele jaren. Gebaseerd op concepten uit de natuurkunde die de verspreiding van vloeistoffen beschrijven, leren deze zogenaamde diffusiemodellen effectief hoe ze vormloze ruis kunnen ontcijferen tot een scherp beeld – alsof je de klok van een kop koffie terugdraait en ziet hoe de gelijkmatig verdeelde room zich vormt tot een putje. gedefinieerde klodder.

AI-tools zijn ook succesvol geweest het verbeteren van de betrouwbaarheid van bestaande afbeeldingen, hoewel we nog steeds ver verwijderd zijn van de tv-figuur van een agent die herhaaldelijk ‘Verbeter!’ roept. Meer recentelijk hebben onderzoekers zich tot dit onderwerp gewend fysieke processen naast diffusie om nieuwe manieren te verkennen waarop machines afbeeldingen kunnen genereren. Een nieuwere benadering, gebaseerd op de Poisson-vergelijking, die beschrijft hoe elektrische krachten over afstand variëren, is al beter in staat gebleken fouten te verwerken en is in sommige gevallen gemakkelijker te trainen dan diffusiemodellen.

Introductie

Het algoritme van Shor is al tientallen jaren het toonbeeld van de kracht van kwantumcomputers. Deze reeks instructies, ontwikkeld door Peter Shor in 1994, maakt het mogelijk dat een machine die de eigenaardigheden van de kwantumfysica kan exploiteren, grote getallen veel sneller in hun belangrijkste factoren kan opsplitsen dan een gewone, klassieke computer – waardoor mogelijk een groot deel van de beveiligingssystemen van het internet wordt verwoest. In augustus een computerwetenschapper ontwikkelde een nog snellere variant van het algoritme van Shor, de eerste significante verbetering sinds de uitvinding ervan. “Ik had gedacht dat elk algoritme dat met dit basisschema zou werken gedoemd zou zijn,” zei Shor. "Maar ik had het fout."

Toch zijn praktische kwantumcomputers nog steeds buiten bereik. In het echte leven kunnen kleine fouten snel oplopen, waardoor berekeningen verpest worden en alle kwantumvoordelen teniet worden gedaan. Eind vorig jaar kwam er zelfs een team van computerwetenschappers vertoonde dat voor een specifiek probleem een ​​klassiek algoritme het ongeveer net zo goed doet als een kwantumalgoritme dat fouten bevat. Maar er is hoop: uit onderzoek in augustus is gebleken dat bepaalde foutcorrectiecodes, bekend als pariteitscontrolecodes met lage dichtheid, minstens 10 keer efficiënter dan de huidige standaard.

Introductie

Een team van computerwetenschappers doet een ongebruikelijke vondst op het snijvlak van cryptografie en kunstmatige intelligentie liet zien dat het mogelijk was om in machine learning-modellen bepaalde achterdeurtjes in te voegen die vrijwel onzichtbaar waren en waarvan de onopspoorbaarheid werd ondersteund door dezelfde logica als de beste moderne encryptiemethoden. De onderzoekers concentreerden zich op relatief eenvoudige modellen, dus het is onduidelijk of hetzelfde geldt voor de meer gecompliceerde modellen achter veel van de huidige AI-technologie. Maar de bevindingen suggereren manieren waarop toekomstige systemen zich kunnen beschermen tegen dergelijke beveiligingsproblemen, terwijl ze ook wijzen op een hernieuwde interesse in hoe de twee velden elkaar kunnen helpen groeien.

Dit soort veiligheidsproblemen zijn een deel van de reden Cynthia Rudin is voorstander van het gebruik van interpreteerbare modellen om beter te begrijpen wat er gebeurt binnen machine learning-algoritmen; onderzoekers vinden het leuk Yael Tauman Kalaihebben ondertussen onze ideeën over veiligheid en privacy naar voren gebracht, zelfs in het licht van de opdoemende kwantumtechnologie. En een resultaat op het gerelateerde gebied van steganografie liet zien hoe je een bericht kunt verbergen met perfecte beveiliging binnen machinaal gegenereerde media.

Introductie

Hoe krachtig AI ook is geworden, de kunstmatige neurale netwerken die ten grondslag liggen aan de meeste moderne systemen hebben twee tekortkomingen gemeen: ze vereisen enorme middelen om te trainen en te opereren, en het is te gemakkelijk voor hen om ondoorgrondelijke zwarte dozen te worden. Veel onderzoekers beweren dat het misschien tijd is voor een andere aanpak. In plaats van kunstmatige neuronen te gebruiken die individuele eigenschappen of karakteristieken detecteren, zouden AI-systemen concepten kunnen vertegenwoordigen met eindeloze variaties van hyperdimensionale vectoren – reeksen van duizenden getallen. Dit systeem is veelzijdiger en beter uitgerust om met fouten om te gaan, waardoor de berekeningen veel efficiënter worden, en het stelt onderzoekers in staat rechtstreeks te werken met de ideeën en relaties die deze modellen in overweging nemen, waardoor ze meer inzicht krijgen in de redenering van het model. Hyperdimensionaal computergebruik staat nog in de kinderschoenen, maar naarmate het aan grotere tests wordt onderworpen, kunnen we zien dat de nieuwe aanpak vaste voet aan de grond krijgt.

spot_img

Laatste intelligentie

spot_img