Life is een bloemlezing van vernietiging. Alles wat je bouwt, gaat uiteindelijk kapot. Iedereen van wie je houdt, zal sterven. Elk gevoel van orde of stabiliteit brokkelt onvermijdelijk af. Het hele universum volgt een sombere tocht naar een saaie staat van ultieme onrust.
Om dit kosmische verval bij te houden, gebruiken natuurkundigen een concept dat entropie heet. Entropie is een maatstaf voor wanorde en de verklaring dat entropie altijd stijgt — bekend als de tweede wet van de thermodynamica — is een van de meest onontkoombare geboden van de natuur.
Ik voel me al lang gekweld door de universele neiging tot rommeligheid. Orde is fragiel. Het kost maanden van zorgvuldige planning en artisticiteit om een vaas te maken, maar een moment om hem te vernietigen met een voetbal. We brengen ons leven door met worstelen om zin te geven aan een chaotische en onvoorspelbare wereld, waar elke poging om controle te krijgen alleen maar averechts lijkt te werken. De tweede wet vereist dat machines nooit perfect efficiënt kunnen zijn, wat impliceert dat wanneer structuur ontstaat in het universum dient het uiteindelijk alleen om energie verder te verspreiden — of het nu een ster is die uiteindelijk explodeert of een levend organisme dat voedsel omzet in warmte. We zijn, ondanks onze beste bedoelingen, agenten van entropie.
“Niets in het leven is zeker, behalve de dood, belastingen en de tweede wet van de thermodynamica,” schreef Seth Lloyd, een natuurkundige aan het Massachusetts Institute of Technology. Er is geen ontkomen aan deze richtlijn. De groei van entropie is nauw verweven met onze meest basale ervaringen, en verklaart waarom de tijd loopt vooruit en waarom de wereld deterministisch lijkt in plaats van kwantummechanisch onzeker.
Maar ondanks het fundamentele belang ervan, is entropie misschien wel het meest verdeeldheid zaaiende concept in de natuurkunde. "Entropie is altijd al een probleem geweest," vertelde Lloyd me. De verwarring komt deels voort uit de manier waarop de term tussen disciplines heen en weer wordt geslingerd en verdraaid — het heeft vergelijkbare maar verschillende betekenissen in alles van natuurkunde tot informatietheorie tot ecologie. Maar het komt ook doordat het echt begrijpen van entropie vereist dat je een aantal diep ongemakkelijke filosofische sprongen maakt.
Terwijl natuurkundigen de afgelopen eeuw hebben gewerkt aan het verenigen van ogenschijnlijk uiteenlopende vakgebieden, hebben ze entropie in een nieuw licht gezet: ze hebben de microscoop weer op de ziener gericht en het begrip wanorde verschoven naar een van onwetendheid. Entropie wordt niet gezien als een eigenschap die intrinsiek is aan een systeem, maar als een eigenschap die relatief is aan een waarnemer die met dat systeem interageert. Deze moderne visie belicht de diepe link tussen informatie en energie, die nu helpt een mini-industriële revolutie op de kleinste schaal in te luiden.
Tweehonderd jaar nadat de zaden van entropie voor het eerst werden gezaaid, is wat er opkomt een concept van deze hoeveelheid die meer opportunistisch dan nihilistisch is. De conceptuele evolutie gooit de oude manier van denken op zijn kop, niet alleen over entropie, maar ook over het doel van de wetenschap en onze rol in het universum.
De drijvende kracht van vuur
Het begrip entropie ontstond uit een poging om machines te perfectioneren tijdens de industriële revolutie. Een 28-jarige Franse militaire ingenieur genaamd Sadi Carnot ging op pad om de ultieme efficiëntie van de stoommachine te berekenen. In 1824 publiceerde hij een 118 pagina's tellend boek getiteld Reflecties over de drijfkracht van vuur, die hij verkocht aan de oevers van de Seine voor 3 francs. Carnots boek werd grotendeels genegeerd door de wetenschappelijke gemeenschap en hij stierf enkele jaren later aan cholera. Zijn lichaam werd verbrand, net als veel van zijn papieren. Maar sommige exemplaren van zijn boek overleefden, en daarin lagen de sintels van een nieuwe wetenschap van thermodynamica — de drijvende kracht van vuur.
Carnot realiseerde zich dat de stoommachine in essentie een machine is die gebruikmaakt van de neiging van warmte om van hete naar koude objecten te stromen. Hij ontwierp de meest efficiënte denkbare motor, waarbij hij een grens stelde aan de fractie warmte die kan worden omgezet in werk, een resultaat dat nu bekendstaat als de stelling van Carnot. Zijn meest consequente uitspraak komt als een waarschuwing op de laatste pagina van het boek: "We moeten niet verwachten dat we ooit alle aandrijfkracht van brandbare stoffen in de praktijk zullen benutten." Er zal altijd een deel van de energie verloren gaan door wrijving, trillingen of een andere ongewenste vorm van beweging. Perfectie is onbereikbaar.
Toen hij een paar decennia later, in 1865, Carnots boek las, bedacht de Duitse natuurkundige Rudolf Clausius een term voor de hoeveelheid energie die in futiliteit opgesloten zit. Hij noemde het 'entropie', naar het Griekse woord voor transformatie. Vervolgens legde hij uit wat bekend werd als de tweede wet van de thermodynamica: 'De entropie van het universum neigt naar een maximum.'
Fysici uit die tijd geloofden ten onrechte dat warmte een vloeistof was (ook wel 'calorisch' genoemd). In de daaropvolgende decennia realiseerden ze zich dat warmte eerder een bijproduct was van individuele moleculen die rondbotsten. Deze verschuiving in perspectief stelde de Oostenrijkse natuurkundige Ludwig Boltzmann in staat om het idee van entropie te herformuleren en aan te scherpen met behulp van waarschijnlijkheden.
Boltzmann onderscheidde de microscopische eigenschappen van moleculen, zoals hun individuele locaties en snelheden, van de macroscopische bulkeigenschappen van een gas, zoals temperatuur en druk. Beschouw in plaats van een gas een groep identieke spelstukken op een schaakbord. De lijst met exacte coördinaten van alle schijven is wat Boltzmann een "microstaat" noemde, en hun algehele configuratie — of ze nu een ster vormen, bijvoorbeeld, of allemaal bij elkaar zijn gegroepeerd — is een "macrostaat". Boltzmann definieerde de entropie van een gegeven macrostaat in termen van het aantal mogelijke microstaten dat ertoe leidt. Een macrostaat met hoge entropie is een staat met veel compatibele microstaten — veel mogelijke rangschikkingen van schijven die hetzelfde algehele patroon opleveren.
Er zijn maar een beperkt aantal manieren waarop de schijven specifieke vormen kunnen aannemen die geordend lijken, terwijl er drastisch meer manieren zijn waarop ze willekeurig over het bord verspreid kunnen lijken. Entropie kan dus worden gezien als een maatstaf voor wanorde. De tweede wet wordt een intuïtieve waarschijnlijkheidsstelling: er zijn meer manieren waarop iets er rommelig dan schoon uit kan zien, dus als de onderdelen van een systeem willekeurig door verschillende mogelijke configuraties schuiven, hebben ze de neiging om arrangementen aan te nemen die er steeds rommeliger uitzien.
De warmte in Carnots motor stroomt van warm naar koud omdat het waarschijnlijker is dat de gasdeeltjes allemaal gemengd zijn in plaats van gescheiden op snelheid — met hete, snel bewegende deeltjes aan de ene kant en koude, langzaam bewegende deeltjes aan de andere kant. Dezelfde redenering geldt voor waarom glas versplintert, ijs smelt, vloeistoffen mengen en bladeren ontbinden. In feite lijkt de natuurlijke neiging van systemen om van lage-entropietoestanden naar hoge-entropietoestanden te gaan het enige te zijn dat het universum betrouwbaar een consistente temporele richting geeft. Entropie graveert een pijl van tijd voor processen die anders net zo gemakkelijk omgekeerd zouden gebeuren.
Het idee van entropie zou uiteindelijk ver buiten de grenzen van de thermodynamica reiken. "Toen Carnot zijn paper schreef … denk ik niet dat iemand zich had voorgesteld wat eruit zou komen," zei Carlo Robelli, een natuurkundige aan de Universiteit van Aix-Marseille.
Entropie uitbreiden
Entropie beleefde een wedergeboorte tijdens de Tweede Wereldoorlog. Claude Shannon, een Amerikaanse wiskundige, werkte aan het versleutelen van communicatiekanalen, waaronder het kanaal dat Franklin D. Roosevelt en Winston Churchill met elkaar verbond. Die ervaring bracht hem ertoe om in de daaropvolgende jaren diep na te denken over de basisprincipes van communicatie. Shannon probeerde de hoeveelheid informatie in een bericht te meten. Hij deed dat op een omweg, door kennis te beschouwen als een vermindering van onzekerheid.
Op het eerste gezicht heeft de vergelijking die Shannon bedacht niets te maken met stoommachines. Gegeven een set mogelijke tekens in een bericht, definieert Shannons formule de onzekerheid over welk teken als volgende zal verschijnen als de som van de waarschijnlijkheid dat elk teken verschijnt vermenigvuldigd met de logaritme van die waarschijnlijkheid. Maar als een teken even waarschijnlijk is, wordt Shannons formule vereenvoudigd en wordt precies hetzelfde als Boltzmanns formule voor entropie. De natuurkundige John von Neumann zou Shannon hebben aangespoord om zijn grootheid "entropie" te noemen — deels omdat het nauw aansloot bij die van Boltzmann, maar ook omdat "niemand weet wat entropie werkelijk is, dus in een debat heb je altijd het voordeel."
Net zoals thermodynamische entropie de efficiëntie van een motor beschrijft, legt informatie-entropie de efficiëntie van communicatie vast. Het komt overeen met het aantal ja-of-nee-vragen dat nodig is om de inhoud van een bericht te achterhalen. Een bericht met een hoge entropie is een patroonloos bericht; zonder een manier om het volgende teken te raden, vereist het bericht veel vragen om volledig te worden onthuld. Een bericht met veel patronen bevat minder informatie en is gemakkelijker te raden. "Het is een heel mooi in elkaar grijpend beeld van informatie en entropie," zei Lloyd. "Entropie is informatie die we niet kennen; informatie is informatie die we wel kennen."
In tweeën mijlpaal papieren in 1957 verstevigde de Amerikaanse natuurkundige ET Jaynes deze verbinding door thermodynamica te bekijken door de lens van de informatietheorie. Hij beschouwde thermodynamica als een wetenschap van het maken van statistische gevolgtrekkingen uit onvolledige metingen van deeltjes. Wanneer er gedeeltelijke informatie bekend is over een systeem, stelde Jaynes voor, zouden we gelijke waarschijnlijkheid moeten toekennen aan elke configuratie die compatibel is met die bekende beperkingen. Zijn "principe van maximale entropie" biedt de minst bevooroordeelde manier om voorspellingen te doen over een beperkte dataset en wordt nu overal gebruikt, van statistische mechanica tot machine learning en ecologie.
Begrippen van entropie die in verschillende contexten zijn ontwikkeld, passen dus netjes bij elkaar. Een stijging van de entropie komt overeen met een verlies aan informatie over microscopische details. In de statistische mechanica bijvoorbeeld, als deeltjes in een doos door elkaar raken en we hun posities en impulsen uit het oog verliezen, neemt de “Gibbs-entropie” toe. In de kwantummechanica, als deeltjes verstrengeld raken met hun omgeving, waardoor hun kwantumtoestand in de war raakt, neemt de “von Neumann-entropie” toe. En als materie in een zwart gat valt en informatie erover verloren gaat voor de buitenwereld, neemt de “Bekenstein-Hawking-entropie"gaat omhoog.
Wat entropie consequent meet is onwetendheid: een gebrek aan kennis over de beweging van deeltjes, het volgende cijfer in een codereeks of de exacte toestand van een kwantumsysteem. "Ondanks het feit dat entropieën met verschillende motivaties werden geïntroduceerd, kunnen we ze vandaag de dag allemaal koppelen aan het begrip onzekerheid", aldus Renato Renner, een natuurkundige aan de Zwitserse Federale Technische Hogeschool Zürich.
Dit eenduidige begrip van entropie roept echter een verontrustende vraag op: over wiens onwetendheid hebben we het eigenlijk?
Een vleugje subjectiviteit
Als student natuurkunde in Noord-Italië leerde Carlo Rovelli van zijn professoren over entropie en de groei van wanorde. Er klopte iets niet. Hij ging naar huis, vulde een pot met olie en water en zag de vloeistoffen scheiden terwijl hij de pot schudde — een ogenschijnlijke afwijking van de tweede wet zoals die hem was uitgelegd. "Wat ze me vertellen is onzin," herinnerde hij zich dat hij dacht. "Het was zo duidelijk dat er een probleem was in de manier waarop dingen werden onderwezen."
Rovelli's ervaring legt een belangrijke reden vast waarom entropie zo verwarrend is. Er zijn genoeg situaties waarin de orde lijkt toe te nemen, van een kind dat zijn slaapkamer opruimt tot een koelkast die een kalkoen afkoelt.
Rovelli begreep dat zijn schijnbare triomf over de tweede wet een fata morgana was. Een bovenmenselijke waarnemer met een krachtig thermisch zicht zou zien hoe de scheiding van olie en water kinetische energie vrijgeeft aan de moleculen, waardoor een meer thermisch ongeordende toestand ontstaat. "Wat er werkelijk gebeurt, is dat er macroscopische orde ontstaat ten koste van microscopische wanorde," zei Rovelli. De tweede wet geldt altijd; soms is het gewoon uit het zicht.
Jaynes hielp ook om dit probleem te verhelderen. Om dat te doen, wendde hij zich tot een gedachte-experiment dat voor het eerst in 1875 werd voorgesteld door Josiah Willard Gibbs, dat bekend werd als de Gibbs-mixparadox.
Stel dat je twee gassen, A en B, in een doos hebt, gescheiden door een verdeler. Wanneer je de verdeler optilt, eist de tweede wet dat de gassen zich verspreiden en mengen, waardoor de entropie toeneemt. Maar als A en B identieke gassen zijn die op dezelfde druk en temperatuur worden gehouden, verandert het optillen van de verdeler de entropie niet, omdat de deeltjes al maximaal gemengd zijn.
De vraag is: wat gebeurt er als A en B verschillende gassen zijn, maar je ze niet uit elkaar kunt houden?
Meer dan een eeuw nadat Gibbs de paradox had geformuleerd, presenteerde Jaynes een resolutie (waarvan hij volhield dat Gibbs het al begreep, maar dat hij het niet duidelijk verwoordde). Stel je voor dat de gassen in de doos twee verschillende soorten argon zijn, identiek, behalve dat een van hen oplosbaar is in een nog niet ontdekt element genaamd whifnium. Vóór de ontdekking van whifnium was er geen manier om de twee gassen van elkaar te onderscheiden, en dus veroorzaakte het optillen van de verdeler geen duidelijke verandering in entropie. Na de ontdekking van whifnium zou een slimme wetenschapper het echter kunnen gebruiken om de twee argonsoorten te onderscheiden, door te berekenen dat de entropie toeneemt naarmate de twee soorten zich vermengen. Bovendien zou de wetenschapper een op whifnium gebaseerde zuiger kunnen ontwerpen die voorheen ontoegankelijke energie uit de natuurlijke vermenging van de gassen benut.
Wat Jaynes duidelijk maakte, is dat de "ordelijkheid" van een systeem — en dus het potentieel om er bruikbare energie uit te halen — afhankelijk is van de relatieve kennis en middelen van een agent. Als een experimentator gas A en B niet kan onderscheiden, zijn ze in feite hetzelfde gas. Zodra wetenschappers de middelen hebben om ze uit elkaar te houden, kunnen ze hun werk benutten door de neiging van de gassen om te mengen te benutten. Entropie hangt niet af van het verschil tussen de gassen, maar van hun onderscheidbaarheid. Wanorde is in het oog van de toeschouwer.
“De hoeveelheid nuttig werk die we uit een systeem kunnen halen, hangt – uiteraard en noodzakelijkerwijs – af van hoeveel ‘subjectieve’ informatie we hebben over de microtoestand ervan,” schreef Jaynes.
De paradox van Gibbs benadrukt de noodzaak om entropie te behandelen als een perspectivische eigenschap in plaats van een eigenschap die inherent is aan een systeem. En toch was het subjectieve beeld van entropie moeilijk voor natuurkundigen om te slikken. Zoals de wetenschapsfilosoof Kenneth Denbigh schreef in een Leerboek uit 1985“Een dergelijke visie zou, als ze geldig is, een aantal diepgaande filosofische problemen creëren en de objectiviteit van de wetenschappelijke onderneming ondermijnen.”
Het accepteren van deze voorwaardelijke definitie van entropie vereiste een heroverweging van het fundamentele doel van de wetenschap. Het impliceert dat de natuurkunde individuele ervaringen nauwkeuriger beschrijft dan een objectieve realiteit. Op deze manier is entropie meegesleurd in de grotere trend van wetenschappers die zich realiseren dat veel fysieke grootheden alleen zinvol zijn in relatie tot een waarnemer. (Zelfs tijd zelf werd relatief gemaakt door Einsteins relativiteitstheorie.) "Fysici houden niet van subjectiviteit — ze zijn er allergisch voor," zei Anthony Aguirre, een natuurkundige aan de University of California, Santa Cruz. "Maar er is geen absolute — dat is altijd een illusie geweest."
Nu subjectiviteit geaccepteerd is, onderzoeken sommige natuurkundigen manieren om subjectiviteit in de wiskundige definities van entropie te verwerken.
Aguirre en zijn medewerkers hebben een nieuwe maatregel bedacht die ze observationele entropie. Het biedt een manier om te specificeren tot welke eigenschappen een bepaalde waarnemer toegang heeft door aan te passen hoe die eigenschappen de kijk van de waarnemer op de realiteit vervagen, of "grofkorrelig" maken. Vervolgens kent het gelijke waarschijnlijkheid toe aan alle microstaten die compatibel zijn met die waargenomen eigenschappen, precies zoals Jaynes voorstelde. De vergelijking overbrugt thermodynamische entropie, die brede macroscopische kenmerken beschrijft, en informatie-entropie, die microscopische details vastlegt. "Dit soort grofkorrelige, deels subjectieve kijk is de manier waarop we op een betekenisvolle manier met de realiteit omgaan", aldus Aguirre.
Een aantal onafhankelijke groepen hebben de formule van Aguirre gebruikt om te jagen op een meer streng bewijs van de tweede wet. Van zijn kant hoopt Aguirre zijn maatregel te gebruiken om uit te leggen waarom het universum begon in een lage-entropietoestand (en daarom waarom de tijd vooruit stroomt) en om een duidelijker beeld te krijgen van wat entropie betekent in zwarte gaten. "Het observationele entropiekader biedt veel meer duidelijkheid", aldus Philipp Strasberg, een natuurkundige aan de Autonome Universiteit van Barcelona, die het onlangs opnam in een vergelijking van verschillende microscopische entropiedefinities“Het verbindt ideeën van Boltzmann en von Neumann echt met wat mensen tegenwoordig doen.”
Ondertussen hebben kwantum-informatietheoretici een andere aanpak om subjectiviteit te behandelen. Ze behandelen Informatie als bron die waarnemers kunnen gebruiken om te interacteren met een systeem dat steeds meer samensmelt met zijn omgeving. Voor een supercomputer met onbeperkte kracht die de exacte toestand van elk deeltje in het universum zou kunnen volgen, zou de entropie altijd constant blijven — aangezien er geen informatie verloren zou gaan — en zou de tijd niet meer stromen. Maar waarnemers met eindige rekenkracht zoals wijzelf, moeten altijd omgaan met een grofkorrelig beeld van de werkelijkheid. We kunnen de beweging van alle luchtmoleculen in een kamer niet bijhouden, dus nemen we gemiddelden in de vorm van temperatuur en druk. We raken geleidelijk het spoor bijster van microscopische details naarmate systemen evolueren naar meer waarschijnlijke toestanden, en deze meedogenloze trend materialiseert zich als de stroom van de tijd. "De tijd van de fysica is uiteindelijk de uitdrukking van onze onwetendheid over de wereld," Rovelli schreefOnwetendheid vormt onze realiteit.
"Er is een universum daarbuiten, en er is een universum dat elke waarnemer met zich meedraagt — zijn begrip en model van de wereld," zei Aguirre. Entropie biedt een graadmeter voor de tekortkomingen in onze interne modellen. Deze modellen, zei hij, "stellen ons in staat om goede voorspellingen te doen en intelligent te handelen in een vaak vijandige maar altijd moeilijke fysieke wereld."
Gedreven door kennis
In de zomer van 2023 organiseerde Aguirre een toevluchtsoord in de glooiende heuvels van een historisch landhuis in Yorkshire, Engeland, via een non-profitorganisatie voor onderzoek die hij in 2006 mede oprichtte, genaamd het Foundational Questions Institute, of FQxI. Fysici van over de hele wereld kwamen bijeen voor een week lang intellectueel slaapfeestje, compleet met mogelijkheden voor yoga, meditatie en wildzwemmen. Het evenement bracht onderzoekers bijeen die subsidies van FQxI hadden ontvangen om te onderzoeken hoe informatie als brandstof kan worden gebruikt.
Voor veel van deze natuurkundigen is de studie van motoren en computers vervaagd. Ze hebben geleerd om informatie te behandelen als een echte, kwantificeerbare fysieke bron — een diagnose van hoeveel werk er uit een systeem gehaald kan worden. Kennis, zo realiseerden ze zich, is macht. Nu gaan ze die macht benutten.
Op een ochtend, na een optionele yogasessie in de yurt van het landgoed, hoorde de groep van Susanne Nog Steeds, een natuurkundige aan de Universiteit van Hawaï in Mānoa. Ze besprak nieuw werk dat teruggrijpt op een eeuwenoud gedachte-experiment eerst voorgestelde van de in Hongarije geboren natuurkundige Leo Szilard.
Stel je een doos voor met een verticale verdeler die zijwaarts heen en weer kan schuiven tussen de linker- en rechterwand van de doos. Er zit één deeltje in de doos, links van de verdeler. Als het deeltje van de wanden afketst, duwt het de verdeler naar rechts. Een slimme demon kan een touw en katrol zo monteren dat, als de verdeler door het deeltje wordt geduwd, het aan het touw trekt en een gewicht buiten de doos tilt. Op dit punt kan de demon de verdeler heimelijk terugplaatsen en het proces opnieuw starten, wat een schijnbare bron van oneindige energie mogelijk maakt.
Om consequent werk uit de doos te krijgen, moet de demon echter weten aan welke kant van de doos het deeltje zich bevindt. Szilards motor wordt aangestuurd door informatie.
In principe zijn informatiemachines een beetje als zeilboten. Op de oceaan gebruik je je kennis over de windrichting om je zeilen aan te passen en de boot vooruit te stuwen.
Maar net als warmtemotoren zijn informatiemotoren nooit perfect. Ook zij moeten een belasting betalen in de vorm van entropieproductie. De reden dat we informatiemotoren niet kunnen gebruiken als perpetuum mobiles, zoals Szilard en anderen aangaven, is dat het gemiddeld minstens zoveel entropie genereert om die informatie te meten en op te slaan. Kennis genereert macht, maar het verwerven en onthouden van die kennis verbruikt macht.
Een paar jaar nadat Szilard zijn motor had bedacht, werd Adolf Hitler kanselier van Duitsland. Szilard, die in een Joods gezin was geboren en in Duitsland woonde, vluchtte. Zijn werk werd tientallen jaren over het hoofd gezien totdat het uiteindelijk in het Engels werd vertaald, zoals Still beschreef in een recent historisch overzicht van informatiemotoren.
Door onlangs de basiselementen van informatieverwerking te bestuderen, is Still erin geslaagd Szilards concept van een informatiemachine uit te breiden en te generaliseren.
Al meer dan een decennium werkt ze aan hoe je waarnemers als fysieke systemen kunt behandelen, onderworpen aan hun eigen fysieke beperkingen. Hoe dicht deze grenzen kunnen worden benaderd, hangt niet alleen af van de gegevens waar de waarnemer toegang toe heeft, maar ook van zijn of haar dataverwerkingsstrategie. Ze moeten immers beslissen welke eigenschappen ze willen meten en hoe ze die details in hun beperkte geheugen willen opslaan.
Bij het bestuderen van dit besluitvormingsproces ontdekte Still dat het verzamelen van informatie die een waarnemer niet helpt om nuttige voorspellingen te doen, hun energie-efficiëntie vermindert. Ze stelde voor dat waarnemers zouden volgen wat ze het "principe van de minste zelfbelemmering" noemt: het kiezen van informatieverwerkingsstrategieën die zo dicht mogelijk bij hun fysieke grenzen komen om de snelheid en nauwkeurigheid van hun besluitvorming te verbeteren. Ze realiseerde zich ook dat deze ideeën verder konden worden onderzocht door ze toe te passen op aangepaste informatie-engines.
In Szilards oorspronkelijke ontwerp onthullen de metingen van de demon perfect waar het deeltje zich bevindt. In werkelijkheid hebben we echter nooit perfecte kennis van een systeem, omdat onze metingen altijd gebrekkig zijn: sensoren zijn onderhevig aan ruis, displays hebben een beperkte resolutie en computers hebben beperkte opslag. Still liet zien hoe de "gedeeltelijke waarneembaarheid" die inherent is aan metingen in de echte wereld, kan worden geïntroduceerd met kleine aanpassingen aan Szilards engine, in wezen door de vorm van de verdeler.
Stel je voor dat de verdeler in een hoek in de doos is gekanteld en dat de gebruiker alleen de horizontale positie van het deeltje kan zien (misschien zien ze de schaduw ervan op de onderkant van de doos projecteren). Als de schaduw helemaal links of rechts van de verdeler is, weet je zeker aan welke kant het deeltje zich bevindt. Maar als de schaduw ergens in het middengebied is, kan het deeltje zich boven of onder de gekantelde verdeler bevinden en dus aan de linker- of rechterkant van de doos.
Met behulp van gedeeltelijk waarneembare informatie-engines berekende Still de meest efficiënte strategieën voor het nemen van metingen van de locatie van het deeltje en het coderen ervan in het geheugen. Dit resulteerde in een puur op fysica gebaseerde afleiding van een algoritme dat momenteel ook wordt gebruikt in machine learning, bekend als de informatie knelpunt algoritmeHet biedt een manier om gegevens effectief te comprimeren door alleen relevante informatie te behouden.
Sindsdien heeft Still, samen met haar afstudeerstudent Dorian Daimer, onderzocht een aantal verschillende ontwerpen voor de aangepaste Szilard-engines en bestudeerde de optimale coderingsstrategieën in verschillende gevallen. Deze theoretische apparaten dienen als "fundamentele bouwstenen voor besluitvorming onder onzekerheid", aldus Daimer, die een achtergrond heeft in zowel cognitieve wetenschap als natuurkunde. "Daarom is het bestuderen van de natuurkunde van informatieverwerking zo interessant voor mij, omdat je in zekere zin een volledige cirkel maakt en weer terugkomt bij het beschrijven van de wetenschapper."
Opnieuw industrialiseren
Still was niet de enige in Yorkshire die droomde van Szilard-motoren. In de afgelopen jaren hebben een aantal FQxI-subsidieontvangers werkende motoren ontwikkeld in het lab waarin informatie wordt gebruikt om een mechanisch apparaat aan te drijven. In tegenstelling tot in de tijd van Carnot verwacht niemand dat deze miniatuurmotoren treinen aandrijven of oorlogen winnen; in plaats daarvan dienen ze als testbedden om fundamentele natuurkunde te onderzoeken. Maar net als de vorige keer dwingen de motoren natuurkundigen om reimagine wat energie, informatie en entropie betekenen.
Met de hulp van Still heeft John Bechhoefer Szilard's engine opnieuw gemaakt met een silicakorrel die kleiner is dan een stofdeeltje dat in een bad met water drijft. Hij en collega's van de Simon Fraser University in Canada vangen de korrel met lasers en houden de willekeurige thermische schommelingen in de gaten. Wanneer de korrel toevallig omhoog beweegt, tillen ze snel de laserval op om te profiteren van de beweging. Precies zoals Szilard zich had voorgesteld, zijn ze erin geslaagd een gewicht op te tillen door de kracht van informatie te benutten.
Bij het onderzoeken van de grenzen bij het extraheren van werk uit hun echte informatie-engine, hebben Bechhoefer en Still ontdekt dat het in bepaalde regimes mogelijk is aanzienlijk beter presteren conventionele motoren. Ze hebben ook de inefficiëntie bijgehouden die gepaard gaat met het ontvangen gedeeltelijke informatie over de toestand van de kraal, geïnspireerd door Still's theoretische werk.
De informatiemachine krimpt nu tot kwantumschaal met behulp van Natalia Ares, een natuurkundige aan de Universiteit van Oxford die diende een paneel met Still op de terugtocht. Op siliciumchips ter grootte van een onderzetter, vangt Ares een enkel elektron op in een dunne koolstofdraad, die tussen twee pilaren hangt. Deze “nanotube,” die is afgekoeld tot binnen duizendsten van een graad van het absolute nulpunt, trilt als een gitaarsnaar, en zijn oscillatiefrequentie wordt bepaald door de toestand van het elektron binneninDoor de minuscule trillingen van de nanotube te volgen, zijn Ares en zijn collega's van plan om de werkoutput van verschillende kwantumfenomenen te diagnosticeren.
Ares heeft een lange lijst met experimenten om kwantumthermodynamica te onderzoeken, gekrabbeld op schoolborden in de gangen. "Het is eigenlijk alles van de industriële revolutie, maar dan nano", zei ze. Eén gepland experiment is gebaseerd op Stills idee. Het omvat het aanpassen van hoe perfect de trillingen van de nanotube afhankelijk zijn van het elektron (versus andere onbekende factoren), wat in feite een knop biedt om de onwetendheid van de waarnemer af te stemmen.
Ares en haar team onderzoeken de grenzen van thermodynamica op de kleinste schaal — de drijvende kracht van kwantumvuur, in zekere zin. Klassiek gezien wordt de grens voor hoe efficiënt de beweging van deeltjes kan worden omgezet in werk, bepaald door de stelling van Carnot. Maar in het kwantumgeval, met een menagerie van entropieën om uit te kiezen, is het veel ingewikkelder om te bepalen welke relevante grenzen stelt — of hoe je zelfs werkoutput definieert. "Als je een enkel elektron hebt zoals wij in onze experimenten hebben, wat betekent dat dan, entropie?" zei Ares. "In mijn ervaring zijn we hier nog steeds erg verdwaald."
Uit een recent onderzoek onder leiding van Nicole Yunger Halpern, een natuurkundige bij het National Institute of Standards and Technology, laat zien hoe algemene definities van entropieproductie die gewoonlijk synoniem zijn, kunnen oneens zijn in het kwantumrijk, wederom vanwege onzekerheid en afhankelijkheid van de waarnemer. Op deze kleine schaal is het onmogelijk om bepaalde eigenschappen tegelijkertijd te kennen. En de volgorde waarin u bepaalde hoeveelheden meet, kan de meetresultaten beïnvloeden. Yunger Halpern denkt dat we deze kwantumvreemdheid in ons voordeel kunnen gebruiken. "Er zijn extra bronnen beschikbaar in de kwantumwereld die niet klassiek beschikbaar zijn, dus we kunnen de stelling van Carnot omzeilen," zegt ze.
Ares verlegt deze nieuwe grenzen in het lab, in de hoop een pad te plaveien voor efficiëntere energiewinning, opladen van apparaten of berekeningen. De experimenten kunnen ook inzicht bieden in de mechanica van de meest efficiënte informatieverwerkingssystemen die we kennen: onszelf. Wetenschappers weten niet zeker hoe het menselijk brein immens ingewikkelde mentale gymnastiek kan uitvoeren met slechts 20 watt aan vermogen. Misschien ligt het geheim van de computationele efficiëntie van biologie ook in het benutten van willekeurige fluctuaties op kleine schaal, en deze experimenten zijn erop gericht om elk mogelijk voordeel op te sporen. "Als er een winst in zit, is er een kans dat de natuur er daadwerkelijk gebruik van maakt," zei Jane Anders, een theoreticus aan de Universiteit van Exeter die met Ares samenwerkt. "Dit fundamentele begrip dat we nu ontwikkelen, helpt ons hopelijk in de toekomst beter te begrijpen hoe biologie dingen doet."
De volgende ronde van Ares' experimenten zal plaatsvinden in een knalroze koelcel die aan het plafond van haar lab in Oxford bungelt. Ze stelde de make-over een paar jaar geleden al grappend voor aan de fabrikanten, maar ze waarschuwden dat metaalachtige verfdeeltjes haar experimenten zouden belemmeren. Toen bracht het bedrijf de koelkast in het geheim naar een autogarage om hem te bedekken met een flitsende roze film. Ares ziet haar nieuwe experimentele arena als een symbool van veranderende tijden, wat haar hoop weerspiegelt dat deze nieuwe industriële revolutie anders zal zijn dan de vorige — gewetensvoller, milieuvriendelijker en inclusiever.
"Het voelt alsof we aan het begin staan van iets groots en wonderbaarlijks", zei ze.
Onzekerheid omarmen
In september 2024 zullen enkele honderden onderzoekers verzameld in Palaiseau, Frankrijk, om Carnot te eren op de 200e verjaardag van zijn boek. Deelnemers uit alle wetenschappen bespraken hoe entropie een rol speelt in elk van hun onderzoeksgebieden, van zonnecellen tot zwarte gaten. Tijdens de welkomsttoespraak bood een directeur van het Franse Nationale Centrum voor Wetenschappelijk Onderzoek namens haar land zijn excuses aan Carnot aan omdat hij de impact van zijn werk over het hoofd had gezien. Later die avond kwamen de onderzoekers bijeen in een decadente gouden eetkamer om te luisteren naar een symfonie die was gecomponeerd door Carnots vader en werd uitgevoerd door een kwartet met daarin een verre afstammeling van de componist.
Carnots weergalmende inzicht kwam voort uit een poging om ultieme controle uit te oefenen over de uurwerkwereld, de heilige graal van het Tijdperk van de Rede. Maar toen het concept van entropie zich verspreidde door de natuurwetenschappen, veranderde het doel ervan. De verfijnde visie op entropie is er een die de valse dromen van totale efficiëntie en perfecte voorspelling afschudt en in plaats daarvan de onherleidbare onzekerheid in de wereld toegeeft. "Tot op zekere hoogte bewegen we ons in een aantal richtingen weg van de verlichting," zei Rovelli — weg van determinisme en absolutisme en richting onzekerheid en subjectiviteit.
Of je het nu leuk vindt of niet, we zijn slaven van de tweede wet; we kunnen niet anders dan het universum dwingen tot zijn lot van opperste wanorde. Maar onze verfijnde kijk op entropie zorgt voor een positievere kijk. De trend naar rommeligheid is wat al onze machines aandrijft. Hoewel het verval van bruikbare energie onze mogelijkheden beperkt, kan een nieuw perspectief soms een reservoir van orde onthullen dat verborgen ligt in de chaos. Bovendien is een wanordelijke kosmos er een die steeds meer gevuld is met mogelijkheden. We kunnen onzekerheid niet omzeilen, maar we kunnen leren ermee om te gaan — en het misschien zelfs omarmen. Onwetendheid is immers wat ons motiveert om kennis te zoeken en verhalen te construeren over onze ervaring. Entropie is, met andere woorden, wat ons menselijk maakt.
Je kunt klagen over de onvermijdelijke ineenstorting van de orde, maar je kunt onzekerheid ook aangrijpen als een kans om te leren, te voelen en te deduceren, om betere keuzes te maken en om je eigen drijfveer te benutten.
Dit werk werd ondersteund door een fellowship met MIP.labor. MIP.labor is gehost aan de Freie Universität Berlin en wordt gefinancierd door de Klaus Tschira Foundation. Quanta Magazine is een redactioneel onafhankelijke publicatie, gefinancierd door de Simons Foundation.
- Door SEO aangedreven content en PR-distributie. Word vandaag nog versterkt.
- PlatoData.Network Verticale generatieve AI. Versterk jezelf. Toegang hier.
- PlatoAiStream. Web3-intelligentie. Kennis versterkt. Toegang hier.
- PlatoESG. carbon, CleanTech, Energie, Milieu, Zonne, Afvalbeheer. Toegang hier.
- Plato Gezondheid. Intelligentie op het gebied van biotech en klinische proeven. Toegang hier.
- Bron: https://www.quantamagazine.org/what-is-entropy-a-measure-of-just-how-little-we-really-know-20241213/