Zephyrnet-logo

Generatieve AI: elk probleem is een informatieprobleem

Datum:

generatieve AI

Afbeelding van https://beta.dreamstudio.ai/dream

“Maar het algemene patroon is duidelijk: geval na geval, wanneer een model kan worden gemaakt en getest, presteert het net zo goed of beter dan menselijke experts die vergelijkbare beslissingen nemen. Te vaak blijven we vertrouwen op menselijk oordeel wanneer machines het beter kunnen.” —Andrew McAfee, Erik Brynjolfsson [1]

De schrijver David Foster Wallace vertelt het verhaal, "This is Water", van twee jonge vissen die niet weten wat water is. Hij wijst erop dat de belangrijkste werkelijkheden voor ons vaak volledig onzichtbaar zijn (en dat ook zullen blijven als we dat toelaten). [2] De beroemde wiskundige en filosoof Bertrand Russell gaf een antwoord: "wat de wetenschap niet kan ontdekken, kan de mensheid niet weten", maar hij had het mis. Fritjof Capra en Pier Luigi Luisi geven een voorbeeld van hoe Russell ongelijk had:

"Opkomst resulteert in het creëren van nieuwheid, en deze nieuwigheid verschilt vaak kwalitatief van de fenomenen waaruit het voortkwam." [3]

Als deze diepgaande educatieve inhoud nuttig voor u is, abonneer je op onze AI-mailinglijst om gewaarschuwd te worden wanneer we nieuw materiaal uitbrengen. 

Een ander bewijs dat Russell ongelijk had, is het snel evoluerende gebied van generatieve AI. De rest van dit artikel bespreekt deze vorm van kunstmatige intelligentie (AI) en wat het betekent voor de toekomst... van de mensheid.

In de afgelopen twee weken verschenen er drie verbluffende artikelen in mijn lezing. Het eerste was een artikel van de gerenommeerde durfkapitaalfirma Sequoia Capital, waarin ze aankondigden dat het bedrijfsmodel opnieuw werd gedefinieerd door AI. Om Sequoia te citeren:

"De beste generatieve AI-bedrijven kunnen een duurzaam concurrentievoordeel genereren door meedogenloos op het vliegwiel tussen gebruikersbetrokkenheid/data en modelprestaties uit te voeren." [4] — Sequoia Kapitaal

De vier modellen van BCG, hieronder weergegeven, waren niet langer de manier om na te denken over de huidige bedrijfsmodellen. [5] Generatieve AI veranderde de basis van concurrentie!

Het volgende artikel was van het internationale adviesbureau McKinsey. Ze interviewden Berkeley Professor en MacArthur Genius Daphne Koller. In het artikel vertelt Koller hoe generatieve AI onderzoekers in staat stelt om geneeskunde naar een geheel nieuw niveau van fundamentele wetenschap te brengen. De generatieve AI produceert opkomende resultaten die wetenschappers van tevoren niet hebben gezien. In feite hebben we het punt bereikt waarop de machines creatieve inzichten produceren die niet eerder door mensen zijn gedocumenteerd. [6][7] Koller zegt dat dit vermogen om te abstraheren van de werkelijkheid het begrip en de praktijk van de geneeskunde zal veranderen.

Het derde schrijven was van een groep Canadese academische economen. In hun boek, Power and Prediction: The Disruptive Economics of Artificial Intelligence, documenteren de professoren Agraval, Gans en Goldfarb hun denken dat "elk probleem een ​​informatieprobleem is". De professoren illustreren hun conclusie door de benadering van de meeste regeringen van COVID als een "gezondheidsprobleem" te onderzoeken. Deze aanpak zorgde voor enorme economische en mentale gezondheidskosten. Als de regeringen in een vroeg stadium nieuwe simulaties voor de verspreiding van COVID hadden gebouwd met behulp van de nieuwste AI-technologie, zouden de belangrijkste ziektebronnen eerder zijn geïdentificeerd, geïsoleerd en zou de verspreiding van de ziekte sneller zijn verminderd. Het gebruik van nieuwe modellen in plaats van verouderde technologie zou meer inzicht hebben opgeleverd en er waarschijnlijk toe hebben geleid dat alleen de ziektedragers aan huis gebonden waren.

Microsoft legt deze nieuwe aanpak goed uit. [8]

· “De gegevens die worden gebruikt om de neurale netwerken [AI] zelf te trainen, zijn eerder afkomstig van numerieke oplossingen van de fundamentele vergelijkingen van de wetenschap dan van empirische observatie.

· We kunnen de numerieke oplossingen van wetenschappelijke vergelijkingen zien als simulatoren van de natuurlijke wereld die kunnen worden gebruikt... om hoeveelheden van belang in toepassingen te berekenen.'

Samenvattend: "de machine genereert iets nieuws in plaats van iets te analyseren dat al bestaat".[9]

De rest van dit artikel gaat over hoe we tot generatieve AI zijn gekomen, "elk probleem is een informatieprobleem" en wat dit betekent voor de toekomst. Om te begrijpen hoe de VC's, consultants en academici allemaal tegelijkertijd tot dezelfde inzichten kwamen over generatieve AI en probleemoplossing, moeten we eerst wat geschiedenis bekijken. We moeten met name de bijdragen van Claude Shannon, John Wheeler en Bryan Arthur herzien.

Claude Shannon was waarschijnlijk de beroemdste onderzoeker die bij Bell Labs werkte. Shannon ontwikkelde de informatietheorie die de wiskundige, wetenschappelijke en technische basis vormde voor het digitale tijdperk dat eind jaren vijftig begon. "Informatietheorie is de wetenschappelijke studie van de kwantificering, opslag en communicatie van informatie... en omvat de toepassing van kansrekening, statistiek, informatica, statistische mechanica, informatie-engineering en elektrotechniek." [10] Shannon paste de 2e wet van de thermodynamica toe om de relatie tussen informatie en onzekerheid aan te tonen. We weten dat het universum op weg is naar toenemende wanorde en onzekerheid, wat we entropie noemen. Negatieve entropie, de vermindering van onzekerheid, vertegenwoordigt informatie zowel op het microscopische niveau van subatomaire deeltjes als op het macroscopische niveau dat we waarnemen, zoals temperatuur, kracht of volume. Dit betekent dat energie en materie zowel op microscopisch als op macroscopisch niveau als informatie kunnen worden opgevat. Door de werkelijkheid op alle niveaus als informatie te beschouwen, worden we bevrijd van de beperkingen van onze organische culturele opvoeding en wordt dit huidige tijdperk van transdisciplinaire, niet-lineaire netwerkconnectiviteit mogelijk gemaakt. Deze fundamentele overgang van een werkelijkheid gevormd door energie en materie naar een werkelijkheid verklaard in termen van informatie was het "enkele" basisprincipe dat het digitale tijdperk vanaf de jaren zestig verklaart. Bedankt, Claude Shannon.

In 1989 publiceerde de beroemde natuurkundige John Wheeler een kort essay getiteld "Information, Physics, Quantum: The Search for Links". Het doel van het essay was om de kwantummechanica, de informatietheorie en het bestaan ​​uit te leggen - een bescheiden onderneming. In het essay verzilvert Wheeler de nu beroemde uitdrukking "It from Bit" en legt hij het concept uit dat de realiteit (It) kan worden verklaard door het fundamentele binaire raamwerk van de bit (0,1 of ja/nee), populair in de informatica en daarvoor door Aristoteles. Daarom is alle realiteit gewoon informatie. Wheelers essay legde misschien begrijpelijker Shannons standpunt uit dat de werkelijkheid begrepen kan worden in termen van informatie.

Als we de baanbrekende bijdragen van Shannon [1948] en Wheeler [1989] erkenden, waarom duurde het dan nog meer dan 30 jaar voordat we ons realiseerden dat "alle problemen informatieproblemen zijn". Het korte antwoord is dat onze instincten en cultuur gedurende minstens 40,000 jaar het idee hebben versterkt dat kennis en probleemoplossing zijn gebaseerd op onze empirische gegevens of perceptie van de werkelijkheid. Gelukkig hebben we de Stanford-professor economie Bryan Arthur op rust gesteld om uit te leggen waarom het nog eens 30 jaar na het essay van John Wheeler duurde voordat we de gedateerde cartesiaanse epistemologie die de evolutie ons verschafte, veranderden.

Bryan Arthur was een van de oprichters van het Santa Fe Institute, misschien wel het leidende onderzoeksinstituut in de VS op het gebied van de toepassing van complexiteit op de natuur-, natuur- en sociale wetenschappen (inclusief economie). Arthur's onderzoek toonde aan dat technologie de problemen van zijn tijd lijkt op te lossen en meestal is het een combinatie van verschillende technologieën in een paradigma. Dus, wat was het technologische paradigma dat nodig was om problemen op te lossen in een realiteit die werd bepaald door informatie? Het paradigma was de samenvallende combinatie van Artificial Intelligence, Cloud Computing en Internet of Things (IoT). Deze technologie stelde ons in staat om de gegevens vast te leggen, op te slaan en eruit te extraheren voor gebruik met AI op een gegevensschaal die oorspronkelijk werd gemeten in petabytes en nu in exabytes (1+18 nullen). De oorspronkelijke ontwikkelaars van AI dachten dat de capaciteitsbeperking de rekenkracht was. Het bleek dat we meer data moesten vastleggen, efficiënt (en veilig) moesten kunnen opslaan en vervolgens effectief kunnen verwerken. Deze technologie ontstond rond 2005-2006, misschien met de lancering van de AWS-cloudservice, en werd vanaf ongeveer 2015 veel gebruikt.

Wat ik hopelijk heb geïntroduceerd, is dat de realiteit een abstract, logisch, computersysteem is dat informatie verwerkt en dat generatieve AI ons nieuwe tools heeft gegeven om deze realiteit te begrijpen. Misschien herinnert u zich niet dat Galileo, Kurt Godel, John von Neumann en meer recentelijk de natuurkundige Max Tegmark, om maar een paar grootheden te noemen, allemaal dezelfde mening delen. Ik zal niet zeggen dat generatieve AI de basis is voor een derde school van epistemologie, maar ik kom in de verleiding.

Filosofie en natuurkunde zijn intrigerend, maar geen van beide vakgebieden wordt als erg praktisch beschouwd. We moeten ons richten op de vraag hoe generatieve AI de toekomst gaat vormgeven en welke vaardigheden in deze nieuwe wereld nodig zijn. Het citaat van Sequoia aan het begin van het artikel geeft ons veel richtlijnen voor de toepassing van deze AI, of we nu bij de overheid, non-profitorganisaties, de academische wereld of de particuliere sector werken. Om de begeleiding van Sequoia nog eens te herhalen:

"De beste generatieve AI-bedrijven kunnen een duurzaam concurrentievoordeel genereren door meedogenloos op het vliegwiel tussen gebruikersbetrokkenheid/data en modelprestaties uit te voeren." [11] — Sequoia Kapitaal

De lessen kunnen zijn:

Voornaam*, moeten we ons niet verder laten brengen door de technologie om het belang van een mensgerichte focus (gebruikersbetrokkenheid) uit het oog te verliezen. De AI is niet verantwoordelijk voor de menselijke gevolgen van de opkomende bevindingen van de technologie. Wij, de mensen, zijn dat. Geef niet de AI de schuld, geef de mensen de schuld. We hebben meer cursussen en trainingen nodig over de ethische vragen rond AI, terwijl we de klantervaring en de interactie tussen mensen en generatieve AI vormgeven.

Tweede, moeten gegevens worden beschouwd als een hulpbron zoals landbouwgrond of kapitaal. We moeten opzettelijk en doordacht gegevens verzamelen, gegevens opschonen en organiseren en opslaan in de cloud voor gemakkelijke toegang. Datasets worden steeds waardevoller. Sommige commentatoren zeggen dat Microsoft LinkedIn kocht en Elon Musk Twitter kocht om grote consumentendatasets te verwerven. Deze strategie wordt "Cloud Capital" genoemd om het belang van grote datasets te illustreren. De National Science Foundation (NSF) en het National Institute of Health (NIH) beseffen ook de wetenschappelijke en maatschappelijke waarde van grote datasets en leveren aanzienlijke inspanningen om open source datasets te organiseren ter ondersteuning van onderzoek en commercialisering (en snelle respons). Om dergelijke datasets goed te kunnen beheren, moeten we beginnen met trainen op dezelfde leeftijd als computerprogrammeren. We moeten ook dat datastructuren, netwerktheorie, grafentheorie, complexiteit en principes van cloud computing op de middelbare school worden onderwezen en niet worden beschouwd als esoterische geavanceerde onderwerpen. Datasets moeten worden beschouwd als water, essentieel voor het leven van iedereen.

Derde, "modelprestaties" lijkt de prestaties van de algoritmen te verbeteren. Deze verbetering van het algoritme vereist de grondige studie van geavanceerde wiskunde, statistiek en informatica. Deze training moet ook ruim voor de universiteit beginnen, gezien het belang van het onderwerp.

Vierde, zal "concurrentievoordeel" voortkomen uit het kiezen van betere problemen (kansen). Wat betekent dat? AI gaat een groot deel van het "inzicht" en de creatieve oplossing bieden via het opkomende proces dat Capra en Luisi aan het begin van het artikel beschreven. De waarde zal nog groter zijn bij probleemselectie. De beschrijving van creativiteit door onderzoeker Neri Oxman omvat vier domeinen: wetenschap, techniek, design en kunst. [12] Gedurende de eerste vier eeuwen van de industriële revolutie was de waardecreatie gebaseerd op wetenschap en techniek. Nu AI niet langer wordt beperkt door de beschikbare empirische gegevens, zal waardecreatie meer en meer voortkomen uit design en kunst. Design wordt hier gebruikt op de manier zoals Herbert Simon het definieerde, [13] als het oplossen van problemen, en de kern van het oplossen van problemen is het probleem kiezen or herformuleren van het probleem. De kunst geproduceerd door Generative AI is fantastisch, bijna niet te onderscheiden van menselijk werk. Wees niet depressief, gebruik gewoon deze kunst om uw verhalen te vertellen en uw ideeën effectiever te verkopen. Het durfkapitaalbedrijf Lightspeed verwoordt het goed:

"Onze scriptie want generatieve AI begint met de overtuiging dat het vertellen van verhalen, of het nu over een persoon, bedrijf of idee gaat, in wezen is wat ons tot mens maakt...Vandaag de dag blijft het proces van het maken van inhoud handmatig en moeilijk...Generatieve AI heeft de kracht om veel van dit "handmatige" werk en maakt het voor iedereen toegankelijker.

Wat kunst, design, wiskunde en nu computers allemaal doen, is abstraheren van de werkelijkheid en deze begrijpelijker maken. Generatieve AI is een krachtig hulpmiddel voor abstractie dat nog niet eerder in de menselijke geschiedenis is gezien. We moeten ons denken, ons onderwijssysteem en onze waarden veranderen om deze technologie te benutten voor de verbetering van de mensheid.

Ik zeg al een aantal jaren dat de mensheid op de rand van een 2e Renaissance staat. Generatieve AI maakt die bewering waarschijnlijk waar. Om u te helpen herinneren, zal de 2e Renaissance worden gedefinieerd in termen van - datawetenschap - computermodellen - abstractie - opkomst - ontwerp.

[1] Machine, platform, menigte: onze digitale toekomst benutten …

[2] Lessen uit "This Is Water" van David Foster Wallace

[3] Fritjof Capra, Pier Luigi Luisi, De systeemvisie op het leven

[4] Generatieve AI: een creatieve nieuwe wereld (Sequoia-hoofdstad)

[5] Het juiste moment voor Deep Tech

[6] Het zal een paradigmaverschuiving zijn': Daphne Koller over machine learning bij het ontdekken van medicijnen (McKinsey)

[7] Het artikel Deep Learning van Yann Le Cunn en Y. Bengio legt de fundamentele concepten van generatieve AI uit

[8] Het zal een paradigmaverschuiving zijn': Daphne Koller over machine learning bij het ontdekken van medicijnen (McKinsey)

[9] Generatieve AI: een creatieve nieuwe wereld (Sequoia-hoofdstad)

[10] Heronderzoek van fundamentele concepten van warmte, arbeid, energie, entropie en informatie op basis van NGST

[11] Generatieve AI: een creatieve nieuwe wereld (Sequoia-hoofdstad)

[12] Tijdperk van verstrengeling

[13] De wetenschap van het kunstmatige

Dit artikel is oorspronkelijk gepubliceerd op Medium en opnieuw gepubliceerd naar TOPBOTS met toestemming van de auteur.

Geniet van dit artikel? Meld u aan voor meer AI-onderzoeksupdates.

We laten het u weten wanneer we meer samenvattende artikelen zoals deze vrijgeven.

spot_img

Laatste intelligentie

spot_img