Zephyrnet-logo

OpenAI CEO over AI-veiligheidsproblemen en de waarheid over ChatGPT-5-ontwikkeling

Datum:

OpenAI CEO Sam Altman sprak onlangs zijn bezorgdheid uit over de ontwikkeling van de volgende iteratie van ChatGPT.

Sam Altman is een bekende ondernemer en investeerder in Silicon Valley. Hij was mede-oprichter van de locatiegebaseerde sociale netwerkapp Loopt in 2005, die later werd overgenomen door Green Dot Corporation. Hij was van 2014 tot 2019 ook de president van de startup-accelerator Y Combinator, waar hij nauw samenwerkte met een breed scala aan startups en hielp de richting van de technologie-industrie vorm te geven. Altman staat bekend om zijn uitgesproken opvattingen over de toekomst van technologie, waaronder zijn pleidooi voor een universeel basisinkomen en zijn geloof in het potentieel van kunstmatige intelligentie om de samenleving te transformeren. Hij is een actieve investeerder in verschillende startups, met een bijzondere focus op bedrijven die werken aan geavanceerde technologieën zoals zelfrijdende voertuigen en blockchain.

Volgens een dit artikel door James Vincent voor The Verge gepubliceerd op 14 april, OpenAI CEO en mede-oprichter Sam Altman bevestigde op 13 april dat zijn bedrijf momenteel geen GPT-5 traint, de vermoedelijke opvolger van zijn AI-taalmodel GPT-4, dat werd uitgebracht in Maart. Altman's opmerkingen werden gemaakt tijdens de "Future of Business with AI" gebeurtenis, die plaatsvond op de Samberg-conferentiecentrum bij MIT, waar hij een open brief circuleert in de technische wereld en vraagt ​​laboratoria zoals OpenAI om de ontwikkeling van AI-systemen "krachtiger dan GPT-4" te onderbreken.

Zoals u zich wellicht herinnert, is de open brief gepubliceerd door de Instituut voor de toekomst van het leven op 29 maart, en het was getiteld "Pause Giant AI Experiments: An Open Letter." Het riep op tot een tijdelijke stopzetting van de ontwikkeling van krachtige AI-systemen zoals GPT-4, wat leidde tot een debat binnen de technische gemeenschap.

In de open brief stond: "Krachtige AI-systemen mogen pas worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn en dat hun risico's beheersbaar zullen zijn." De auteurs riepen op tot een openbare en verifieerbare pauze van ten minste zes maanden bij het trainen van AI-systemen die krachtiger zijn dan GPT-4. Ze drongen er ook bij AI-laboratoria op aan om gedeelde veiligheidsprotocollen te ontwikkelen om het veilige ontwerp en de ontwikkeling van AI-systemen te waarborgen.

<!–

Niet in gebruik

-> <!–

Niet in gebruik

->

Onder de opmerkelijke ondertekenaars van de open brief waren Elon Musk, CEO van SpaceX, Tesla en Twitter; Steve Wozniak, mede-oprichter van Apple; Bill Gates, mede-oprichter van Microsoft; en Gary Marcus, AI-onderzoeker en emeritus hoogleraar aan de New York University.

Altman zei dat de brief "de meeste technische nuance miste over waar we de pauze nodig hebben" en verduidelijkte dat OpenAI momenteel geen GPT-5 traint en dat voorlopig ook niet zal zijn. Altman merkte op: 'Dat zijn we niet en zullen we voorlopig niet doen. Dus in die zin was het een beetje dom. Hij benadrukte echter dat OpenAI werkt aan andere aspecten van GPT-4 en rekening houdt met de veiligheidsimplicaties van dergelijk werk. Altman verklaarde: "We doen andere dingen bovenop GPT-4 waarvan ik denk dat ze allerlei veiligheidskwesties hebben die belangrijk zijn om aan te pakken en die volledig uit de brief zijn weggelaten."

[Ingesloten inhoud]

The Verge merkt op dat het debat over AI-veiligheid wordt uitgedaagd door de moeilijkheid om de voortgang te meten en te volgen. Vincent wijst op de misvatting van versienummers, waarbij wordt aangenomen dat genummerde technische updates duidelijke en lineaire verbeteringen in capaciteit weerspiegelen, een misvatting die wordt gekoesterd in de wereld van consumententechnologie. Deze logica wordt vaak toegepast op systemen zoals de taalmodellen van OpenAI, wat leidt tot enige verwarring en mogelijk verkeerde informatie.

Vincent betoogt dat de bevestiging van Altman dat OpenAI momenteel geen GPT-5 ontwikkelt, misschien geen troost is voor degenen die zich zorgen maken over de veiligheid van AI, aangezien het bedrijf het potentieel van GPT-4 nog steeds uitbreidt en anderen in de branche vergelijkbare ambitieuze tools bouwen.

Tot slot schrijft Vincent: “Zelfs als de regeringen van de wereld op de een of andere manier een verbod op nieuwe AI-ontwikkelingen zouden kunnen afdwingen, is het duidelijk dat de samenleving haar handen vol heeft met de systemen die momenteel beschikbaar zijn. Natuurlijk, GPT-5 komt er nog niet, maar maakt het uit als GPT-4 nog steeds niet volledig wordt begrepen?”

spot_img

Laatste intelligentie

spot_img