Zephyrnet-logo

Deze week in AI • 31 juli 2023: AI Titans beloven verantwoorde innovatie • De Beluga-invasie – KDnuggets

Datum:

Het doel raken met AI
Afbeelding gemaakt door auteur met BlueWillow
 

Welkom bij de inaugurele editie van "This Week in AI" op KDnuggets. Deze samengestelde wekelijkse post is bedoeld om u op de hoogte te houden van de meest boeiende ontwikkelingen in de snel voortschrijdende wereld van kunstmatige intelligentie. Van baanbrekende krantenkoppen die ons begrip van de rol van AI in de samenleving bepalen tot tot nadenken stemmende artikelen, verhelderende leermiddelen en uitgelicht onderzoek dat de grenzen van onze kennis verlegt, dit bericht biedt een uitgebreid overzicht van het huidige landschap van AI. Zonder al in de details te duiken, kunt u een overvloed aan uiteenlopende onderwerpen verwachten die de enorme en dynamische aard van AI weerspiegelen. Onthoud dat dit slechts de eerste is van vele wekelijkse updates die komen gaan, ontworpen om u op de hoogte te houden en op de hoogte te houden in dit steeds evoluerende veld. Blijf op de hoogte en veel leesplezier!

 
In de rubriek “Headlines” wordt het belangrijkste nieuws en de ontwikkelingen van de afgelopen week op het gebied van kunstmatige intelligentie besproken. De informatie varieert van AI-beleid van de overheid tot technologische vooruitgang en bedrijfsinnovaties op het gebied van AI.

👏 AI Titans beloven verantwoorde innovatie onder het bestuur van Biden-Harris

De Biden-Harris-administratie heeft vrijwillige toezeggingen gekregen van zeven toonaangevende AI-bedrijven – Amazon, Anthropic, Google, Inflection, Meta, Microsoft en OpenAI – om de veilige, beveiligde en transparante ontwikkeling van AI-technologie te waarborgen. Deze toezeggingen onderstrepen drie principes die fundamenteel zijn voor de toekomst van AI: veiligheid, beveiliging en vertrouwen. De bedrijven zijn overeengekomen om interne en externe beveiligingstests van hun AI-systemen uit te voeren voordat ze worden vrijgegeven, informatie te delen over het beheer van AI-risico's en te investeren in cyberbeveiliging. Ze verplichten zich ook tot het ontwikkelen van technische mechanismen om ervoor te zorgen dat gebruikers weten wanneer inhoud door AI wordt gegenereerd en om de mogelijkheden, beperkingen en gebieden van gepast en ongepast gebruik van hun AI-systemen openbaar te maken. Deze stap maakt deel uit van een bredere toezegging van de regering Biden-Harris om ervoor te zorgen dat AI veilig en verantwoord wordt ontwikkeld en om Amerikanen te beschermen tegen schade en discriminatie.

 
👏 Stability AI onthult stabiele Beluga: de nieuwe werkpaarden van open access taalmodellen

Stability AI en zijn CarperAI-lab hebben de lancering aangekondigd van Stable Beluga 1 en Stable Beluga 2, twee krachtige, open access, Large Language Models (LLM's). Deze modellen, die blijk geven van een uitzonderlijk redeneervermogen in verschillende benchmarks, zijn respectievelijk gebaseerd op de originele LLaMA 65B- en LLaMA 2 70B-basismodellen. Beide modellen zijn verfijnd met een nieuwe synthetisch gegenereerde dataset met behulp van Supervised Fine-Tune (SFT) in standaard Alpaca-formaat. De training voor de Stable Beluga-modellen is geïnspireerd op de methodologie die Microsoft gebruikte in zijn paper: "Orca: Progressive Learning from Complex Explanation Traces of GPT-4." Ondanks training op een tiende van de steekproefomvang van het originele Orca-papier, laten de Stable Beluga-modellen uitzonderlijke prestaties zien in verschillende benchmarks. Vanaf 27 juli 2023 is Stable Beluga 2 het topmodel op het scorebord en staat Stable Beluga 1 vierde.

 
👏 Spotify CEO hint naar toekomstige AI-gestuurde personalisatie en advertentiemogelijkheden

Tijdens Spotify's inkomensgesprek over het tweede kwartaal hintte CEO Daniel Ek naar de mogelijke introductie van extra AI-aangedreven functionaliteit voor de streamingdienst. Ek suggereerde dat AI kan worden gebruikt om meer gepersonaliseerde ervaringen te creëren, podcasts samen te vatten en advertenties te genereren. Hij benadrukte het succes van de onlangs gelanceerde DJ-functie, die een samengestelde muziekselectie levert naast AI-aangedreven commentaar over de nummers en artiesten. Ek noemde ook het mogelijke gebruik van generatieve AI om podcasts samen te vatten, waardoor het voor gebruikers gemakkelijker wordt om nieuwe inhoud te ontdekken. Verder besprak Ek de mogelijkheid van door AI gegenereerde audio-advertenties, die de kosten voor adverteerders om nieuwe advertentie-indelingen te ontwikkelen aanzienlijk zouden kunnen verlagen. Deze opmerkingen komen wanneer Spotify een patent zoekt voor een door AI aangedreven "tekst-naar-spraaksynthese" -systeem, dat tekst kan omzetten in mensachtige spraakaudio die emotie en intentie bevat.

 
Het gedeelte 'Artikelen' presenteert een reeks tot nadenken stemmende stukken over kunstmatige intelligentie. Elk artikel duikt diep in een specifiek onderwerp en biedt lezers inzicht in verschillende aspecten van AI, waaronder nieuwe technieken, revolutionaire benaderingen en baanbrekende tools.

📰 ChatGPT-code-interpreter: doe datawetenschap in minuten

Dit artikel van KDnuggets introduceert de plug-in Code Interpreter van ChatGPT, een tool die gegevens kan analyseren, Python-code kan schrijven en modellen voor machine learning kan bouwen. De auteur, Natassha Selvaraj, laat zien hoe de plug-in kan worden gebruikt om verschillende datawetenschapsworkflows te automatiseren, waaronder het samenvatten van gegevens, verkennende gegevensanalyse, gegevensvoorverwerking en het bouwen van machine-learningmodellen. De Code Interpreter kan ook worden gebruikt om code uit te leggen, te debuggen en te optimaliseren. Natassha benadrukt dat hoewel de tool krachtig en efficiënt is, deze moet worden gebruikt als basis voor data science-taken, omdat het domeinspecifieke kennis mist en geen grote datasets in SQL-databases aankan. Natassha stelt voor dat datawetenschappers op instapniveau en degenen die dat willen worden, moeten leren hoe ze tools zoals Code Interpreter kunnen gebruiken om hun werk efficiënter te maken.

 
📰 Leerboeken zijn alles wat je nodig hebt: een revolutionaire benadering van AI-training

Dit KDnuggets-artikel bespreekt een nieuwe benadering van AI-training voorgesteld door Microsoft-onderzoekers, waarbij een synthetisch leerboek wordt gebruikt in plaats van enorme datasets. De onderzoekers trainden een model genaamd Phi-1 volledig op een op maat gemaakt leerboek en ontdekten dat het indrukwekkend goed presteerde in Python-coderingstaken, ondanks dat het aanzienlijk kleiner was dan modellen zoals GPT-3. Dit suggereert dat de kwaliteit van trainingsgegevens net zo belangrijk kan zijn als de grootte van het model. De prestaties van het Phi-1-model verbeterden ook wanneer het werd verfijnd met synthetische oefeningen en oplossingen, wat aangeeft dat gerichte fijnafstemming de mogelijkheden van een model kan verbeteren buiten de taken waarvoor het specifiek is getraind. Dit suggereert dat deze op leerboeken gebaseerde aanpak een revolutie teweeg zou kunnen brengen in AI-training door de focus te verleggen van het maken van grotere modellen naar het samenstellen van betere trainingsgegevens.

 
📰 Nieuwste Prompt Engineering-techniek transformeert op inventieve wijze imperfecte prompts in fantastische interacties voor het gebruik van generatieve AI

Het artikel bespreekt een nieuwe techniek in prompt engineering die het gebruik van imperfecte prompts aanmoedigt. De auteur betoogt dat het nastreven van perfecte prompts contraproductief kan zijn en dat het vaak praktischer is om te streven naar 'goed genoeg' prompts. Generatieve AI-toepassingen gebruiken probabilistische en statistische methoden om prompts te ontleden en reacties te genereren. Daarom zal de AI, zelfs als dezelfde prompt meerdere keren wordt gebruikt, waarschijnlijk elke keer verschillende antwoorden produceren. De auteur suggereert dat in plaats van te streven naar een perfecte prompt, gebruikers gebruik moeten maken van imperfecte prompts en deze moeten samenvoegen om effectieve prompts te creëren. Het artikel verwijst naar een onderzoek met de titel "Ask Me Anything: A Simple Strategy For Prompting Language Models", waarin een methode wordt voorgesteld om imperfecte prompts om te zetten in robuuste prompts door de voorspellingen van meerdere effectieve, maar imperfecte prompts samen te voegen.

 
Het gedeelte "Leermiddelen" bevat nuttige educatieve inhoud voor diegenen die graag hun kennis op het gebied van AI willen uitbreiden. De bronnen, variërend van uitgebreide gidsen tot gespecialiseerde cursussen, zijn geschikt voor zowel beginners als doorgewinterde professionals op het gebied van AI.

???? LLM University door Cohere: uw toegangspoort tot de wereld van grote taalmodellen

Cohere's LLM University is een uitgebreid leermiddel voor ontwikkelaars die geïnteresseerd zijn in Natural Language Processing (NLP) en Large Language Models (LLM's). Het curriculum is ontworpen om een ​​solide basis te bieden in NLP en LLM's, en vervolgens voort te bouwen op deze kennis om praktische toepassingen te ontwikkelen. Het curriculum is verdeeld in vier hoofdmodules: "Wat zijn grote taalmodellen?", "Tekstrepresentatie met samenhangende eindpunten", "Tekstgeneratie met samenhangende eindpunten" en "Inzet". Of u nu een nieuwe machine learning-ingenieur bent of een ervaren ontwikkelaar die uw vaardigheden wil uitbreiden, de LLM University by Cohere biedt een uitgebreide gids voor de wereld van NLP en LLM's.

 
???? Gratis van Google: generatief AI-leertraject

Google Cloud heeft het Generative AI-leertraject uitgebracht, een verzameling gratis cursussen die alles behandelen, van de basisprincipes van Generative AI tot meer geavanceerde tools zoals de Generative AI Studio. Het leertraject omvat zeven cursussen: "Inleiding tot generatieve AI", "Inleiding tot grote taalmodellen", "Inleiding tot beeldgeneratie", "Aandachtsmechanisme", "Transformermodellen en BERT-model", "Maak beeldbijschriftmodellen", en "Inleiding tot Generative AI Studio". De cursussen behandelen een scala aan onderwerpen, waaronder grote taalmodellen, beeldgeneratie, aandachtsmechanisme, transformatormodellen, BERT-model en beeldondertitelingsmodellen.

 
De sectie "Onderzoek in de schijnwerpers" belicht belangrijk onderzoek op het gebied van AI. De sectie bevat doorbraakonderzoeken, het verkennen van nieuwe theorieën en het bespreken van mogelijke implicaties en toekomstige richtingen op het gebied van AI.

???? De rol van grote taalmodellen in de evolutie van datawetenschapsonderwijs

Het onderzoekspaper getiteld "De rol van grote taalmodellen in de evolutie van datawetenschapsonderwijs" bespreekt de transformerende impact van grote taalmodellen (LLM's) op de rollen en verantwoordelijkheden van datawetenschappers. De auteurs stellen dat door de opkomst van LLM's de focus van datawetenschappers verschuift van hands-on codering naar het beheren en beoordelen van analyses die worden uitgevoerd door geautomatiseerde AI-systemen. Deze verschuiving vereist een aanzienlijke evolutie in data science-onderwijs, met een grotere nadruk op het cultiveren van diverse vaardigheden onder studenten. Deze omvatten creativiteit op basis van LLM's, kritisch denken, programmeren geleid door AI en interdisciplinaire kennis.

De auteurs stellen ook voor dat LLM's een belangrijke rol kunnen spelen in de klas als interactieve leer- en leermiddelen. Ze kunnen bijdragen aan gepersonaliseerd onderwijs en leerervaringen verrijken. De integratie van LLM's in het onderwijs vereist echter een zorgvuldige afweging om de voordelen van LLM's in evenwicht te brengen en complementaire menselijke expertise en innovatie te bevorderen. De paper suggereert dat de toekomst van data science-onderwijs waarschijnlijk een symbiotische relatie zal inhouden tussen menselijke leerlingen en AI-modellen, waarbij beide entiteiten van elkaar leren en elkaars capaciteiten verbeteren.
 
 

spot_img

Laatste intelligentie

spot_img