Verbind je met ons

AI

Containerimages gebruiken om TensorFlow-modellen uit te voeren in AWS Lambda

avatar

gepubliceerd

on

TensorFlow is een open-source machine learning (ML) -bibliotheek die veel wordt gebruikt om neurale netwerken en ML-modellen te ontwikkelen. Die modellen worden meestal getraind op meerdere GPU-instanties om de training te versnellen, wat resulteert in dure trainingstijd en modelgroottes tot enkele gigabytes. Nadat ze zijn getraind, worden deze modellen in de productie ingezet om conclusies te trekken. Het kunnen synchrone, asynchrone of batchgebaseerde workloads zijn. Die eindpunten moeten in hoge mate schaalbaar en veerkrachtig zijn om nul tot miljoenen verzoeken te kunnen verwerken. Dit is waar AWS Lambda kan een aantrekkelijke computerservice zijn voor schaalbare, kosteneffectieve en betrouwbare synchrone en asynchrone ML-inferentie. Lambda biedt voordelen zoals automatisch schalen, verminderde operationele overhead en facturering per inferentie.

Dit bericht laat zien hoe je elk TensorFlow-model met Lambda kunt gebruiken voor schaalbare gevolgtrekkingen in productie met maximaal 10 GB geheugen. Hierdoor kunnen we ML-modellen gebruiken in Lambda-functies tot enkele gigabytes. Voor dit bericht gebruiken we TensorFlow-Keras vooraf opgeleid ResNet 50 voor beeldclassificatie.

Overzicht van de oplossing

Lambda is een serverloze computerservice waarmee u code kunt uitvoeren zonder servers in te richten of te beheren. Lambda schaalt uw applicatie automatisch door code uit te voeren als reactie op elke gebeurtenis, waardoor gebeurtenisgestuurde architecturen en oplossingen mogelijk zijn. De code loopt parallel en verwerkt elke gebeurtenis afzonderlijk, schaalbaar met de omvang van de werkbelasting, van een paar verzoeken per dag tot honderdduizenden werkbelastingen. Het volgende diagram illustreert de architectuur van onze oplossing.

Het volgende diagram illustreert de architectuur van onze oplossing.

U kunt uw code en afhankelijkheden verpakken als een container afbeelding met behulp van tools zoals de Docker CLI. De maximale containergrootte is 10 GB. Nadat het model voor inferentie is gedockeriseerd, kunt u de afbeelding uploaden naar Amazon Elastic Container Registry (Amazon ECR). U kunt vervolgens de Lambda-functie maken vanuit de container met afbeelding die is opgeslagen in Amazon ECR.

Voorwaarden

Voor deze walkthrough moet u aan de volgende vereisten voldoen:

Implementatie van de oplossing

We gebruiken een vooraf getraind model van de TensorFlow Hub voor beeldclassificatie. Wanneer een afbeelding wordt geüpload naar een Amazon eenvoudige opslagservice (Amazon S3) bucket, wordt een Lambda-functie aangeroepen om de afbeelding te detecteren en af ​​te drukken naar het Amazon CloudWatch logboeken. Het volgende diagram illustreert deze workflow.

Het volgende diagram illustreert deze workflow.

Voer de volgende stappen uit om de oplossing te implementeren:

  1. Maak op uw lokale computer een map met de naam lambda-tensorflow-example.
  2. Pen uw requirements.txt bestand in die map.
  3. Voeg alle benodigde bibliotheken voor uw ML-model toe. Voor dit bericht gebruiken we TensorFlow 2.4.
  4. Maak een app.py script dat de code voor de Lambda-functie bevat.
  5. Maak een Dockerfile in dezelfde directory.

De volgende tekst is een voorbeeld van het requirements.txt-bestand om TensorFlow-code uit te voeren voor onze use case:

# List all python libraries for the lambda
tensorflow==2.4.0
tensorflow_hub==0.11
Pillow==8.0.1

We gebruiken de TensorFlow 2.4-versie alleen met CPU-ondersteuning omdat Lambda op het moment van schrijven alleen CPU-ondersteuning biedt. Zie voor meer informatie over alleen-CPU-versies van TensorFlow Pakket locatie.

De Python-code wordt in app.py geplaatst. De inferentiefunctie in app.py moet een specifieke structuur volgen om te worden aangeroepen door het Lambda-looptijd​ Zie voor meer informatie over handlers voor Lambda AWS Lambda-functiehandler in Python. Zie de volgende code:

import json
import boto3
import numpy as np
import PIL.Image as Image import tensorflow as tf
import tensorflow_hub as hub IMAGE_WIDTH = 224
IMAGE_HEIGHT = 224 IMAGE_SHAPE = (IMAGE_WIDTH, IMAGE_HEIGHT)
model = tf.keras.Sequential([hub.KerasLayer("model/")])
model.build([None, IMAGE_WIDTH, IMAGE_HEIGHT, 3]) imagenet_labels= np.array(open('model/ImageNetLabels.txt').read().splitlines())
s3 = boto3.resource('s3') def lambda_handler(event, context): bucket_name = event['Records'][0]['s3']['bucket']['name'] key = event['Records'][0]['s3']['object']['key'] img = readImageFromBucket(key, bucket_name).resize(IMAGE_SHAPE) img = np.array(img)/255.0 prediction = model.predict(img[np.newaxis, ...]) predicted_class = imagenet_labels[np.argmax(prediction[0], axis=-1)] print('ImageName: {0}, Prediction: {1}'.format(key, predicted_class)) def readImageFromBucket(key, bucket_name): bucket = s3.Bucket(bucket_name) object = bucket.Object(key) response = object.get() return Image.open(response['Body'])

De volgende Dockerfile voor Python 3.8 maakt gebruik van de door AWS geleverde open-source basis afbeeldingen die kunnen worden gebruikt om containerafbeeldingen te maken. De basisimages zijn vooraf geladen met taalruntimes en andere componenten die nodig zijn om een ​​containerimage op Lambda uit te voeren.

# Pull the base image with python 3.8 as a runtime for your Lambda
FROM public.ecr.aws/lambda/python:3.8 # Install tar and gzip
RUN yum -y install tar gzip zlib # Copy the earlier created requirements.txt file to the container
COPY requirements.txt ./ # Install the python requirements from requirements.txt
RUN python3.8 -m pip install -r requirements.txt # Copy the earlier created app.py file to the container
COPY app.py ./ # Download ResNet50 and store it in a directory
RUN mkdir model
RUN curl -L https://tfhub.dev/google/imagenet/resnet_v1_50/classification/4?tf-hub-format=compressed -o ./model/resnet.tar.gz
RUN tar -xf model/resnet.tar.gz -C model/
RUN rm -r model/resnet.tar.gz # Download ImageNet labels
RUN curl https://storage.googleapis.com/download.tensorflow.org/data/ImageNetLabels.txt -o ./model/ImageNetLabels.txt # Set the CMD to your handler
CMD ["app.lambda_handler"]

Uw mappenstructuur zou er als volgt uit moeten zien.

Uw mappenstructuur zou er als volgt uit moeten zien.

U kunt de containerimage bouwen en naar Amazon ECR pushen met de volgende bash-opdrachten. Vervang de met uw eigen AWS-account-ID en specificeer ook een .

# Build the docker image
docker build -t lambda-tensorflow-example . # Create a ECR repository
aws ecr create-repository --repository-name lambda-tensorflow-example --image-scanning-configuration scanOnPush=true --region <REGION> # Tag the image to match the repository name
docker tag lambda-tensorflow-example:latest <AWS_ACCOUNT_ID>.dkr.ecr.<REGION>.amazonaws.com/lambda-tensorflow-example:latest # Register docker to ECR
aws ecr get-login-password --region <REGION> | docker login --username AWS --password-stdin <AWS_ACCOUNT_ID>.dkr.ecr.<REGION>.amazonaws.com # Push the image to ECR
docker push <AWS_ACCOUNT_ID>.dkr.ecr.<REGION>.amazonaws.com/lambda-tensorflow-example:latest

Als u uw model-inferentie lokaal wilt testen, bevatten de basisimages voor Lambda een Runtime Interface Emulator (RIE) waarmee u ook lokaal testen uw Lambda-functie verpakt als een containerimage om de ontwikkelingscycli te versnellen.

Een S3-bucket maken

Als volgende stap maken we een S3-bucket om de afbeeldingen op te slaan die worden gebruikt om de afbeeldingsklasse te voorspellen.

  1. Kies op de Amazon S3-console Maak een bucket.
  2. Geef de S3-bucket een naam, zoals tensorflow-images-for-inference-<Random_String> en vervang de met een willekeurige waarde.
  3. Kies Maak een bucket.

De Lambda-functie maken met de TensorFlow-code

Om uw Lambda-functie te creëren, voert u de volgende stappen uit:

  1. Kies op de Lambda-console Functies.
  2. Kies Maak functie.
  3. kies Containerimage.
  4. Voor Functienaam, voer een naam in, zoals tensorflow-endpoint.
  5. Voor Containerimage-URI, voer het eerder gemaakte lambda-tensorflow-example repository.

  1. Kies Door afbeeldingen bladeren om de nieuwste afbeelding te kiezen.
  2. Klik Maak functie om het maken ervan te initialiseren.
  3. Om de Lambda-runtime te verbeteren, vergroot u het functiegeheugen tot minimaal 6 GB en een time-out tot 5 minuten in het Basis instellingen.

Zie voor meer informatie over functiegeheugen- en time-outinstellingen Nieuw voor AWS Lambda - Functies met maximaal 10 GB geheugen en 6 vCPU's.

De S3-bucket koppelen aan uw Lambda-functie

Na het succesvol maken van de Lambda-functie, moeten we er een trigger aan toevoegen, zodat elke keer dat een bestand wordt geüpload naar de S3-bucket, de functie wordt aangeroepen.

  1. Kies uw functie op de Lambda-console.
  2. Kies Trigger toevoegen.

Kies Trigger toevoegen.

  1. Kies S3.
  2. Voor Emmer, kies de bucket die u eerder heeft gemaakt.

Kies bij Bucket de bucket die u eerder heeft gemaakt.

Nadat de trigger is toegevoegd, moet u de Lambda-functie toestaan ​​verbinding te maken met de S3-bucket door de juiste in te stellen AWS Identiteits- en toegangsbeheer (IAM) rechten voor zijn uitvoerende rol.

  1. Op de machtigingen Kies de IAM-rol voor uw functie.
  2. Kies Voeg beleid toe.
  3. Zoek naar AmazonS3ReadOnlyAccess en koppel het aan de IAM-rol.

Nu heb je alle benodigde services geconfigureerd om je functie te testen. Upload een JPG-afbeelding naar de gemaakte S3-bucket door de bucket te openen in de AWS-beheerconsole en op te klikken Uploaden​ Na een paar seconden kunt u het resultaat van de voorspelling zien in de CloudWatch-logboeken. Als vervolgstap zou je de voorspellingen kunnen opslaan in een Amazon DynamoDB tafel.

Na het uploaden van een JPG-afbeelding naar de S3-bucket, krijgen we de voorspelde afbeeldingsklasse als resultaat afgedrukt naar CloudWatch. De Lambda-functie wordt geactiveerd door EventBridge en haalt de afbeelding uit de bucket. Als voorbeeld gaan we de afbeelding hiervan gebruiken papegaai om voorspeld te worden door ons inferentie-eindpunt.

In de CloudWatch-logboeken wordt de voorspelde klasse afgedrukt. Inderdaad, het model voorspelt de juiste klasse voor de afbeelding (ara):

Performance

Om optimale prestaties te bereiken, kunt u verschillende niveaus van geheugeninstelling proberen (die de toegewezen vCPU lineair wijzigen, lees dit voor meer informatie AWS Nieuws Blog​ In het geval van ons geïmplementeerde model realiseren we de meeste prestatieverbeteringen bij een instelling van ongeveer 3GB - 4GB (~ 2vCPU's) en de winsten daarbuiten zijn relatief laag. Verschillende modellen zien verschillende niveaus van prestatieverbetering door een grotere hoeveelheid CPU, dus het is het beste om dit experimenteel voor uw eigen model te bepalen. Bovendien wordt het ten zeerste aanbevolen dat u uw broncode compileert om hiervan te profiteren Geavanceerde vectoruitbreidingen 2 (AVX2) op Lambda die de prestaties verder verhoogt door vCPU's toe te staan ​​een groter aantal integer- en floating-point-bewerkingen per klokcyclus uit te voeren.

Conclusie

Met containerimage-ondersteuning voor Lambda kunt u uw functie nog meer aanpassen, waardoor veel nieuwe use-cases voor serverloze ML worden geopend. U kunt uw aangepaste modellen meenemen en ze op Lambda implementeren met maximaal 10 GB voor de grootte van de containerimage. Voor kleinere modellen die niet veel rekenkracht nodig hebben, kunt u online training en gevolgtrekking puur in Lambda uitvoeren. Wanneer de modelgrootte toeneemt, worden koudestartproblemen steeds belangrijker en moeten ze dat ook zijn gemitigeerd​ Er is ook geen beperking op het framework of de taal met containerafbeeldingen; andere ML-frameworks zoals PyTorch, Apache MXNet, XGBoostof Scikit leren kan ook worden gebruikt!

Als u GPU nodig heeft voor uw gevolgtrekking, kunt u overwegen om containerservices zoals Amazon Elastic Container Service (Amazon ECS), Kubernetes, of implementeer het model op een Amazon SageMaker eindpunt.


Over de auteur

Jan Bauer is een Cloud Application Developer bij AWS Professional Services. Zijn interesses zijn serverless computing, machine learning en alles wat met cloud computing te maken heeft.

Bron: https://aws.amazon.com/blogs/machine-learning/using-container-images-to-run-tensorflow-models-in-aws-lambda/

Artificial Intelligence

Diep leren versus machinaal leren: hoe een opkomend veld traditionele computerprogrammering beïnvloedt

avatar

gepubliceerd

on

Wanneer twee verschillende concepten sterk met elkaar verweven zijn, kan het moeilijk zijn om ze als afzonderlijke academische onderwerpen te scheiden. Dat zou kunnen verklaren waarom het zo moeilijk is om te scheiden diepgaand leren vanaf machine learning Als geheel. Gezien de huidige drang naar zowel automatisering als onmiddellijke bevrediging, is er veel hernieuwde aandacht voor het onderwerp.

Alles, van geautomatiseerde productieprocessen tot gepersonaliseerde digitale geneeskunde zou potentieel kunnen groeien om op te vertrouwen diepgaand leren technologie. Het is echter weliswaar veel moeilijker om de exacte aspecten van deze technische discipline te definiëren die een revolutie teweeg zullen brengen in deze industrieën. Misschien is het het beste om deep learning te overwegen in de context van een grotere beweging in de informatica.

Deep Learning definiëren als een subset van machine learning

machine learning en diep leren zijn in wezen twee kanten van dezelfde medaille. Deep learning-technieken zijn een specifieke discipline die tot een veel groter gebied behoort, dat een grote verscheidenheid aan getrainde kunstmatig intelligente agenten omvat die de juiste respons in een even breed scala aan situaties kunnen voorspellen. Wat deep learning echter onafhankelijk maakt van al deze andere technieken, is het feit dat het zich bijna uitsluitend richt op het aanleren van agenten om een ​​specifiek doel te bereiken door de best mogelijke actie te leren in een aantal virtuele omgevingen.

Traditionele algoritmen voor machine learning leren kunstmatige knooppunten meestal hoe ze op stimuli moeten reageren door ze uit het hoofd te onthouden. Dit lijkt enigszins op menselijke onderwijstechnieken die bestaan ​​uit eenvoudige herhaling, en daarom kan het worden gezien als het computergestuurde equivalent van een student die door de tafels loopt totdat hij ze kan reciteren. Hoewel dit in zekere zin effectief is, zijn kunstmatig intelligente agenten die op een dergelijke manier zijn opgeleid, mogelijk niet in staat om te reageren op prikkels buiten het bereik van hun oorspronkelijke ontwerpspecificaties.

Daarom hebben deep learning-specialisten alternatieve algoritmen ontwikkeld die als enigszins superieur worden beschouwd aan deze methode, hoewel ze op veel manieren weliswaar veel hardware-intensiever zijn. Subrountines die door deep learning-agenten worden gebruikt, kunnen gebaseerd zijn op generatieve vijandige netwerken, convolutionele neurale knoopstructuren of een praktische vorm van een beperkte Boltzmann-machine. Deze staan ​​in schril contrast met de binaire bomen en gekoppelde lijsten die worden gebruikt door conventionele machine learning-firmware en de meeste moderne bestandssystemen.

Zelforganiserende kaarten zijn ook op grote schaal in deep learning geweest, hoewel hun toepassingen in andere AI-onderzoeksgebieden doorgaans veel minder veelbelovend waren. Als het gaat om het definiëren van de diep leren versus machine learning debat, maar het is zeer waarschijnlijk dat technici de komende maanden meer zullen zoeken naar praktische toepassingen dan naar theoretische academische discussies. Het volstaat te zeggen dat machine learning alles omvat, van de eenvoudigste AI tot de meest geavanceerde voorspellende algoritmen, terwijl deep learning een meer selectieve subset van deze technieken vormt.

Praktische toepassingen van Deep Learning-technologie

Afhankelijk van hoe een bepaald programma is geschreven, kunnen diepgaande leertechnieken worden ingezet langs gesuperviseerde of semi-gesuperviseerde neurale netwerken. Theoretisch zou het ook mogelijk zijn doe dit via een volledig onbewaakte knooppuntlay-out, en het is deze techniek die al snel de meest veelbelovende is geworden. Onbewaakte netwerken kunnen nuttig zijn voor medische beeldanalyse, aangezien deze applicatie vaak unieke stukjes grafische informatie aan een computerprogramma presenteert die moeten worden getest aan de hand van bekende inputs.

Traditionele binaire boom of op blockchain gebaseerde leersystemen hebben moeite gehad om dezelfde patronen in dramatisch verschillende scenario's te identificeren, omdat de informatie verborgen blijft in een structuur die anders zou zijn ontworpen om gegevens effectief te presenteren. Het is in wezen een natuurlijke vorm van steganografie, en het heeft computeralgoritmen in de gezondheidszorg in de war gebracht. Dit nieuwe type leerknooppunt zonder toezicht zou zichzelf echter virtueel kunnen leren hoe deze patronen te matchen, zelfs in een gegevensstructuur die niet is georganiseerd volgens de normale lijnen die een computer zou verwachten.

Anderen hebben implementatie voorgesteld semi-supervised kunstmatig intelligente marketing agents dat zou een groot deel van de bezorgdheid over ethiek met betrekking tot bestaande software voor het sluiten van deals kunnen wegnemen. In plaats van te proberen een zo groot mogelijk klantenbestand te bereiken, zouden deze tools de kans berekenen dat een bepaald individu op een bepaald moment een product nodig heeft. Om dit te doen, zou het bepaalde soorten informatie nodig hebben die wordt verstrekt door de organisatie waarvoor het werkt, maar het zou uiteindelijk in staat zijn om alle verdere acties zelf te voorspellen.

Hoewel sommige bedrijven momenteel vertrouwen op tools die gebruikmaken van traditionele machine learning-technologie om dezelfde doelen te bereiken, wordt hier vaak mee gewerkt privacy en ethische overwegingen. De komst van diepgestructureerde leeralgoritmen hebben software-ingenieurs in staat gesteld om met nieuwe systemen te komen die niet aan deze nadelen lijden.

Een geautomatiseerde privé-leeromgeving ontwikkelen

Conventionele machine learning-programma's lopen vaak serieus uit privacy zorgen vanwege het feit dat ze een enorme hoeveelheid input nodig hebben om bruikbare conclusies te trekken. Diepgaande software voor beeldherkenning werkt door een kleinere subset van invoer te verwerken, waardoor het ervoor zorgt dat het niet zoveel informatie nodig heeft om dit te doen baan​ Dit is met name van belang voor degenen die zich zorgen maken over de mogelijkheid van lekken van consumentengegevens.

Gezien nieuwe regelgevende standpunten voor veel van deze kwesties, wordt het ook snel iets dat belangrijk is geworden vanuit het oogpunt van compliance. Zoals toxicologische laboratoria beginnen te gebruiken bioactiviteitgerichte diepgestructureerde leerpakkettenis het waarschijnlijk dat toezichthouders extra zorgen zullen uiten over de hoeveelheid informatie die nodig is om een ​​bepaalde taak uit te voeren met dit soort gevoelige gegevens. Computerwetenschappers hebben moeten verkleinen wat sommigen een echte brandslang van bytes noemen die meer van een verhaal vertellen dan de meesten zich prettig zouden voelen.

In zekere zin luisteren deze ontwikkelingen terug naar een vroegere tijd toen men geloofde dat elk proces in een systeem alleen het aantal privileges zou moeten hebben dat nodig is om zijn taak te voltooien. Aangezien ingenieurs voor machine learning dit paradigma omarmen, is het zeer waarschijnlijk dat toekomstige ontwikkelingen aanzienlijk veiliger zullen zijn, simpelweg omdat ze niet de enorme hoeveelheid datamining nodig hebben die nodig is om de bestaande operaties van vandaag mogelijk te maken.

Afbeelding tegoed: toptal.io

Coinsmart. Beste Bitcoin-Börse in Europa
Bron: https://datafloq.com/read/deep-learning-vs-machine-learning-how-emerging-field-influences-traditional-computer-programming/13652

Verder lezen

Artificial Intelligence

Extra Crunch-samenvatting: Tonal EC-1, Deliveroo's rotsachtige IPO, is Substack echt $ 650 miljoen waard?

avatar

gepubliceerd

on

Voor de column van vanmorgen, Alex Wilhelm blikte terug op de afgelopen maanden, "een druk seizoen voor het verlaten van de technologie" dat volgde op een heet vierde kwartaal van 4.

We zien tekenen van een IPO-markt die misschien aan het afkoelen is, maar toch "zijn er voldoende SPAC's om de hele recente Y Combinator-klasse publiek te maken", merkt hij op.

Zodra we private-equityfirma's met zakken vol geld in aanmerking nemen, is het duidelijk dat bedrijven in een laat stadium drie solide keuzes hebben om op niveau te komen.

Op zoek naar meer inzicht in deze liquiditeitsopties, interviewde Alex:

  • DigitalOcean CEO Yancey Spruill, wiens bedrijf via IPO naar de beurs ging;
  • Latch CFO Garth Mitchell, die de fusie van zijn startup met onroerend goed SPAC $ TSIA besprak;
  • Brian Cruver, oprichter en CEO van AlertMedia, dat onlangs is verkocht aan een private-equityfirma.

Na het samenvatten van hun deals, legt elke leidinggevende uit hoe hun bedrijf heeft bepaald welk knipperend rood "EXIT" -bord moet volgen. Zoals Alex opmerkte, "is het een interessante taak om uit de mogelijkheden van een buffet te kiezen welke optie het beste is."

Heel erg bedankt voor het lezen van Extra Crunch! Fijn weekend.

Walter Thompson
Senior editor, TechCrunch
@juliemeerveld


Volledige Extra Crunch-artikelen zijn alleen beschikbaar voor leden
Gebruik kortingscode EC Vrijdag 20% korting op een abonnement van één of twee jaar


De tonale EC-1

Afbeelding Credits: Nigel Sussman

Dinsdag publiceerden we een vierdelige serie over Tonal, een startup voor thuisfitness die $ 200 miljoen heeft opgehaald sinds de lancering in 2018. De gepatenteerde hardware van het bedrijf combineert digitale gewichten, coaching en AI in een aan de muur gemonteerd systeem dat voor $ 2,995 wordt verkocht.

Hoe dan ook, het is klaar voor succes - omzet steeg 800% tussen december 2019 en 2020, en tegen het einde van dit jaar zal het bedrijf 60 winkellocaties hebben. Op woensdag, Tonal meldde een Series E van $ 250 miljoen dat waardeerde het bedrijf op $ 1.6 miljard.

Onze diepe duik onderzoekt Tonal's oorsprong, productontwikkelingstijdlijn, zijn go-to-market-strategie en andere aspecten die samen de interesse van investeerders en klanttevredenheid wekken.

We noemen dit formaat de “EC-1, ”Aangezien deze verhalen net zo veelomvattend en verhelderend zijn als de S-1-formulieren die startups moeten indienen bij de SEC voordat ze openbaar worden.

Hier is hoe de Tonal EC-1 kapot gaat:

We hebben meer EC-1's in de maak over andere late-stage startups die grote dingen goed doen en ondertussen nieuws halen.

Wat te denken van het ruige IPO-debuut van Deliveroo

Waarom worstelde Deliveroo toen het begon te handelen? Lijdt het aan culturele dissonantie tussen zijn snelgroeiende model en meer conservatieve Europese investeerders?

Laten we naar de cijfers kijken en erachter komen.

Kaltura zet het debuut in de wacht. Sluit het technische IPO-venster?

The Exchange betwijfelt dat veel mensen verwachtten dat het IPO-klimaat zonder waarschuwing zo koud zou worden. Maar we zouden een Q2-pauze kunnen krijgen in het voorheen verschroeiende klimaat voor tech-debuten.

Is Substack echt $ 650 miljoen waard?

Een Serie B van $ 65 miljoen is opmerkelijk, zelfs tegen de normen van 2021. Maar het feit dat a16z meer kapitaal in de alt-media-ruimte steekt, is geen verrassing.

Substack is een plek waar publicaties een bekend talent hebben laten bloeden, waardoor het zwaartepunt in de media is verschoven. Laten we eens kijken naar de historische groei van Substack.

RPA-markt stijgt als investeerders, verkopers profiteren van pandemische technische verschuivingen

Bedrijfsprocesorganisatie en analyse. Visualisatie en representatie van bedrijfsprocessen, geautomatiseerd workflowsysteemconcept. Vector concept creatieve illustratie

Afbeelding Credits: Visuele generatie / Getty-afbeeldingen

Procesautomatisering met robots kwam naar voren tijdens de pandemie toen bedrijven stappen ondernamen om digitaal te transformeren. Toen werknemers niet samen in hetzelfde kantoor konden zijn, werd het cruciaal om meer geautomatiseerde workflows samen te voegen waarvoor minder mensen nodig waren.

RPA heeft leidinggevenden in staat gesteld een automatiseringsniveau te bieden dat hen in wezen tijd geeft om systemen bij te werken naar modernere benaderingen, terwijl het grote aantal alledaagse handmatige taken dat deel uitmaakt van de workflow van elke branche, wordt verminderd.

Roll-ups van e-commerce zijn de volgende golf van verstoringen in verpakte consumentengoederen

Verhoogde mening van vele toiletrollen op blauwe achtergrond

Afbeelding Credits: Javier Zayas Photography (Opent in een nieuw venster) / Getty-afbeeldingen

Dit jaar draait alles om de roll-ups, het samenvoegen van kleinere bedrijven tot grotere bedrijven, waardoor een potentieel aantrekkelijk pad voor aandelenwaarde wordt gecreëerd. Opvallend is de interesse om waarde te creëren door middel van e-commerce merken.

Nog maar een jaar geleden waren digitaal native merken uit de gratie geraakt bij durfkapitalisten, nadat zovelen er niet in waren geslaagd om rendementen op risicoschaal te creëren. Dus waar gaat de oprolhype over?

Hack takes: een CISO en een hacker geven aan hoe ze zouden reageren op de Exchange-inbreuk

3D Flat isometrische vector concept van datalek, het stelen van vertrouwelijke gegevens, cyberaanval.

Afbeelding Credits: TarikVision (Opent in een nieuw venster) / Getty-afbeeldingen

De cyberwereld is een nieuw tijdperk ingegaan waarin aanvallen frequenter en op grotere schaal plaatsvinden dan ooit tevoren. Massale hacks die duizenden Amerikaanse bedrijven en agentschappen van hoog niveau treffen, hebben de laatste tijd het nieuws gedomineerd. De belangrijkste hiervan zijn de inbreuk op SolarWinds / FireEye in december en de recentere inbreuk op de Microsoft Exchange-server.

Iedereen wil weten: wat moet je doen als je bent getroffen door de Exchange-inbreuk?

5 essentiële aspecten van machine learning die niet-technische leiders moeten begrijpen

Wirwar van veelkleurige draden die in rechte lijnen over een witte achtergrond ontwarren. Kaapstad, Zuid-Afrika. Februari 2019.

Afbeelding Credits: David Malan (Opent in een nieuw venster) / Getty-afbeeldingen

Machine learning is de basis geworden van zakelijke en groeiversnelling vanwege het ongelooflijke tempo van verandering en ontwikkeling in deze ruimte.

Maar voor engineering- en teamleiders zonder ML-achtergrond kan dit ook overweldigend en intimiderend aanvoelen.

Hier zijn best practices en onmisbare componenten, onderverdeeld in vijf praktische en gemakkelijk toepasbare lessen.

Embedded procurement maakt van elk bedrijf zijn eigen marktplaats

Vrouwelijke ondernemers met behulp van mobiele telefoon analyseren van gegevens en economische groei graph-grafiek. Technologie digitale marketing en netwerkverbinding.

Afbeelding Credits: Busakorn Pongparnit / Getty-afbeeldingen

Embedded procurement is de natuurlijke evolutie van embedded fintech.

In deze volgende golf zullen bedrijven dingen kopen die ze nodig hebben via verticale B2B-apps, in plaats van via verkopers, distributeurs of de website van een individuele handelaar.

Weten wanneer uw startup all-in moet gaan voor bedrijfsontwikkeling

Een rode lijn met pijlpunt dat uit een zakelijk of financieel groeigrafiekcanvas breekt.

Afbeelding Credits: twomeows / Getty Images

Er is een hardnekkige misvatting dat elke groeiende pijn bij het opstarten of schaalprobleem kan worden opgelost met bedrijfsontwikkeling.

Dat is eerlijk gezegd niet waar.

Beste Sophie: Wat moet ik weten over prenups en een groene kaart krijgen door te trouwen?

eenzame figuur bij ingang van doolhofhaag met een Amerikaanse vlag in het midden

Afbeelding Credits: Bryce Durbin / TechCrunch

Beste Sophie:

Ik ben een oprichter van een startup met een E-2-investeerdersvisum en ben net verloofd! Mijn aanstaande echtgenoot zal me sponsoren voor een groene kaart.

Zijn er minimale salarisvereisten voor haar om mij te sponsoren? Is er iets dat ik in gedachten moet houden voordat ik het groene kaartproces start?

- Verloofd in Belmont

Startups moeten de bureaucratie terugdringen om een ​​flexibel gegevensbeheer te garanderen

Afbeelding van een computer, telefoon en klok op een bureau gebonden in bureaucratie.

Afbeelding Credits: RichVintage / Getty-afbeeldingen

Veel organisaties beschouwen datamanagement als verwant aan datagovernance, waarbij de verantwoordelijkheden zijn geconcentreerd rond het vaststellen van controles en auditprocedures, en de zaken vanuit een defensieve lens worden bekeken.

Die defensiviteit is weliswaar gerechtvaardigd, vooral gezien de mogelijke financiële en reputatieschade als gevolg van wanbeheer en lekken van gegevens.

Desalniettemin is er een element van bijziendheid, en te voorzichtig zijn kan organisaties ervan weerhouden de voordelen van datagestuurde samenwerking te realiseren, met name als het gaat om software- en productontwikkeling.

Breng CISO's naar de C-suite om cybersecurity in de bedrijfscultuur te integreren

Zakenvrouw van gemengd ras met behulp van tabletcomputer in serverruimte

Afbeelding Credits: Jetta Productions Inc. (Opent in een nieuw venster) / Getty-afbeeldingen

Cyberstrategie en bedrijfsstrategie zijn onlosmakelijk met elkaar verbonden. Bijgevolg zullen chief information security officers in de C-Suite net zo gewoon en invloedrijk zijn als CFO's bij het maximaliseren van aandeelhouderswaarde.

Hoe besteedt edtech zijn extra kapitaal?

Geldboom: een volwassen hand reikt naar dollarbiljetten die aan een bladerloze boom groeien

Afbeelding Credits: Tetra-afbeeldingen (Opent in een nieuw venster) / Getty-afbeeldingen

Edtech-eenhoorns hebben bootladingen geld te besteden na de kapitaalverhoging voor de sector in 2020. Als gevolg hiervan is de fusies en overnames van edtech blijven toenemen.

Het idee van een goed gekapitaliseerde start-up die concurrenten koopt als aanvulling op zijn kernactiviteiten is niets nieuws, maar uitstapjes in deze sector zijn opmerkelijk omdat het geld dat wordt gebruikt om startups te kopen, kan worden gezien als een effect van de impact van de pandemie op onderwijs op afstand.

Maar in de afgelopen week heeft de consolidatieomgeving een duidelijke verklaring afgelegd: startups die zich hebben bewezen met pandemie, scheppen talent op - en snel.

Tech in Mexico: een samenvloeiing van Latijns-Amerika, de VS en Azië

Luchtfoto van menigte verbonden door lijnen

Afbeelding Credits: Orbon Alija (Opent in een nieuw venster)/ Getty-afbeeldingen

Kennisoverdracht is niet de enige trend die stroomt in het verband tussen de VS en Azië en Latijns-Amerika. Er is ook concurrentie.

Vanwege vergelijkbare marktomstandigheden breiden Aziatische technologiegiganten zich rechtstreeks uit naar Mexico en andere LatAm-landen.

Hoe we de netto retentie in 30 kwartalen met meer dan 2 punten hebben verbeterd

Vonken komen van het Amerikaanse dollarbiljet dat is vastgemaakt aan startkabels

Afbeelding Credits: Steven Puetzer (Opent in een nieuw venster) / Getty-afbeeldingen

Er is zeker geen tekort aan SaaS-prestatiestatistieken waarop leiders zich richten, maar NRR (netto-inkomstenbehoud) is zonder twijfel de meest onderschatte metriek die er is.

NRR is simpelweg de totale omzet minus eventuele omzetverloop plus eventuele omzetgroei door upgrades, cross-sells of upsells. Hoe groter de NRR, hoe sneller bedrijven kunnen opschalen.

5 fouten die makers maken bij het bouwen van nieuwe games op Roblox

BRAZILIË - 2021/03/24: In deze foto-illustratie een Roblox-logo weergegeven op een smartphone. (Foto-illustratie door Rafael Henrique / SOPA Images / LightRocket via Getty Images)

Afbeelding Credits: SOPA-afbeeldingen (Opent in een nieuw venster) / Getty-afbeeldingen

Zelfs de meest ervaren en getalenteerde game-ontwerpers uit de mobiele F2P-branche begrijpen meestal niet welke functies belangrijk zijn voor Robloxians.

Voor degenen die net aan hun reis zijn begonnen in de ontwikkeling van Roblox-games, zijn dit de meest voorkomende fouten die gamingprofessionals maken op Roblox.

CEO Manish Chandra, investeerder Navin Chaddha, leggen uit waarom Poshmark's Series A-deck zingt

CEO Manish Chandra, investeerder Navin Chaddha, leggen uit waarom Poshmark's Series A-deck beeld zingt

"Leid met liefde, en het geld komt." Het is een van de hoekstenen van Poshmark. In de laatste aflevering van Extra Crunch Live gingen Chandra en Chaddha bij ons zitten en liepen met ons door hun originele Serie A-pitchdeck.

Zal de pandemie een slimme wedergeboorte voor steden stimuleren?

Nieuw versus oud - een oud bakstenen gebouw weerspiegeld in ramen van een moderne nieuwe gevel

Afbeelding Credits: hopsalka (Opent in een nieuw venster) / Getty-afbeeldingen

Steden zijn bruisende knooppunten waar mensen wonen, werken en spelen. Toen de pandemie toesloeg, ontvluchtten sommige mensen grote stedelijke markten voor kleinere steden, wat vragen opriep over de toekomstige geldigheid van steden.

Maar degenen die voorspelden dat COVID-19 grote stedelijke gemeenschappen zou vernietigen, willen misschien stoppen met het kortsluiten van de veerkracht van deze gemeenten en lang doorgaan met hoe de toekomst na een pandemie eruit ziet.

De NFT-rage zal een zegen zijn voor advocaten

3D-weergave van roze spaarvarken staande op klinkend blok met hamer liggend naast op lichtblauwe achtergrond met kopie ruimte. Geld doet ertoe. Rechtszaak voor geld. Veilingbiedingen.

Afbeelding Credits: Gearstd (Opent in een nieuw venster) / Getty-afbeeldingen

Er is veel onzekerheid over auteursrechtkwesties, fraude en inhoud voor volwassenen, en juridische implicaties vormen de kern van de NFT-trend.

Of een rechtbank het eigendom van de houder van een bewijs van een bepaald dossier zou beschermen, hangt af van een aantal factoren. Al deze zorgen betekenen dat kunstenaars mogelijk moeten advocaat worden.

Bekijk Cazoo's voorgestelde SPAC-debuut door de voorruit van Carvana

Het is een redelijke vraag: waarom zou iemand vandaag zoveel voor Cazoo betalen als Carvana winstgevender is en zo niet? Nou, groei. Dat is sowieso het argument.

Coinsmart. Beste Bitcoin-Börse in Europa
Source: https://techcrunch.com/2021/04/02/extra-crunch-roundup-tonal-ec-1-deliveroos-rocky-ipo-is-substack-really-worth-650m/

Verder lezen

AI

Wat heeft COVID met al onze modellen gedaan?

avatar

gepubliceerd

on

Wat heeft COVID met al onze modellen gedaan?

Een interview met Dean Abbott en John Elder over verandermanagement, complexiteit, interpreteerbaarheid en het risico dat AI de mensheid overneemt.


By Heather Fyson, KNIME

Wat heeft COVID met al onze modellen gedaan?

Na het KNIME herfsttop, gingen de dinosauriërs terug naar huis ... nou ja, ze zetten hun laptops uit. Dean Abbott en het John ouderling, al lang bestaande data science-experts, werden uitgenodigd voor de Fall Summit door Michael om met hem mee te praten over The Future of Data Science: A Fireside Chat with Industry Dinosaurs​ Het resultaat was een sprankelend gesprek over uitdagingen op het gebied van data science en nieuwe trends. Sinds het uitschakelen van de studiolampen, Rosaria heeft enkele hoogtepunten over verandermanagement, complexiteit, interpreteerbaarheid en meer in de data science-wereld gedestilleerd en uitgebreid. Eens kijken waar het ons heeft gebracht.

Wat is jouw ervaring met verandermanagement in AI, wanneer de realiteit verandert en modellen moeten worden bijgewerkt? Wat heeft COVID met al onze modellen gedaan?

 
[Decaan] Machine Learning (ML) -algoritmen gaan uit van consistentie tussen verleden en toekomst. Als er dingen veranderen, mislukken de modellen. COVID heeft onze gewoontes veranderd, en dus ook onze gegevens. Pre-COVID-modellen hebben moeite om met de nieuwe situatie om te gaan.

[John] Een eenvoudig voorbeeld is de verkeerslaag op Google Maps. Nadat de lockdowns land na land troffen in 2020, waren de verkeersschattingen van Google Maps een tijdje erg onnauwkeurig. Het was gebouwd op redelijk stabiele trainingsgegevens, maar nu was dat systeem volledig uit de maling genomen.

Hoe kom je erachter wanneer de wereld is veranderd en de modellen niet meer werken?

 
[Decaan] Hier is een kleine truc die ik gebruik: ik partitioneer mijn gegevens op tijd en label records als "voor" en "na". Vervolgens bouw ik een classificatiemodel om onderscheid te maken tussen "na" en "ervoor" op basis van dezelfde invoer die het model gebruikt. Als de discriminatie mogelijk is, dan is de "na" anders dan de "ervoor", de wereld is veranderd, de gegevens zijn veranderd en de modellen moeten opnieuw worden geschoold.

Hoe ingewikkeld is het om modellen in projecten bij te scholen, vooral na jaren van maatwerk?

 
[John] Trainingsmodellen zijn meestal de gemakkelijkste stap van allemaal! De overgrote meerderheid van verder succesvolle projecten sterven in de implementatiefase. De beste niet de tijd of wordt besteed in de fase van het opschonen en voorbereiden van gegevens. En het meest problemen worden gemist of gemaakt in de fase van zakelijk begrip / projectdefinitie. Dus als u begrijpt wat de fout is en nieuwe gegevens kunt verkrijgen en over het implementatiekader beschikt, is het in vergelijking daarmee heel eenvoudig om een ​​nieuw model te maken.

Hoe complex is het op basis van je decennialange ervaring om een ​​echt functionerende Data Science-applicatie samen te stellen?

 
[John] Het kan natuurlijk variëren, afhankelijk van de complexiteit. De meeste van onze projecten krijgen in ieder geval binnen een paar maanden functionerende prototypes. Maar ik kan het belang van feedback niet genoeg benadrukken: je moet veel vaker met mensen praten dan je wilt. En luister! We leren elke keer nieuwe dingen over het bedrijfsprobleem, de gegevens of beperkingen. Wij kwantitatieve mensen zijn niet allemaal bedreven in het spreken met mensen, dus daar is vaak een team voor nodig. Maar het hele team van stakeholders moet dezelfde taal leren spreken.

[Decaan] Het is belangrijk om met onze zakelijke tegenhanger te praten. Mensen zijn bang voor verandering en willen de huidige status niet veranderen. Een belangrijk probleem is echt psychologisch. De analisten worden vaak als ergernis ervaren. We moeten dus het vertrouwen opbouwen tussen de zakelijke tegenhanger en de analytische nerds. De start van een project moet altijd de volgende stap omvatten: Synchroniseer domeinexperts / projectmanagers, de analisten en het IT- en infrastructuur (DevOps) -team, zodat iedereen duidelijk is over de doelstellingen van het project en hoe het zal worden uitgevoerd. Analisten staan ​​op nummer 11 in de top 10 van mensen die ze elke dag moeten zien! Laten we de arrogantie van datawetenschappers vermijden: "Het bedrijf kan ons / onze technieken niet begrijpen, maar we weten wat het beste werkt". Wat we echter niet begrijpen, is dat de domeinexperts eigenlijk experts zijn in het domein waarin we werken! De vertaling van aannames en benaderingen van data science in taal die wordt begrepen door de domeinexperts is essentieel!

De nieuwste trend is nu deep learning, blijkbaar kan het alles oplossen. Ik kreeg onlangs een vraag van een student met de vraag "waarom moeten we andere ML-algoritmen leren als deep learning de stand van de techniek is om datawetenschapsproblemen op te lossen"?

 
[Decaan] Door deep learning werd veel zuurstof uit de kamer gezogen. Het voelt zo veel als het begin van de jaren negentig toen neurale netwerken opstegen met een vergelijkbaar optimisme! Deep Learning is zeker een reeks krachtige technieken, maar ze zijn moeilijk te implementeren en te optimaliseren. XGBoost, Ensembles of trees, zijn ook krachtig, maar momenteel meer mainstream. De overgrote meerderheid van de problemen die we moeten oplossen met behulp van geavanceerde analyses vereisen echt geen complexe oplossingen, dus begin eenvoudig; diep leren is in deze situaties overdreven. U kunt het beste het scheerprincipe van Occam gebruiken: als twee modellen hetzelfde presteren, kiest u het eenvoudigste.

Over complexiteit. De andere trend, in tegenstelling tot deep learning, is ML-interpreteerbaarheid. Hier vereenvoudig je het model sterk (overdreven?) Om het te kunnen uitleggen. Is interpreteerbaarheid zo belangrijk?

 
[John] Ik merk dat ik vaak vecht tegen interpreteerbaarheid. Het is leuk, zeker, maar het kost vaak te hoge kosten van de belangrijkste modeleigenschap: betrouwbare nauwkeurigheid. Maar veel belanghebbenden zijn van mening dat interpreteerbaarheid essentieel is, dus het wordt een barrière voor acceptatie. Het is dus essentieel om te ontdekken wat voor soort interpreteerbaarheid nodig is. Misschien is het gewoon weten wat de belangrijkste variabelen zijn? Dat is te doen met veel niet-lineaire modellen. Misschien moet men, net als bij het uitleggen aan kredietaanvragers waarom ze zijn afgewezen, de output voor één zaak tegelijk interpreteren? We kunnen een lineaire benadering bouwen voor een bepaald punt. Of we kunnen gegevens genereren uit ons black box-model en een "interpreteerbaar" model van elke complexiteit bouwen dat bij die gegevens past.

Ten slotte heeft onderzoek aangetoond dat als gebruikers de kans krijgen om met een model te spelen - dat wil zeggen, het te porren met proefwaarden van inputs en de outputs ervan te zien, en misschien te visualiseren - ze dezelfde warme gevoelens van interpreteerbaarheid krijgen. Over het algemeen is vertrouwen - in de mensen en technologie achter het model - noodzakelijk voor acceptatie, en dit wordt versterkt door regelmatige communicatie en door de uiteindelijke gebruikers van het model te betrekken bij de bouwfasen en beslissingen van het modelleerproces.

[Decaan] Overigens heeft KNIME Analytics Platform een ​​geweldige functie om het belang van de invoervariabelen in een Random Forest te kwantificeren! De Willekeurige bosleerder knooppunt voert de statistieken van kandidaat- en splitsingsvariabelen uit. Onthoud dat wanneer u het Random Forest Learner-knooppunt gebruikt.

Er zijn steeds meer verzoeken om uitleg over wat een model doet. Voor sommige beveiligingsklassen eist de Europese Unie bijvoorbeeld verificatie dat het model niet doet wat het niet zou moeten doen. Als we het allemaal moeten uitleggen, dan is Machine Learning misschien niet de juiste keuze. Geen machine learning meer?

 
[Decaan]  Misschien is volledige uitlegbaarheid te moeilijk te verkrijgen, maar we kunnen vooruitgang boeken door een rasterzoekopdracht uit te voeren op modelinvoer om zoiets als een scorekaart te maken die beschrijft wat het model doet. Dit is zoiets als regressietesten in hardware en software QA. Als een formeel bewijs niet mogelijk is wat modellen doen, laten we dan testen en testen en testen! Input Shuffling en Target Shuffling kunnen helpen om een ​​ruwe weergave van het modelgedrag te krijgen.

[John] Nu we het hebben over begrijpen wat een model doet, zou ik het probleem van reproduceerbaarheid in de wetenschap aan de orde willen stellen. Aangenomen wordt dat een groot deel van de tijdschriftartikelen op alle gebieden - 65 tot 90% - niet kan worden gerepliceerd. Dit is een echte crisis in de wetenschap. Medische papieren proberen u te vertellen hoe u hun resultaten kunt reproduceren. ML-papers lijken nog niet te geven om reproduceerbaarheid. Een recente studie toonde aan dat slechts 15% van de AI-papers hun code deelt.

Laten we het hebben over Machine Learning Bias. Is het mogelijk om modellen te bouwen die niet discrimineren?

 
[John] (Om even een nerd te zijn, dat woord is helaas overbelast​ "Discrimineren" in het ML-wereldwoord is uw eigenlijke doel: onderscheid maken tussen twee klassen.) Maar wat uw echte vraag betreft, hangt het af van de gegevens (en of de analist slim genoeg is om zich aan te passen voor zwakheden in de gegevens ): De modellen halen uit de gegevens de informatie die erin wordt weergegeven. De computer weet niets over de wereld, behalve wat er in de gegevens ervoor staat. Dus de analist moet de gegevens beheren - de verantwoordelijkheid nemen voor die gevallen die de realiteit weerspiegelen. Als bepaalde typen mensen bijvoorbeeld ondervertegenwoordigd zijn, zal het model er minder aandacht aan besteden en in de toekomst minder nauwkeurig op hen zijn. Ik vraag: "Waar moesten de gegevens doorheen om hier te komen?" (om in deze dataset te komen) om na te denken over hoe andere gevallen tijdens het proces zouden kunnen zijn afgevallen (dat is overlevingsvooroordeel). Een bekwame datawetenschapper kan naar dergelijke problemen zoeken en manieren bedenken om ze aan te passen / te corrigeren.

[Decaan] De bias zit niet in de algoritmen. De bias zit in de gegevens. Als de gegevens bevooroordeeld zijn, werken we met een bevooroordeelde kijk op de wereld. Wiskunde is gewoon wiskunde, het is niet bevooroordeeld.

Zal AI de mensheid overnemen ?!

 
[John] Ik geloof dat AI gewoon een goede techniek is. Zal AI de menselijke intelligentie overtreffen? In mijn ervaring gelooft iedereen onder de 40 van ja, dit is onvermijdelijk, en de meeste boven de 40 (zoals ik natuurlijk): nee! AI-modellen zijn snel, loyaal en gehoorzaam. Net als een goede Duitse herdershond, zal een AI-model die bal gaan halen, maar hij weet niets over de wereld behalve de gegevens die hij heeft getoond. Het heeft geen gezond verstand. Het is een geweldige assistent voor specifieke taken, maar eigenlijk nogal dom.

[Decaan] In dat opzicht wil ik twee citaten vermelden die Marvin Minsky in 1961 en 1970 heeft gemaakt, vanaf het begin van AI, die volgens mij de toekomst van AI goed beschrijven.

"Tijdens ons leven zullen sommige machines ons overtreffen in algemene intelligentie" (1961)

"Over drie tot acht jaar hebben we een machine met de intelligentie van een mens" (1970)

Deze ideeën bestaan ​​al heel lang. Hier is een reden waarom AI niet alle problemen oplost: we beoordelen zijn gedrag op basis van één cijfer, slechts één cijfer! (Modelfout.) Bijvoorbeeld, voorspellingen van aandelenkoersen voor de komende vijf jaar, voorspeld door het bouwen van modellen met de gemiddelde kwadratenfout als de foutmetriek, kunnen onmogelijk het volledige beeld schetsen van wat de gegevens feitelijk doen en het model ernstig belemmeren. en zijn vermogen om de patronen flexibel bloot te leggen. We weten allemaal dat RMSE een te grove maat is. Deep Learning-algoritmen zullen steeds beter worden, maar we moeten ook beter worden in het beoordelen van hoe goed een model werkelijk is. Dus nee! Ik denk niet dat AI de mensheid zal overnemen.

We zijn aan het einde van dit interview gekomen. We willen Dean en John bedanken voor hun tijd en hun kennispillen. Laten we hopen dat we elkaar snel weer ontmoeten!

Over Dean Abbott en John Elder

Wat heeft COVID met al onze modellen gedaan? Dean Abbott is medeoprichter en Chief Data Scientist bij SmarterHQ. Hij is een internationaal erkende expert en innovator op het gebied van datawetenschap en voorspellende analyse, met drie decennia ervaring met het oplossen van problemen in omnichannel klantanalyses, fraudedetectie, risicomodellering, text mining en enquête-analyse. Hij wordt regelmatig opgenomen in lijsten van baanbrekende datawetenschappers en datawetenschappers, en is een populaire keynotespreker en workshopinstructeur op conferenties over de hele wereld, en is tevens lid van adviesraden voor de UC / Irvine Predictive Analytics en UCSD Data Science Certificate-programma's. Hij is de auteur van Applied Predictive Analytics (Wiley, 2014) en co-auteur van The IBM SPSS Modeler Cookbook (Packt Publishing, 2013).


Wat heeft COVID met al onze modellen gedaan? John ouderling richtte in 1995 Elder Research op, Amerika's grootste en meest ervaren data science-adviesbureau. Met kantoren in Charlottesville VA, Baltimore MD, Raleigh, NC, Washington DC en Londen, hebben ze honderden uitdagingen voor commerciële en overheidsklanten opgelost door bruikbare kennis te verzamelen van alle soorten gegevens. Dr. Elder was co-auteur van drie boeken - over praktische datamining, ensembles en text mining - waarvan er twee de 'boek van het jaar'-prijzen wonnen. John heeft dataminingtools gemaakt, was een ontdekker van ensemblemethoden, is voorzitter van internationale conferenties en is een populaire workshop en keynotespeaker.


 
Bio: Heather Fyson is de blogredacteur bij KNIME. Aanvankelijk bij het Event Team, ligt haar achtergrond eigenlijk in vertalen en proeflezen, dus door in 2019 naar de blog te gaan, is ze teruggekeerd naar haar echte passie om met teksten te werken. PS Ze is altijd benieuwd naar jouw ideeën voor nieuwe artikelen.

origineel. Met toestemming opnieuw gepost.

Zie ook:

Coinsmart. Beste Bitcoin-Börse in Europa
Bron: https://www.kdnuggets.com/2021/04/covid-do-all-our-models.html

Verder lezen

AI

De AI-trends die de gezondheidszorg hervormen

avatar

gepubliceerd

on

Klik voor meer informatie over auteur Ben Lorica.

Toepassingen van AI in de gezondheidszorg brengen een aantal uitdagingen en overwegingen met zich mee die substantieel verschillen van andere industrieën. Desondanks was het ook een van de leiders bij het aan het werk zetten van AI, door gebruik te maken van de allernieuwste technologie om de zorg te verbeteren. De cijfers spreken voor zich: de wereldwijde AI in de omvang van de zorgmarkt zal naar verwachting groeien van $ 4.9 miljard in 2020 tot $ 45.2 miljard 2026​ Enkele belangrijke factoren die deze groei aandrijven, zijn de enorme hoeveelheid gegevens over de gezondheidszorg en de toenemende complexiteit van gegevenssets, de noodzaak om stijgende kosten voor gezondheidszorg te verlagen en de veranderende behoeften van de patiënt.

Diepe leerheeft bijvoorbeeld de afgelopen jaren aanzienlijke vooruitgang geboekt in de klinische omgeving. Met name computervisie heeft zijn waarde bewezen in medische beeldvorming om te helpen bij screening en diagnose. Natuurlijke taalverwerking (NLP) heeft aanzienlijke waarde opgeleverd bij het aanpakken van zowel contractuele als regelgevingskwesties met betrekking tot text mining en het delen van gegevens. De toenemende acceptatie van AI-technologie door farmaceutische en biotechnologiebedrijven om initiatieven zoals de ontwikkeling van vaccins en geneesmiddelen te versnellen, zoals te zien is in de nasleep van COVID-19, is slechts een voorbeeld van het enorme potentieel van AI.

We zien al geweldige vooruitgang in de AI-gezondheidszorg, maar het is nog maar de begindagen en om de waarde ervan echt te ontsluiten, moet er nog veel werk worden verzet om de uitdagingen, tools en beoogde gebruikers te begrijpen die de branche vormgeven. Nieuw onderzoek van John Snow Labs en verloopstroom, Onderzoeksrapport AI in de gezondheidszorg 2021, werpt dit licht op: waar we zijn, waar we heen gaan en hoe we daar komen. De wereldwijde enquête onderzoekt de belangrijke overwegingen voor zorgorganisaties in verschillende stadia van AI-acceptatie, geografische locaties en technische bekwaamheid om een ​​uitgebreid inzicht te geven in de huidige staat van AI in de gezondheidszorg.               

Een van de belangrijkste bevindingen is welke technologieën top of mind zijn als het gaat om AI-implementatie. Op de vraag welke technologieën ze van plan zijn tegen eind 2021 te hebben geïmplementeerd, gaf bijna de helft van de respondenten aan gegevens integratie​ Ongeveer een derde noemde natuurlijke taalverwerking (NLP) en business intelligence (BI) als technologieën die ze momenteel gebruiken of van plan zijn tegen het einde van het jaar te gebruiken. De helft van de beschouwde technische leiders gebruikt - of zal binnenkort gebruiken - technologieën voor data-integratie, NLP, business intelligence en datawarehousing. Dit is logisch, aangezien deze tools de kracht hebben om enorme hoeveelheden gegevens te begrijpen, terwijl ze ook rekening houden met regelgevende en verantwoorde AI-praktijken.

Gevraagd naar de beoogde gebruikers van AI-tools en -technologieën, identificeerde meer dan de helft van de respondenten clinici onder hun beoogde gebruikers. Dit geeft aan dat AI wordt gebruikt door mensen die zorg moeten verlenen - niet alleen technologen en datawetenschappers, zoals in de afgelopen jaren. Dat aantal stijgt zelfs nog hoger bij het evalueren van volwassen organisaties, of organisaties die al meer dan twee jaar AI-modellen in productie hebben. Interessant is dat bijna 60% van de respondenten uit volwassen organisaties ook aangaf dat patiënten ook gebruikers zijn van hun AI-technologieën. Met de komst van chatbots en telegezondheid zal het interessant zijn om te zien hoe AI zich de komende jaren voor zowel patiënten als zorgverleners verspreidt.

Bij het overwegen van software voor het bouwen van AI-oplossingen, had open-source software (53%) een lichte voorsprong op openbare cloudproviders (42%). Een à twee jaar vooruitkijkend, gaven de respondenten aan open te staan ​​om ook zowel commerciële software als commerciële SaaS te gebruiken. Open-source software geeft gebruikers een mate van autonomie over hun gegevens die cloudproviders niet kunnen, dus het is geen grote verrassing dat een sterk gereguleerde industrie zoals de gezondheidszorg op hun hoede zou zijn voor het delen van gegevens. Evenzo kiezen de meeste bedrijven met ervaring met het implementeren van AI-modellen voor productie ervoor om modellen te valideren met behulp van hun eigen gegevens- en monitoringtools, in plaats van evaluatie door derden of softwareleveranciers. Terwijl bedrijven in een vroegere fase ontvankelijker zijn voor het verkennen van externe partners, neigen meer volwassen organisaties naar een meer conservatieve benadering.                      

Over het algemeen bleven de attitudes hetzelfde als er werd gevraagd naar de belangrijkste criteria die worden gebruikt om AI-oplossingen, softwarebibliotheken of SaaS-oplossingen te evalueren, en adviesbureaus om mee samen te werken. bedrijven, het vermogen om hun eigen modellen te trainen en de modernste nauwkeurigheid als topprioriteiten. Gezondheidszorgspecifieke modellen en expertise op het gebied van data-engineering, integratie en compliance in de gezondheidszorg stonden bovenaan de lijst als er werd gevraagd naar oplossingen en potentiële partners. Privacy, nauwkeurigheid en ervaring in de gezondheidszorg zijn de drijvende krachten achter de acceptatie van AI. Het is duidelijk dat AI klaar is voor nog meer groei, aangezien de gegevens blijven groeien en de technologie en veiligheidsmaatregelen verbeteren. De gezondheidszorg, die soms kan worden gezien als een achterblijver voor snelle acceptatie, grijpt naar AI en ziet nu al de aanzienlijke impact ervan. Hoewel de aanpak, de belangrijkste tools en technologieën en toepassingen van AI kunnen verschillen van die van andere industrieën, zal het spannend zijn om te zien wat de onderzoeksresultaten van volgend jaar te wachten staan.

Coinsmart. Beste Bitcoin-Börse in Europa
Bron: https://www.dataversity.net/the-ai-trends-reshaping-health-care/

Verder lezen
eSports2 dagen geleden

Gratis Fire World Series APK downloaden voor Android

eSports4 dagen geleden

DreamHack Online Open Ft. Fortnite aprileditie - Hoe te registreren, indeling, datums, prijzenpot en meer

eSports4 dagen geleden

Hikaru Nakamura laat chessbae vallen, verontschuldigt zich voor de YouTube-aanval

eSports2 dagen geleden

Dota 2: Top Mid Heroes of Patch 7.29

eSports5 dagen geleden

Coven and Abomination benadrukken de nieuwe TFT Reckoning Traits

eSports4 dagen geleden

Ludwig sluit de streamingmarathon van een maand af op de eerste plaats - Wekelijkse Twitch Top 10's, 5-11 april

eSports4 dagen geleden

Apex Legends-update 1.65 brengt vijf nieuwe LTM's voor War Games

eSports3 dagen geleden

Positie 5 Faceless Void maakt furore in Noord-Amerikaanse Dota 2-pubs na patch 7.29

Blockchain5 dagen geleden

Heeft u problemen met US-Bitcoin ETF's mit sich?

eSports4 dagen geleden

Fortnite: Patch Notes v16.20 - Offroad-voertuigmods, creatieve lobby's voor 50 spelers, bugfixes en meer

eSports4 dagen geleden

Complete gids voor romantiek en huwelijk in Stardew Valley

eSports4 dagen geleden

Wild Rift patch 2.2a brengt tonnen kampioenswisselingen en de toevoeging van Rammus later deze maand

Blockchain5 dagen geleden

Welk crypto-uitwisselingsplatform is sneller, muntoverdracht of Godex?

eSports4 dagen geleden

flusha kondigt nieuwe CSGO-selectie aan met suNny en sergej

eSports4 dagen geleden

TenZ uitgeleend aan Sentinels via finale Valorant Challengers

Blockchain4 dagen geleden

Bitcoin Preis steigt op 60.000 USD, neues ATH wahrscheinlich

eSports4 dagen geleden

Fortnite Leak plaagt Aloy-huid van Horizon Zero Dawn

eSports2 dagen geleden

Capcom onthult Ransomware-hack afkomstig van oude VPN

eSports4 dagen geleden

Epic Games Store verloor $ 181 miljoen en $ 273 miljoen in 2019 en 2020

Blockchain5 dagen geleden

Coinbase Börsengang: Bedeutung für den Krypto-Markt

Trending