Verbind je met ons

AI

8 belangrijke redenen waarom uw volgende therapeut een chatbot voor geestelijke gezondheid kan zijn

avatar

gepubliceerd

on

Naarmate meer en meer van ons leven naar de online wereld verschuiven, zo ook veel van de services die we regelmatig gebruiken. Dit omvat diensten voor geestelijke gezondheidszorg en therapie.

De behoefte aan geestelijke gezondheidsondersteuning bereikt om vele redenen een recordhoogte:

  • Het stigma op het gebied van de geestelijke gezondheid neemt af
  • Werkgevers realiseren zich dat geestelijke gezondheid een essentieel onderdeel is van productiviteit
  • Mensen ervaren ongekende niveaus van stress en zorgen wereldwijd

Hoewel de vraag naar geestelijke gezondheidszorg ongekend hoog is, kan de toegang vol obstakels zijn. Er doet zich echter een kans voor, en het omvat het omarmen van AI als een integraal onderdeel van het therapieproces.

Counselors hebben een grote hoeveelheid patiënten, en het vinden van een counselor kan in de eerste plaats een uitdaging zijn. Belemmeringen voor toegang omvatten:

  • Gelimiteerde beschikbaarheid
  • Betaalbaarheid
  • Onvoldoende beleid voor de uitvoering van de geestelijke gezondheidszorg
  • Gebrek aan voorlichting over geestelijke gezondheid
  • Stigma over geestelijke gezondheid

Initiatieven zoals #BellLetsTalk Day werkt eraan om het stigma over geestelijke gezondheid te doorbreken terwijl ze geld inzamelen om gemeenschapsprogramma's voor geestelijke gezondheid te ondersteunen Canada. Bell heeft veel programma's gefinancierd, en in het bijzonder hebben ze 792,636 Canadezen geholpen via op technologie gebaseerde programma's voor geestelijke gezondheid. Zelfs chatbots worden nu gebruikt om geestelijke gezondheidszorg te verlenen.

Wysa is een online platform dat voor iedereen 24/7 gratis toegankelijk is via een app op iOS- of Android-apparaten. De app wordt omschreven als een maatje om je op te vrolijken en je welzijn te volgen. Het omvat dagelijkse meditaties voor geestelijke gezondheid, en het kan zelfs worden gebruikt als een gezinsmeditatie-ervaring. Met Wysa heb je ondersteuning om emotioneel gezond te blijven door:

  • Je humeur volgen
  • Optimisme vinden
  • Oefen het herformuleren van gedachten met CGT (cognitieve gedragstherapie)
  • Verdriet verminderen

Wysa helpt u meer te leren over geestelijke gezondheid en kan u in contact brengen met een menselijke therapeut, die u via sms ondersteunt. Ondersteuning van een echte menselijke therapeut kost iets minder dan $ 100 USD per maand voor vier livesessies. In veel delen van de wereld is de gemiddelde prijs voor het bezoeken van een erkende therapeut meer dan $ 100 per uur.

1. De Messenger-regels voor Europese Facebook-pagina's veranderen. Hier is wat u moet weten

2. Dit is de reden waarom de chatbot-business sterft

3. Facebook neemt Kustomer over: een einde voor chatbotsbedrijven?

4. De vijf P's van succesvolle chatbots

Woebot is een andere app voor iOS- en Android-apparaten die je kan helpen omgaan met uitdagende gevoelens en ervaringen. De app kan u elke dag vragen om in te checken, uw gemoedstoestand bij te houden en u door CGT-gebaseerde technieken, mindfulness en dialectische gedragstherapie (DBT) leiden. Woebot biedt mentale gezondheidscoaching, inzichten en vaardigheidsopbouw om u te helpen uw mentale gezondheid effectief te beheren. Het is beschikbaar wanneer je het nodig hebt, en het zal je zelfs laten glimlachen met grappige grappen en verhalen.

Woebot geeft ook les over geestelijke gezondheid en houdt uw voortgang in de tijd bij. De trackingfuncties van deze apps kunnen helpen bij het identificeren van trends in ervaringen en tijden van het jaar die psychische symptomen kunnen veroorzaken.

Zou een conversatie AI chatbot helpen bij het leveren van een effectieve behandeling voor geestelijke gezondheidszorg? Hier zijn acht redenen waarom u misschien op zoek bent naar een bot voor uw volgende therapiesessie:

  1. chatbots zijn 24/7 beschikbaar, wanneer mensen ondersteuning nodig hebben.
  2. Chatbots voor de geestelijke gezondheid zijn goedkoper dan traditionele therapie; de meeste zijn gratis voor gebruikers.
  3. Chatbots kunnen een persoon helpen om tussen afspraken met zijn of haar menselijke therapeut om te gaan.
  4. De patiënt hoeft nergens heen of zich te verkleden voor een videogesprek; ze praten gewoon vanuit huis met de chatbot.
  5. Chatbots zijn toegankelijk en bieden opties voor slechtzienden of slechthorenden.
  6. Therapeuten kunnen hun chatbots inzetten om risicopatiënten tussen afspraken op een lage druk te monitoren.
  7. Veel mensen praat liever met een chatbot dan voor een echt mens, dus ze zullen eerder meedoen.
  8. Praten met een bot kan niet op dezelfde manier angst opwekken als bij persoonlijke of telefoongesprekken bij sommige mensen, waardoor de kans groter is dat de behandeling slaagt.

chatbots kan mensen helpen een betere toegang te krijgen tot diensten voor geestelijke gezondheidszorg en een kloof overbruggen voor personen die mogelijk geen toegang hebben tot de diensten via traditionele methoden. Chatbots voor geestelijke gezondheid zijn een uitstekende stap om veelvoorkomende barrières te doorbreken die mensen helpen bij het beheren van hun geestelijke gezondheidszorg.

Neem contact op met een van de onze experts als je vragen hebt over hoe een chatbot kan worden ingezet in de zorgsector en daarbuiten.

Source: https://chatbotslife.com/8-important-reasons-your-next-therapist-may-be-a-mental-health-chatbot-3b9ec88e14cb?source=rss—-a49517e4c30b—4

AI

Vasco Pedro, oprichter en CEO van Unbabel, neemt deel aan onze aanstaande EU-Startups Summit om te praten over hoe AI de vertaalmarkt transformeert

avatar

gepubliceerd

on

Unbabel-CEO-Vasco

Op 28 en 30 april 2021 organiseren we de 7th editie van de Top EU-Startups (Online). Dit tweedaagse evenement geeft je de kans om meer dan 2 deelnemers (oprichters, startup-enthousiastelingen, bedrijven, angel-investeerders, VC's en media) te ontmoeten, te leren van ongeveer 1,500 deskundige sprekers, te luisteren naar educatieve gesprekken met internationaal succesvolle oprichters, netwerk ( via ons evenementenplatform) en bijt je nagels door onze spannende pitchcompetitie.

Vandaag zijn we verheugd dat aan te kondigen Vasco Pedro, Medeoprichter en CEO van rijzende ster Unbabel, zal zich bij ons aansluiten als spreker en zijn tips, ervaring en kennis met u delen

Unbabel neemt taalbarrières tussen bedrijven en hun klanten weg door kunstmatige intelligentie te combineren met een wereldwijd netwerk van vertalers om op schaal realtime vertalingen van menselijke kwaliteit te leveren. In 2019 zijn ze opgegroeid € 55 miljoen aan Serie C-financiering, waardoor hun totale financieringsbedrag op $ 91 miljoen komt en ook de titel 'Best global Machine Translation Quality Estimation' op WMT19 heeft gekregen. Unbabel, opgericht in 2013, werkt samen met grote spelers, zoals Booking.com, TomTom, Trello, easyJet en Microsoft, en biedt hen een 'volgende dimensie van meertalige klantenondersteuning'.

Vasco is al meer dan 7 jaar oprichter en CEO van Unbabel, eigenaar van de bedrijfsvisie, algemene bedrijfsstrategie en productontwikkeling, en heeft het bedrijf laten groeien van Lissabon tot San Francisco. Daarnaast is hij 8 jaar lang mentor geweest voor beginnende startups voor Beta-i, heeft hij twee andere bedrijven opgericht en is hij gepromoveerd in 'Natural Language Processing'.

Op de EU-Startups Summit zal Vasco een keynote houden met het verhaal achter Unbabel's groei, evenals zijn perspectief op hoe AI de vertaalmarkt transformeert. Na zijn lezing is er tijd voor vragen om dieper in zijn expertise te duiken en te ontdekken hoe je deze lessen kunt toepassen op je eigen startup.

Als je van zijn inzichten wilt leren, 1,500+ startup-spelers wilt ontmoeten, deel wilt nemen aan coole workshops en gemotiveerd en geïnspireerd wilt worden door onze sprekers, dan is er nog tijd voor beveilig uw ticket naar de EU Startups Summit 2021!

Meer info vind je hier (pagina wordt wekelijks bijgewerkt) of bekijk onze video hieronder om inspiratie op te doen voor de vorige editie! We zien je graag online!

Afrekenen PrimeXBT
Handel met de officiële CFD-partners van AC Milan
De eenvoudigste manier om crypto te verhandelen.
Bron: https://www.eu-startups.com/2021/03/vasco-pedro-founder-and-ceo-of-unbabel-joins-our-upcoming-eu-startups-summit-to-talk-about- hoe-ai-transformeert-de-vertaalmarkt /

Verder lezen

Artificial Intelligence

Kunstmatige intelligentie in de landbouw: moderne AI gebruiken om traditionele landbouwproblemen op te lossen

avatar

gepubliceerd

on

Overzicht

  • Levenscyclus van de landbouw

  • Uitdagingen in de landbouw met traditionele landbouwtechnieken.

Artificial Intelligence

Kunstmatige intelligentie is gebaseerd op het principe dat menselijke intelligentie zo kan worden gedefinieerd dat een machine deze gemakkelijk kan nabootsen en taken kan uitvoeren, van de eenvoudigste tot de nog complexere. De doelen van kunstmatige intelligentie zijn onder meer leren, redeneren en perceptie.

“We staan ​​aan het begin van een gouden eeuw van AI. Recente vorderingen hebben al geleid tot een uitvinding die voorheen leefde in het rijk van sciencefiction - en we hebben alleen de oppervlakte bekrast van wat mogelijk is "
- JEFF BEZOS, CEO van Amazon

Enkele voorbeelden, zichtherkenningssystemen op zelfrijdende auto's, in de aanbevelingsengines die producten voorstellen die je misschien leuk vindt op basis van wat je in het verleden hebt gekocht, spraak- en taalherkenning van de Siri virtuele assistent op de Apple iPhone.

AI heeft een enorme impact op alle domeinen van de industrie. Elke branche die bepaalde taken wil automatiseren door het gebruik van intelligente machines.

Landbouw en landbouw zijn een van de oudste en belangrijkste beroepen ter wereld. Het speelt een belangrijke rol in de economische sector. Wereldwijd is de landbouw een industrie van $ 5 biljoen.

De wereldbevolking zal naar verwachting in 2050 meer dan negen miljard mensen bereiken, wat een toename van de landbouwproductie met 70% vereist om aan de vraag te voldoen. Omdat de wereldbevolking toeneemt, waardoor landwater en hulpbronnen onvoldoende worden om de vraag-toeleveringsketen voort te zetten. We hebben dus een slimmere aanpak nodig en efficiënter worden in hoe we landbouw bedrijven en het meest productief kunnen zijn

In dit artikel zal ik ingaan op de uitdagingen waarmee boeren worden geconfronteerd door traditionele landbouwmethoden te gebruiken en hoe kunstmatige intelligentie een revolutie in de landbouw teweegbrengt door traditionele methoden te vervangen door efficiëntere methoden te gebruiken en de wereld te helpen een betere plek te worden.

Levenscyclus van landbouw

We kunnen het landbouwproces in verschillende delen verdelen:

Kunstmatige intelligentie landbouw

Voorbereiding van grond: Het is de beginfase van de landbouw waarin boeren de grond voorbereiden op het zaaien van zaden. Dit proces omvat het breken van grote klonten grond en het verwijderen van puin, zoals stokken, stenen en wortels. Voeg ook meststoffen en organische stof toe, afhankelijk van het type gewas, om een ​​ideale situatie voor gewassen te creëren.

Zaaien van zaden: Deze fase vereist het zorgen voor de afstand tussen twee zaden, diepte voor het planten van zaden. In dit stadium spelen klimatologische omstandigheden zoals temperatuur, vochtigheid en regenval een belangrijke rol.

Meststoffen toevoegen: Het op peil houden van de bodemvruchtbaarheid is een belangrijke factor zodat de boer voedzame gewassen en gezonde gewassen kan blijven telen. Boeren wenden zich tot kunstmest omdat deze stoffen plantaardige voedingsstoffen bevatten, zoals stikstof, fosfor en kalium. Meststoffen zijn eenvoudigweg geplante voedingsstoffen die op landbouwvelden worden aangebracht als aanvulling op de vereiste elementen die van nature in de bodem voorkomen. Deze fase bepaalt ook de kwaliteit van het gewas

Irrigatie: Deze fase helpt om de grond vochtig te houden en de luchtvochtigheid op peil te houden. Onder- of te veel water geven kan de groei van gewassen belemmeren en als het niet goed wordt gedaan, kan dit leiden tot beschadigde gewassen.

Bescherming tegen onkruid: Onkruid zijn ongewenste planten die groeien in de buurt van gewassen of aan de rand van boerderijen. Onkruidbescherming is belangrijk om rekening mee te houden, aangezien onkruid de opbrengst verlaagt, de productiekosten verhoogt, de oogst verstoort en de kwaliteit van het gewas vermindert.

Oogst: Het is het proces van het verzamelen van rijpe gewassen van de velden. Er zijn veel arbeiders voor nodig voor deze activiteit, dus dit is een arbeidsintensieve activiteit. Deze fase omvat ook handelingen na de oogst, zoals schoonmaken, sorteren, verpakken en koelen.

Opslag: Deze fase van het systeem na de oogst waarin de producten zodanig worden bewaard dat de voedselzekerheid wordt gegarandeerd, anders dan tijdens perioden van landbouw. Het omvat ook het verpakken en vervoeren van gewassen.

Uitdagingen waarmee boeren worden geconfronteerd door traditionele landbouwmethoden te gebruiken

Opsommen van algemene uitdagingen die er zijn in het landbouwdomein.

o In de landbouw spelen klimatologische factoren zoals regenval, temperatuur en vochtigheid een belangrijke rol in de levenscyclus van de landbouw. Toenemende ontbossing en vervuiling leiden tot klimaatveranderingen, dus het is moeilijk voor boeren om beslissingen te nemen om de grond voor te bereiden, zaden te zaaien en te oogsten.

o Elk gewas heeft specifieke voeding in de bodem nodig. Er zijn 3 belangrijke voedingsstoffen stikstof (N), fosfor (P) en kalium (K) vereist in de bodem. Het tekort aan voedingsstoffen kan leiden tot een slechte kwaliteit van gewassen.

o Zoals we kunnen zien aan de levenscyclus van de landbouw speelt onkruidbescherming een belangrijke rol. Als het niet onder controle wordt gehouden, kan het leiden tot een stijging van de productiekosten en ook worden voedingsstoffen uit de bodem opgenomen, wat een tekort aan voedingsstoffen in de bodem kan veroorzaken.

Toepassingen van kunstmatige intelligentie in de landbouw

De industrie wendt zich tot kunstmatige intelligentie-technologieën om gezondere gewassen te produceren, ongedierte te bestrijden, bodem en groeiomstandigheden te bewaken, gegevens voor boeren te organiseren, te helpen met de werkdruk en een breed scala aan landbouwgerelateerde taken in de hele voedselvoorzieningsketen te verbeteren .

Gebruik van weersvoorspellingen: Met de verandering in klimatologische omstandigheden en toenemende vervuiling is het voor boeren moeilijk om het juiste moment te bepalen voor het zaaien van zaad.Met behulp van kunstmatige intelligentie kunnen boeren de weersomstandigheden analyseren met behulp van weersvoorspellingen, waardoor ze kunnen plannen welk type gewas kan worden geteeld en wanneer dat zou moeten zaden worden gezaaid.

Systeem voor toezicht op de gezondheid van bodem en gewassen: Bodemsoort en voeding van de bodem spelen een belangrijke factor bij het type gewas dat wordt geteeld en de kwaliteit van het gewas. Door toenemende ontbossing gaat de bodemkwaliteit achteruit en is het moeilijk om de kwaliteit van de bodem vast te stellen.

Een in Duitsland gevestigde tech start-up PEAT heeft een AI-gebaseerde applicatie ontwikkeld genaamd Plantix die de tekorten aan voedingsstoffen in de bodem kan identificeren, waaronder plantplagen en ziekten, waardoor boeren ook een idee kunnen krijgen om kunstmest te gebruiken die helpt om de oogstkwaliteit te verbeteren. Deze app maakt gebruik van op beeldherkenning gebaseerde technologie. De boer kan met smartphones foto's van planten maken. We kunnen ook grondhersteltechnieken zien met tips en andere oplossingen door middel van korte video's over deze toepassing.

Op dezelfde manier is Trace Genomics een ander op machine learning gebaseerd bedrijf dat boeren helpt bij het uitvoeren van bodemanalyses bij boeren. Zo'n app helpt boeren om de gezondheidstoestand van bodem en gewassen te monitoren en gezonde gewassen te produceren met een hogere productiviteit.

Het analyseren van gewasgezondheid door drones: SkySqurrel Technologies heeft op drones gebaseerde Ariel-beeldvormingsoplossingen geïntroduceerd voor het bewaken van de gezondheid van gewassen. Bij deze techniek vangt de drone gegevens op uit velden en vervolgens worden gegevens via een USB-stick van de drone naar een computer overgebracht en door experts geanalyseerd.

Dit bedrijf gebruikt algoritmen om de vastgelegde afbeeldingen te analyseren en een gedetailleerd rapport te verstrekken met de huidige gezondheid van de boerderij. Het helpt de boer om ongedierte en bacteriën te identificeren, waardoor boeren tijdig gebruik kunnen maken van ongediertebestrijding en andere methoden om de vereiste actie te ondernemen

Precisielandbouw en voorspellende analyses: AI-toepassingen in de landbouw hebben toepassingen en tools ontwikkeld die boeren helpen bij het onnauwkeurig en gecontroleerd boeren door hen de juiste begeleiding te bieden aan boeren over waterbeheer, vruchtwisseling, tijdige oogst, type te telen gewas, optimale aanplant, plaagaanvallen, voedingsbeheer.

Door gebruik te maken van de algoritmen voor machine learning in verband met beelden die zijn gemaakt door satellieten en drones, voorspellen AI-gebaseerde technologieën weersomstandigheden, analyseren ze de duurzaamheid van gewassen en evalueren ze boerderijen op de aanwezigheid van ziekten of plagen en slechte plantenvoeding op boerderijen met gegevens zoals temperatuur, neerslag, windsnelheid en zonnestraling.

Boeren zonder connectiviteit kunnen nu AI-voordelen krijgen, met tools die zo eenvoudig zijn als een sms-telefoon en de zaai-app. Ondertussen kunnen boeren met Wi-Fi-toegang AI-toepassingen gebruiken om een ​​doorlopend AI-aangepast plan voor hun land te krijgen. Met dergelijke IoT- en AI-gestuurde oplossingen kunnen boeren voldoen aan de wereldwijde behoefte aan meer voedsel, duurzaam groeiende productie en inkomsten zonder kostbare natuurlijke hulpbronnen uit te putten.

In de toekomst zal AI boeren helpen om te evolueren naar landbouwtechnologen, door data te gebruiken om opbrengsten te optimaliseren tot op individuele rijen planten

Landbouwrobotica: AI-bedrijven ontwikkelen robots die gemakkelijk meerdere taken op landbouwvelden kunnen uitvoeren. Dit type robot is getraind om onkruid te bestrijden en gewassen sneller te oogsten met grotere volumes in vergelijking met mensen.

Dit soort robots zijn getraind om de kwaliteit van gewassen te controleren en tegelijkertijd onkruid te detecteren bij het plukken en verpakken van gewassen. Deze robots zijn ook in staat het hoofd te bieden aan de uitdagingen waarmee landbouwkrachten worden geconfronteerd.

AI-enabled systeem om ongedierte te detecteren: Ongedierte is een van de grootste vijanden van de boeren die gewassen beschadigen.

AI-systemen gebruiken satellietbeelden en vergelijken deze met historische gegevens met behulp van AI-algoritmen en detecteren dat als er een insect is geland en welk type insect is geland, zoals de sprinkhaan, de sprinkhaan, enz. vereiste voorzorgsmaatregelen en gebruik vereiste ongediertebestrijding, dus AI helpt boeren om ongedierte te bestrijden.

Conclusie

Kunstmatige intelligentie in de landbouw helpt boeren niet alleen om hun landbouw te automatiseren, maar schakelt ook over op precieze teelt voor een hogere gewasopbrengst en betere kwaliteit met minder hulpbronnen.

Bedrijven die zich bezighouden met het verbeteren van machine learning of op kunstmatige intelligentie gebaseerde producten of diensten, zoals trainingsgegevens voor landbouw, drones en geautomatiseerde machinebouw, zullen in de toekomst technologische vooruitgang boeken en meer nuttige toepassingen aan deze sector bieden, waardoor de wereld kan worden geholpen met voedselproductieproblemen voor de groeiende bevolking.

Afrekenen PrimeXBT
Handel met de officiële CFD-partners van AC Milan
De eenvoudigste manier om crypto te verhandelen.
Bron: https://www.fintechnews.org/art Artificial-intelligence-in-agriculture-using-modern-day-ai-to-solve-traditional-farming-problems/

Verder lezen

AI

Onconventionele sentimentanalyse: BERT versus Catboost

avatar

gepubliceerd

on

Profielfoto van de auteur

@sagolunTaras Baranyuk

17+ jaar ervaring in het maken van softwareproducten in verschillende functies.

Sentimentanalyse is een Natuurlijke taalverwerking (NLP) techniek die wordt gebruikt om te bepalen of gegevens dat zijn positief, negatiefof neutraal.

Sentimentanalyse is fundamenteel, omdat het helpt om de emotionele tonen in taal te begrijpen. Dit helpt op zijn beurt om automatisch de meningen achter beoordelingen, discussies op sociale media, enz. Te sorteren, zodat u snellere, nauwkeurigere beslissingen kunt nemen.

Hoewel sentimentanalyse de laatste tijd enorm populair is geworden, wordt er sinds het begin van de jaren 2000 aan gewerkt.

Traditionele machine learning-methoden zoals Naive Bayesian, Logistic Regression en Support Vector Machines (SVM's) worden veel gebruikt voor grootschalige sentimentanalyse omdat ze goed kunnen worden geschaald. Het is nu bewezen dat Deep Learning (DL) -technieken een betere nauwkeurigheid bieden voor verschillende NLP-taken, waaronder sentimentanalyse; ze zijn echter meestal langzamer en duurder om te leren en te gebruiken.

In dit verhaal wil ik een weinig bekend alternatief bieden dat snelheid en kwaliteit combineert. Voor conclusies en beoordelingen van de voorgestelde methode heb ik een baselinemodel nodig. Ik koos voor de beproefde en populaire BERT.

De gegevens ophalen

Social media is een bron die op ongekende schaal een enorme hoeveelheid data produceert. De dataset die ik voor dit verhaal ga gebruiken is Coronavirus tweets NLP.

Zoals ik kan zien, zijn er niet zo veel gegevens voor het model, en op het eerste gezicht lijkt het erop dat men niet zonder een vooraf getraind model kan.

Vanwege het kleine aantal samples voor training reduceer ik het aantal lessen tot 3 door ze te combineren.

Baseline BERT-model

Laten we TensorFlow Hub gebruiken. TensorFlow Hub is een opslagplaats van getrainde machine learning-modellen die klaar zijn voor afstemming en overal inzetbaar zijn. U kunt getrainde modellen zoals BERT en Faster R-CNN gebruiken met slechts een paar regels code.

!pip install tensorflow_hub
!pip install tensorflow_text

small_bert / bert_en_uncased_L-4_H-512_A-8 - Kleiner BERT-model.

Dit is een van de kleinere BERT-modellen waarnaar wordt verwezen Goedgelezen studenten leren beter: over het belang van compacte modellen voorafgaand aan de training​ De kleinere BERT-modellen zijn bedoeld voor omgevingen met beperkte rekenkracht. Ze kunnen op dezelfde manier worden verfijnd als de originele BERT-modellen. Ze zijn echter het meest effectief in de context van kennisdistillatie, waar een grotere en nauwkeurigere leraar de afstemmingslabels produceert.

bert_en_uncased_preprocess - Tekstvoorbewerking voor BERT. Dit model maakt gebruik van een Engelse woordenschat uit Wikipedia en BooksCorpus. Tekstinvoer is genormaliseerd op de "niet-gekapte" manier, wat betekent dat de tekst in kleine letters is geschreven voordat de tekst in woordstukken is omgezet, en dat eventuele accentmarkeringen zijn verwijderd.

tfhub_handle_encoder = "https://tfhub.dev/tensorflow/small_bert/bert_en_uncased_L-4_H-512_A-8/1"
tfhub_handle_preprocess = "https://tfhub.dev/tensorflow/bert_en_uncased_preprocess/3"

Ik zal de selectie van parameters en optimalisatie niet maken om de code niet ingewikkelder te maken. Toch is dit het basismodel, niet SOTA.

def build_classifier_model(): text_input = tf.keras.layers.Input( shape=(), dtype=tf.string, name='text') preprocessing_layer = hub.KerasLayer( tfhub_handle_preprocess, name='preprocessing') encoder_inputs = preprocessing_layer(text_input) encoder = hub.KerasLayer( tfhub_handle_encoder, trainable=True, name='BERT_encoder') outputs = encoder(encoder_inputs) net = outputs['pooled_output'] net = tf.keras.layers.Dropout(0.1)(net) net = tf.keras.layers.Dense( 3, activation='softmax', name='classifier')(net) model = tf.keras.Model(text_input, net) loss = tf.keras.losses.CategoricalCrossentropy(from_logits=True) metric = tf.metrics.CategoricalAccuracy('accuracy') optimizer = Adam( learning_rate=5e-05, epsilon=1e-08, decay=0.01, clipnorm=1.0) model.compile( optimizer=optimizer, loss=loss, metrics=metric) model.summary() return model

Ik heb een model gemaakt met iets minder dan 30 miljoen parameters.

Ik heb 30 procent van de trein gegevens voor modelvalidatie.

train, valid = train_test_split( df_train, train_size=0.7, random_state=0, stratify=df_train['Sentiment'])
y_train, X_train = train['Sentiment'], train.drop(['Sentiment'], axis=1)
y_valid, X_valid = valid['Sentiment'], valid.drop(['Sentiment'], axis=1)
y_train_c = tf.keras.utils.to_categorical( y_train.astype('category').cat.codes.values, num_classes=3)
y_valid_c = tf.keras.utils.to_categorical( y_valid.astype('category').cat.codes.values, num_classes=3)

Het aantal tijdperken werd intuïtief gekozen en behoefde geen rechtvaardiging 🙂

history = classifier_model.fit( x=X_train['Tweet'].values, y=y_train_c, validation_data=(X_valid['Tweet'].values, y_valid_c), epochs=5)
BERT Accuracy: 0.833859920501709

Verwaringsmatrix:

Classificatierapport:

Hier heb ik het basismodel. Het is duidelijk dat ik dit model verder kan verbeteren. Maar laten we deze taak als uw huiswerk laten.

CatBoost-model

CatBoost is een hoogwaardige, open-sourcebibliotheek voor het verhogen van de gradiënt van beslissingsbomen. Vanaf release 0.19.1 ondersteunt het out-of-the-box tekstfuncties voor classificatie op GPU.

Het belangrijkste voordeel is dat CatBoost categorische functies en tekstfuncties in uw gegevens kan opnemen zonder extra voorverwerking. Voor degenen die waarde hechten aan inferentiesnelheid: CatBoost-voorspellingen zijn 20 tot 40 keer sneller dan andere open-source gradiëntverhogende bibliotheken, waardoor CatBoost nuttig is voor latentiekritieke taken.

!pip install catboost

Ik zal niet de optimale parameters selecteren; laat dat je andere huiswerk zijn. Laten we een functie schrijven om het model te initialiseren en te trainen.

def fit_model(train_pool, test_pool, **kwargs): model = CatBoostClassifier( task_type='GPU', iterations=5000, eval_metric='Accuracy', od_type='Iter', od_wait=500, **kwargs )
return model.fit( train_pool, eval_set=test_pool, verbose=100, plot=True, use_best_model=True)

Als ik met CatBoost werk, raad ik aan om een Zwembad​ The Pool is een handige wrapper die functies, labels en andere metadata zoals categorische en tekstfuncties combineert.

train_pool = Pool( data=X_train, label=y_train, text_features=['Tweet']
)
valid_pool = Pool( data=X_valid, label=y_valid, text_features=['Tweet']
)

Tekstfuncties - Een eendimensionale matrix van indices van tekstkolommen (gespecificeerd als gehele getallen) of namen (gespecificeerd als strings). Alleen gebruiken als de dataparameter een tweedimensionale objectmatrix is ​​(heeft een van de volgende typen: lijst, numpy.ndarray, pandas.DataFrame, pandas.Series). Als elementen in deze array zijn opgegeven als namen in plaats van indices, moeten namen voor alle kolommen worden opgegeven. Gebruik hiervoor de parameter feature_names van deze constructor om ze expliciet op te geven of geef een pandas.DataFrame door met kolomnamen die zijn opgegeven in de dataparameter.

ondersteunde trainingsparameters

  1. tokenizers - Tokenizers worden gebruikt om functiekolommen van het teksttype voor te verwerken voordat het woordenboek wordt gemaakt.
  2. woordenboeken - Woordenboeken die worden gebruikt om functiekolommen van het teksttype voor te verwerken.
  3. feature_calcers - Feature calcers gebruikt om nieuwe features te berekenen op basis van voorverwerkte tekst type feature kolommen.

Ik stel alle parameters intuïtief in; het afstemmen ervan wordt weer je huiswerk.

model = fit_model( train_pool, valid_pool, learning_rate=0.35, tokenizers=[ { 'tokenizer_id': 'Sense', 'separator_type': 'BySense', 'lowercasing': 'True', 'token_types':['Word', 'Number', 'SentenceBreak'], 'sub_tokens_policy':'SeveralTokens' } ], dictionaries = [ { 'dictionary_id': 'Word', 'max_dictionary_size': '50000' } ], feature_calcers = [ 'BoW:top_tokens_count=10000' ]
)

Nauwkeurigheid:

Verlies:

CatBoost model accuracy: 0.8299104791995787

Verwaringsmatrix:

Classificatierapport:

Het resultaat komt heel dicht in de buurt van wat het BERT-basismodel heeft laten zien. Omdat ik heel weinig gegevens heb voor training en het model vanaf nul is onderwezen, is het resultaat naar mijn mening indrukwekkend.

Bonus

Ik heb twee modellen met zeer vergelijkbare resultaten. Kan dit ons nog iets anders nuttigs opleveren? Beide modellen hebben in de kern weinig gemeen, wat betekent dat hun combinatie een synergetisch effect moet geven. De eenvoudigste manier om deze conclusie te testen, is door het resultaat te middelen en te kijken wat er gebeurt.

y_proba_avg = np.argmax((y_proba_cb + y_proba_bert)/2, axis=1)

De winst is indrukwekkend.

Average accuracy: 0.855713533438652

Verwaringsmatrix:

Classificatierapport:

Samengevat

In dit verhaal, ik:

  1. creëerde een baselinemodel met BERT;
  2. een model gemaakt met CatBoost met behulp van ingebouwde tekstmogelijkheden;
  3. gekeken wat er gebeurt als het resultaat van beide modellen gemiddeld wordt.

Naar mijn mening kunnen complexe en langzame SOTA's in de meeste gevallen worden vermeden, vooral als snelheid een cruciale behoefte is.

CatBoost biedt direct uit de doos geweldige mogelijkheden voor sentimentanalyse. Voor wedstrijdliefhebbers zoals Kaggle, DrivenData, enz., kan CatBoost een goed model bieden, zowel als basisoplossing als als onderdeel van een ensemble van modellen.

De code uit het verhaal kan worden bekeken hier.

Profielfoto van de auteur

Lees mijn verhalen

17+ jaar ervaring in het maken van softwareproducten in verschillende functies.

Tags

Doe mee met Hacker Noon

Maak uw gratis account aan om uw persoonlijke leeservaring te ontgrendelen.

Afrekenen PrimeXBT
Handel met de officiële CFD-partners van AC Milan
De eenvoudigste manier om crypto te verhandelen.
Bron: https://hackernoon.com/unconventional-sentiment-analysis-bert-vs-catboost-713v33zz?source=rss

Verder lezen

AI

Onconventionele sentimentanalyse: BERT versus Catboost

avatar

gepubliceerd

on

Profielfoto van de auteur

@sagolunTaras Baranyuk

17+ jaar ervaring in het maken van softwareproducten in verschillende functies.

Sentimentanalyse is een Natuurlijke taalverwerking (NLP) techniek die wordt gebruikt om te bepalen of gegevens dat zijn positief, negatiefof neutraal.

Sentimentanalyse is fundamenteel, omdat het helpt om de emotionele tonen in taal te begrijpen. Dit helpt op zijn beurt om automatisch de meningen achter beoordelingen, discussies op sociale media, enz. Te sorteren, zodat u snellere, nauwkeurigere beslissingen kunt nemen.

Hoewel sentimentanalyse de laatste tijd enorm populair is geworden, wordt er sinds het begin van de jaren 2000 aan gewerkt.

Traditionele machine learning-methoden zoals Naive Bayesian, Logistic Regression en Support Vector Machines (SVM's) worden veel gebruikt voor grootschalige sentimentanalyse omdat ze goed kunnen worden geschaald. Het is nu bewezen dat Deep Learning (DL) -technieken een betere nauwkeurigheid bieden voor verschillende NLP-taken, waaronder sentimentanalyse; ze zijn echter meestal langzamer en duurder om te leren en te gebruiken.

In dit verhaal wil ik een weinig bekend alternatief bieden dat snelheid en kwaliteit combineert. Voor conclusies en beoordelingen van de voorgestelde methode heb ik een baselinemodel nodig. Ik koos voor de beproefde en populaire BERT.

De gegevens ophalen

Social media is een bron die op ongekende schaal een enorme hoeveelheid data produceert. De dataset die ik voor dit verhaal ga gebruiken is Coronavirus tweets NLP.

Zoals ik kan zien, zijn er niet zo veel gegevens voor het model, en op het eerste gezicht lijkt het erop dat men niet zonder een vooraf getraind model kan.

Vanwege het kleine aantal samples voor training reduceer ik het aantal lessen tot 3 door ze te combineren.

Baseline BERT-model

Laten we TensorFlow Hub gebruiken. TensorFlow Hub is een opslagplaats van getrainde machine learning-modellen die klaar zijn voor afstemming en overal inzetbaar zijn. U kunt getrainde modellen zoals BERT en Faster R-CNN gebruiken met slechts een paar regels code.

!pip install tensorflow_hub
!pip install tensorflow_text

small_bert / bert_en_uncased_L-4_H-512_A-8 - Kleiner BERT-model.

Dit is een van de kleinere BERT-modellen waarnaar wordt verwezen Goedgelezen studenten leren beter: over het belang van compacte modellen voorafgaand aan de training​ De kleinere BERT-modellen zijn bedoeld voor omgevingen met beperkte rekenkracht. Ze kunnen op dezelfde manier worden verfijnd als de originele BERT-modellen. Ze zijn echter het meest effectief in de context van kennisdistillatie, waar een grotere en nauwkeurigere leraar de afstemmingslabels produceert.

bert_en_uncased_preprocess - Tekstvoorbewerking voor BERT. Dit model maakt gebruik van een Engelse woordenschat uit Wikipedia en BooksCorpus. Tekstinvoer is genormaliseerd op de "niet-gekapte" manier, wat betekent dat de tekst in kleine letters is geschreven voordat de tekst in woordstukken is omgezet, en dat eventuele accentmarkeringen zijn verwijderd.

tfhub_handle_encoder = "https://tfhub.dev/tensorflow/small_bert/bert_en_uncased_L-4_H-512_A-8/1"
tfhub_handle_preprocess = "https://tfhub.dev/tensorflow/bert_en_uncased_preprocess/3"

Ik zal de selectie van parameters en optimalisatie niet maken om de code niet ingewikkelder te maken. Toch is dit het basismodel, niet SOTA.

def build_classifier_model(): text_input = tf.keras.layers.Input( shape=(), dtype=tf.string, name='text') preprocessing_layer = hub.KerasLayer( tfhub_handle_preprocess, name='preprocessing') encoder_inputs = preprocessing_layer(text_input) encoder = hub.KerasLayer( tfhub_handle_encoder, trainable=True, name='BERT_encoder') outputs = encoder(encoder_inputs) net = outputs['pooled_output'] net = tf.keras.layers.Dropout(0.1)(net) net = tf.keras.layers.Dense( 3, activation='softmax', name='classifier')(net) model = tf.keras.Model(text_input, net) loss = tf.keras.losses.CategoricalCrossentropy(from_logits=True) metric = tf.metrics.CategoricalAccuracy('accuracy') optimizer = Adam( learning_rate=5e-05, epsilon=1e-08, decay=0.01, clipnorm=1.0) model.compile( optimizer=optimizer, loss=loss, metrics=metric) model.summary() return model

Ik heb een model gemaakt met iets minder dan 30 miljoen parameters.

Ik heb 30 procent van de trein gegevens voor modelvalidatie.

train, valid = train_test_split( df_train, train_size=0.7, random_state=0, stratify=df_train['Sentiment'])
y_train, X_train = train['Sentiment'], train.drop(['Sentiment'], axis=1)
y_valid, X_valid = valid['Sentiment'], valid.drop(['Sentiment'], axis=1)
y_train_c = tf.keras.utils.to_categorical( y_train.astype('category').cat.codes.values, num_classes=3)
y_valid_c = tf.keras.utils.to_categorical( y_valid.astype('category').cat.codes.values, num_classes=3)

Het aantal tijdperken werd intuïtief gekozen en behoefde geen rechtvaardiging 🙂

history = classifier_model.fit( x=X_train['Tweet'].values, y=y_train_c, validation_data=(X_valid['Tweet'].values, y_valid_c), epochs=5)
BERT Accuracy: 0.833859920501709

Verwaringsmatrix:

Classificatierapport:

Hier heb ik het basismodel. Het is duidelijk dat ik dit model verder kan verbeteren. Maar laten we deze taak als uw huiswerk laten.

CatBoost-model

CatBoost is een hoogwaardige, open-sourcebibliotheek voor het verhogen van de gradiënt van beslissingsbomen. Vanaf release 0.19.1 ondersteunt het out-of-the-box tekstfuncties voor classificatie op GPU.

Het belangrijkste voordeel is dat CatBoost categorische functies en tekstfuncties in uw gegevens kan opnemen zonder extra voorverwerking. Voor degenen die waarde hechten aan inferentiesnelheid: CatBoost-voorspellingen zijn 20 tot 40 keer sneller dan andere open-source gradiëntverhogende bibliotheken, waardoor CatBoost nuttig is voor latentiekritieke taken.

!pip install catboost

Ik zal niet de optimale parameters selecteren; laat dat je andere huiswerk zijn. Laten we een functie schrijven om het model te initialiseren en te trainen.

def fit_model(train_pool, test_pool, **kwargs): model = CatBoostClassifier( task_type='GPU', iterations=5000, eval_metric='Accuracy', od_type='Iter', od_wait=500, **kwargs )
return model.fit( train_pool, eval_set=test_pool, verbose=100, plot=True, use_best_model=True)

Als ik met CatBoost werk, raad ik aan om een Zwembad​ The Pool is een handige wrapper die functies, labels en andere metadata zoals categorische en tekstfuncties combineert.

train_pool = Pool( data=X_train, label=y_train, text_features=['Tweet']
)
valid_pool = Pool( data=X_valid, label=y_valid, text_features=['Tweet']
)

Tekstfuncties - Een eendimensionale matrix van indices van tekstkolommen (gespecificeerd als gehele getallen) of namen (gespecificeerd als strings). Alleen gebruiken als de dataparameter een tweedimensionale objectmatrix is ​​(heeft een van de volgende typen: lijst, numpy.ndarray, pandas.DataFrame, pandas.Series). Als elementen in deze array zijn opgegeven als namen in plaats van indices, moeten namen voor alle kolommen worden opgegeven. Gebruik hiervoor de parameter feature_names van deze constructor om ze expliciet op te geven of geef een pandas.DataFrame door met kolomnamen die zijn opgegeven in de dataparameter.

ondersteunde trainingsparameters

  1. tokenizers - Tokenizers worden gebruikt om functiekolommen van het teksttype voor te verwerken voordat het woordenboek wordt gemaakt.
  2. woordenboeken - Woordenboeken die worden gebruikt om functiekolommen van het teksttype voor te verwerken.
  3. feature_calcers - Feature calcers gebruikt om nieuwe features te berekenen op basis van voorverwerkte tekst type feature kolommen.

Ik stel alle parameters intuïtief in; het afstemmen ervan wordt weer je huiswerk.

model = fit_model( train_pool, valid_pool, learning_rate=0.35, tokenizers=[ { 'tokenizer_id': 'Sense', 'separator_type': 'BySense', 'lowercasing': 'True', 'token_types':['Word', 'Number', 'SentenceBreak'], 'sub_tokens_policy':'SeveralTokens' } ], dictionaries = [ { 'dictionary_id': 'Word', 'max_dictionary_size': '50000' } ], feature_calcers = [ 'BoW:top_tokens_count=10000' ]
)

Nauwkeurigheid:

Verlies:

CatBoost model accuracy: 0.8299104791995787

Verwaringsmatrix:

Classificatierapport:

Het resultaat komt heel dicht in de buurt van wat het BERT-basismodel heeft laten zien. Omdat ik heel weinig gegevens heb voor training en het model vanaf nul is onderwezen, is het resultaat naar mijn mening indrukwekkend.

Bonus

Ik heb twee modellen met zeer vergelijkbare resultaten. Kan dit ons nog iets anders nuttigs opleveren? Beide modellen hebben in de kern weinig gemeen, wat betekent dat hun combinatie een synergetisch effect moet geven. De eenvoudigste manier om deze conclusie te testen, is door het resultaat te middelen en te kijken wat er gebeurt.

y_proba_avg = np.argmax((y_proba_cb + y_proba_bert)/2, axis=1)

De winst is indrukwekkend.

Average accuracy: 0.855713533438652

Verwaringsmatrix:

Classificatierapport:

Samengevat

In dit verhaal, ik:

  1. creëerde een baselinemodel met BERT;
  2. een model gemaakt met CatBoost met behulp van ingebouwde tekstmogelijkheden;
  3. gekeken wat er gebeurt als het resultaat van beide modellen gemiddeld wordt.

Naar mijn mening kunnen complexe en langzame SOTA's in de meeste gevallen worden vermeden, vooral als snelheid een cruciale behoefte is.

CatBoost biedt direct uit de doos geweldige mogelijkheden voor sentimentanalyse. Voor wedstrijdliefhebbers zoals Kaggle, DrivenData, enz., kan CatBoost een goed model bieden, zowel als basisoplossing als als onderdeel van een ensemble van modellen.

De code uit het verhaal kan worden bekeken hier.

Profielfoto van de auteur

Lees mijn verhalen

17+ jaar ervaring in het maken van softwareproducten in verschillende functies.

Tags

Doe mee met Hacker Noon

Maak uw gratis account aan om uw persoonlijke leeservaring te ontgrendelen.

Afrekenen PrimeXBT
Handel met de officiële CFD-partners van AC Milan
De eenvoudigste manier om crypto te verhandelen.
Bron: https://hackernoon.com/unconventional-sentiment-analysis-bert-vs-catboost-713v33zz?source=rss

Verder lezen
Blockchain2 dagen geleden

'Bitcoin Senator' Lummis optimistisch over hervorming van crypto-belasting

Blockchain2 dagen geleden

Dogecoin wordt de meest populaire cryptocurrency

eSports4 dagen geleden

PowerOfEvil over TSM's Spring Split playoff-voorbereiding: 'Er gaan de komende dagen veel dingen veranderen'

LUCHT- EN RUIMTEVAART4 dagen geleden

Astra's 100-jarenplan: Q&A met CEO Chris Kemp

Cyber ​​Security4 dagen geleden

Kritieke kwetsbaarheid ontdekt in een firewall-apparaat gemaakt door Genua

gaming2 dagen geleden

Betfred Sports, vertegenwoordigd door SCCG Management, ondertekent meerjarige marketingovereenkomst met de Colorado Rockies

Betaalmogelijkheden3 dagen geleden

Vierdelig op Coinbase "IPO" - Deel 4 = 1 redenen waarom het ertoe doet

Cyber ​​Security4 dagen geleden

Hoe kom je aan iemands Snapchat-wachtwoord?

AR / VR3 dagen geleden

'Farpoint' Studio Impulse Gear kondigt dit jaar een nieuwe VR-game aan

LUCHT- EN RUIMTEVAART3 dagen geleden

Partners produceren 3D-geprinte tool voor rotorbladen op Ingersoll 3D-printer

Blockchain2 dagen geleden

Bitcoin-prijsanalyse: terug boven $ 50K, maar nu geconfronteerd met enorme weerstand

Blockchain2 dagen geleden

Miljardair Hedge Fund Manager en een voormalige CFTC-voorzitter hebben naar verluidt geïnvesteerd in Crypto Firm

Cyber ​​Security4 dagen geleden

Meest populaire softwaretrends voor 2021

Blockchain2 dagen geleden

VOLGENDE Chain: Blockchain van de nieuwe generatie met ogen gericht op de DeFi-industrie

AUTO-INDUSTRIE5 dagen geleden

Rivian deelt details over de slimme verwarmingsstrategieën van de R1T-pick-up

Startups3 dagen geleden

Wat je morgen kunt verwachten tijdens TC Sessions: Justice 2021

Blockchain2 dagen geleden

Institutionele beleggers blijven bitcoin kopen terwijl de prijs $ 50 overschrijdt: rapport

AI3 dagen geleden

Hoe AI de cyberbeveiliging transformeert in 2021?

private Equity3 dagen geleden

Instacart haalt $ 265 miljoen op tegen een waardering van $ 39 miljard

eSports4 dagen geleden

Hoe Pokemon Unite APK, iOS en Switch te downloaden

Trending