Zephyrnet-logo

Principes van natuurlijke taal

Datum:

Kayte sangrammen

Natuurlijke taalverwerking (NLP) is een tak van kunstmatige intelligentie die computers helpt menselijke taal te begrijpen, interpreteren en manipuleren. NLP put uit vele disciplines, waaronder informatica en computationele taalkunde, om de kloof tussen menselijke communicatie en computerbegrip te dichten.

Hoewel natuurlijke taalverwerking geen nieuwe wetenschap is, gaat de technologie snel vooruit dankzij een toegenomen belangstelling voor communicatie tussen mens en machine, plus een beschikbaarheid van big data, krachtige computers en verbeterde algoritmen.

Als mens mag u in het Engels, Spaans of Chinees spreken en schrijven. Maar de moedertaal van een computer - bekend als machinecode of machinetaal - is voor de meeste mensen grotendeels onbegrijpelijk. Op de laagste niveaus van uw apparaat vindt communicatie niet plaats met woorden, maar via miljoenen nullen en enen die logische acties opleveren.

Programmeurs gebruikten inderdaad ponskaarten om 70 jaar geleden met de eerste computers te communiceren. Dit handmatige en moeizame proces werd door een relatief klein aantal mensen begrepen. Nu kun je zeggen: "Alexa, ik vind dit nummer leuk", en een apparaat dat thuis muziek afspeelt, verlaagt het volume en antwoordt: "OK. Beoordeling gered, 'met een menselijke stem. Vervolgens past het zijn algoritme aan om dat nummer af te spelen - en andere vinden het leuk - de volgende keer dat je naar dat muziekstation luistert.

1. 3 tips voor uw spraak- en chatbotprogramma van Gartner's Customer Service Hype Cycle 2020

2. Watson Assistant Web Chat implementeren in Salesforce Lightning Console

3. Zijn chatbots kwetsbaar? Best practices om de beveiliging van chatbots te garanderen

4. Uw pad naar AI - een IBM Developer Series

Laten we die interactie eens nader bekijken. Je apparaat werd geactiveerd toen het je hoorde spreken, begreep de onuitgesproken bedoeling in de opmerking, voerde een actie uit en gaf feedback in een goed opgemaakte Engelse zin, alles in een tijdsbestek van ongeveer vijf seconden. De volledige interactie werd mogelijk gemaakt door NLP, samen met andere AI-elementen zoals machine learning en deep learning.

  1. Grote hoeveelheden tekstuele gegevens
    Natuurlijke taalverwerking helpt computers om in hun eigen taal met mensen te communiceren en schaalt andere taalgerelateerde taken uit. NLP maakt het bijvoorbeeld mogelijk dat computers tekst lezen, spraak horen, interpreteren, sentiment meten en bepalen welke onderdelen belangrijk zijn. De machines van vandaag kunnen meer op taal gebaseerde gegevens analyseren dan mensen, zonder vermoeidheid en op een consistente, onbevooroordeelde manier. Gezien de enorme hoeveelheid ongestructureerde gegevens die elke dag wordt gegenereerd, van medische dossiers tot sociale media, is automatisering van cruciaal belang om tekst- en spraakgegevens efficiënt volledig te analyseren.
  2. Het structureren van een zeer ongestructureerde gegevensbron
    De menselijke taal is verbazingwekkend complex en divers. We drukken ons op oneindig veel manieren uit, zowel mondeling als schriftelijk. Er zijn niet alleen honderden talen en dialecten, maar binnen elke taal is er een unieke set grammatica- en syntaxisregels, termen en jargon. Als we schrijven, spellen we vaak woorden verkeerd of korten we deze af, of laten we interpunctie weg. Als we spreken, hebben we regionale accenten, en we mompelen, stotteren en lenen termen uit andere talen. Hoewel leren met en zonder toezicht, en met name diep leren, nu veel wordt gebruikt voor het modelleren van menselijke taal, is er ook behoefte aan syntactisch en semantisch begrip en domeinexpertise die niet noodzakelijk aanwezig zijn in deze benaderingen van machine learning. NLP is belangrijk omdat het ambiguïteit in taal helpt oplossen en een nuttige numerieke structuur toevoegt aan de gegevens voor veel downstreamtoepassingen, zoals spraakherkenning of tekstanalyse.

Natuurlijke taalverwerking omvat veel verschillende technieken voor het interpreteren van menselijke taal, variërend van statistische en machine learning-methoden tot op regels gebaseerde en algoritmische benaderingen. We hebben een breed scala aan benaderingen nodig omdat de op tekst en spraak gebaseerde gegevens sterk variëren, evenals de praktische toepassingen.

Basis NLP-taken omvatten tokenisatie en parsing, lemmatisering / staming, tagging van spraakgedeelten, taaldetectie en identificatie van semantische relaties. Als je ooit op de basisschool zinnen hebt getekend, heb je deze taken eerder handmatig gedaan.

In algemene termen splitsen NLP-taken taal op in kortere, elementaire stukken, proberen relaties tussen de stukken te begrijpen en onderzoeken hoe de stukken samenwerken om betekenis te creëren.

Deze onderliggende taken worden vaak gebruikt in NLP-capaciteiten op een hoger niveau, zoals:

Inhoudscategorisatie: - Een op taal gebaseerde samenvatting van documenten, inclusief zoeken en indexeren, inhoudsmeldingen en duplicatiedetectie.

Onderwerp ontdekken en modelleren: - Leg de betekenis en thema's in tekstverzamelingen nauwkeurig vast en pas geavanceerde analyses toe op tekst, zoals optimalisatie en prognoses.
Contextuele extractie: - Haal automatisch gestructureerde informatie uit op tekst gebaseerde bronnen.
Sentiment analyse :- Identificatie van de stemming of subjectieve meningen in grote hoeveelheden tekst, inclusief gemiddeld sentiment en opiniemining.
Conversie van spraak naar tekst en tekst naar spraak: - Spraakopdrachten omzetten in geschreven tekst en vice versa.
Samenvatting van het document: - Automatisch synopses genereren van grote tekstlichamen.
Machine vertaling:- Automatische vertaling van tekst of spraak van de ene taal naar de andere.

In al deze gevallen is het overkoepelende doel om ruwe taalinvoer te nemen en linguïstiek en algoritmen te gebruiken om de tekst zodanig te transformeren of te verrijken dat deze meer waarde oplevert.

NLU is een tak van natuurlijke taalverwerking (NLP), die computers helpt menselijke taal te begrijpen en te interpreteren door de elementaire stukken spraak op te splitsen. Terwijl spraakherkenning gesproken taal in realtime vastlegt, transcribeert en tekst retourneert, gaat NLU verder dan herkenning om de intentie van een gebruiker te bepalen. Spraakherkenning wordt mogelijk gemaakt door statistische machine learning-methoden die numerieke structuur toevoegen aan grote datasets. In NLU verbeteren machine learning-modellen in de loop van de tijd naarmate ze syntaxis, context, taalpatronen, unieke definities, sentiment en intentie leren herkennen.

Zakelijke applicaties vertrouwen vaak op NLU om te begrijpen wat mensen zeggen in zowel gesproken als geschreven taal. Deze gegevens helpen virtuele assistenten en andere applicaties de intentie van een gebruiker te bepalen en deze naar de juiste taak te leiden.

Twilio Autopilot, het eerste volledig programmeerbare gespreksapplicatieplatform, bevat een door machine learning aangedreven NLU-engine. Met Autopilot kunnen ontwikkelaars dynamische gespreksstromen bouwen. Het kan gemakkelijk worden getraind om de betekenis van inkomende communicatie in realtime te begrijpen en vervolgens de juiste acties of antwoorden te activeren, waardoor de verbinding tussen gespreksinvoer en specifieke taken wordt gelegd.

Met de beschikbaarheid van API's zoals Twilio Autopilot, wordt NLU steeds meer gebruikt voor klantcommunicatie. Dit geeft klanten de keuze om hun natuurlijke taal te gebruiken om door menu's te navigeren en informatie te verzamelen, wat sneller en gemakkelijker is en een betere ervaring creëert.

Bedrijven gebruiken Autopilot om gesprekstoepassingen te bouwen, zoals berichtenbots, interactieve spraakrespons (telefoon-IVR's) en spraakassistenten. Ontwikkelaars hoeven maar één keer een applicatie in natuurlijke taal te ontwerpen, trainen en bouwen om deze te laten werken met alle bestaande (en toekomstige) kanalen zoals spraak, sms, chat, Messenger, Twitter, WeChat en Slack.

Verander geneste telefoonbomen in eenvoudige "waar kan ik u mee helpen" gesproken aanwijzingen. Analyseer de antwoorden op 'Waar kan ik je mee helpen?' en bepaal de beste manier om het gesprek te routeren.

Automatiseer het vastleggen van gegevens om de kwalificatie van leads te verbeteren, escalaties te ondersteunen en nieuwe zakelijke kansen te vinden. Stel klanten bijvoorbeeld vragen en leg hun antwoorden vast met behulp van Access Service Requests (ASR's) om formulieren in te vullen en leads te kwalificeren.

Bouw volledig geïntegreerde bots, getraind binnen de context van uw bedrijf, met de intelligentie om menselijke taal te begrijpen en klanten te helpen zonder menselijk toezicht. Laat klanten bijvoorbeeld inbellen in een kennisbank en de antwoorden krijgen die ze nodig hebben.

Om een ​​zinvolle, gepersonaliseerde ervaring te bieden die verder gaat dan vooraf gescripte antwoorden, is het genereren van natuurlijke taal vereist. Hierdoor kan de chatbot gegevensopslagplaatsen, inclusief geïntegreerde back-endsystemen en databases van derden, ondervragen en die informatie gebruiken bij het creëren van een antwoord.

Mensen hebben altijd ideeën uit data gecommuniceerd. Met de explosie van gegevens die moeten worden geanalyseerd en geïnterpreteerd, in combinatie met de toenemende druk om kosten te verlagen en aan de eisen van de klant te voldoen, moet de onderneming innovatieve manieren vinden om bij te blijven.

Het blijkt dat een machine ideeën op basis van gegevens op buitengewone schaal en nauwkeurigheid kan communiceren. En het kan het op een bijzonder welbespraakte manier doen. Wanneer een machine de meer routinematige analyse- en communicatietaken automatiseert, neemt de productiviteit toe en kunnen werknemers zich concentreren op meer hoogwaardige activiteiten.

“Voor veel toepassingen kan natuurlijke taal de voorkeur hebben boven de boeiende visuele interfaces die we vaak tegenkomen. Hoe aantrekkelijk visueel rijke dashboards ook kunnen zijn, als het gaat om informatiedichtheid, zijn ze meestal veel inferieur aan taal. In een alinea en een paar opsommingstekens kunnen we snel een rijk en complex verhaal vertellen ...

Maar het grotere spel van NLG gaat niet over de taal, maar over het omgaan met het groeiende aantal inzichten dat door big data wordt geproduceerd door middel van geautomatiseerde vormen van analyse. Als uw idee van big data is dat u een datawetenschapper een soort analyse laat uitvoeren en deze vervolgens via een dashboard presenteert, denkt u veel te klein. "

Source: https://chatbotslife.com/natural-language-principles-65e88e20b94?source=rss—-a49517e4c30b—4

spot_img

Laatste intelligentie

spot_img