La documentazione per questo prodotto è stata redatta cercando di utilizzare un linguaggio senza pregiudizi. Ai fini di questa documentazione, per linguaggio senza di pregiudizi si intende un linguaggio che non implica discriminazioni basate su età, disabilità, genere, identità razziale, identità etnica, orientamento sessuale, status socioeconomico e intersezionalità. Le eventuali eccezioni possono dipendere dal linguaggio codificato nelle interfacce utente del software del prodotto, dal linguaggio utilizzato nella documentazione RFP o dal linguaggio utilizzato in prodotti di terze parti a cui si fa riferimento. Scopri di più sul modo in cui Cisco utilizza il linguaggio inclusivo.
Cisco ha tradotto questo documento utilizzando una combinazione di tecnologie automatiche e umane per offrire ai nostri utenti in tutto il mondo contenuti di supporto nella propria lingua. Si noti che anche la migliore traduzione automatica non sarà mai accurata come quella fornita da un traduttore professionista. Cisco Systems, Inc. non si assume alcuna responsabilità per l’accuratezza di queste traduzioni e consiglia di consultare sempre il documento originale in inglese (disponibile al link fornito).
In questo documento viene descritto come configurare la funzione CVA di Customer Voice Portal (CVP).
Cisco raccomanda la conoscenza dei seguenti argomenti:
Le informazioni fornite in questo documento si basano sulle seguenti versioni software:
Le informazioni discusse in questo documento fanno riferimento a dispositivi usati in uno specifico ambiente di emulazione. Su tutti i dispositivi menzionati nel documento la configurazione è stata ripristinata ai valori predefiniti. Se la rete è operativa, valutare attentamente eventuali conseguenze derivanti dall'uso dei comandi.
CVP 12.5 introduce la funzione CVA (Customer Virtual Assistant), in cui è possibile utilizzare servizi TTS (Text to Speech), ASR (Automatic Speech Recognition) e NLP (Natural Language Processing) di fornitori terzi.
Nota: in questa release è supportato solo Google NLP.
Questa funzionalità supporta interazioni simili a quelle umane che consentono di risolvere i problemi in modo rapido ed efficiente con Interactive Voice Response (IVR) con Natural Language Processing.
Cisco CVA fornisce le seguenti modalità di interazione:
Oltre ai componenti richiesti in un flusso di chiamate completo CVP, CVA richiede l'implementazione di servizi cloud, servizi vocali e specifici elementi CVP Call Studio. Questo è l'elenco di tutti i componenti richiesti in CVA:
Esistono tre flussi di chiamate CVA principali supportati con Google Dialogflow.
L'implementazione IVR ospitata è particolarmente adatta per i clienti che intendono migrare la propria infrastruttura IVR nel cloud. In Distribuzione IVR ospitata, solo la logica aziendale IVR risiede nel cloud, mentre gli agenti sono registrati nell'infrastruttura locale.
Una volta implementato l'IVR ospitato, il segnale principale e il processo multimediale avviene nel cloud. Inoltre, le soluzioni CVP e Cisco VB sono in modalità bridge per consentire lo streaming dei supporti nel cloud. Una volta completato l'IVR e richiesto un agente, il controllo delle chiamate viene ritrasferito al CVP per l'ulteriore processo della chiamata e per il trattamento della coda.
Di seguito è riportato un esempio del flusso di chiamata:
a. Una volta ricevuto il flusso in Dialogflow, viene eseguito il riconoscimento e il servizio NLU viene coinvolto per identificare l'intento.
b. Il servizio NLU identifica le finalità. L'identificazione dell'intento avviene in base all'agente virtuale creato nel cloud.
c. Dialogflow restituisce i prompt successivi a Cisco VB in uno dei modi seguenti (dipende dalla configurazione dell'applicazione call studio):
Audio: Dialogflow restituisce il payload audio nella risposta API.
Testo: Dialogflow restituisce il prompt di testo in risposta, che deve essere sintetizzato da un servizio TTS.
d. Cisco VB chiede al chiamante di fornire ulteriori informazioni.
e. Quando il chiamante risponde, Cisco VB invia questa risposta a Dialogflow.
f. Dialogflow esegue l'evasione e risponde nuovamente con i prompt in uno dei due modi seguenti:
Audio: Dialogflow restituisce il payload audio in risposta API con l'audio di evasione con l'uso di webhook.
Testo: Dialogflow restituisce il prompt di testo con il testo di evasione in risposta all'utilizzo di webhook. Viene sintetizzato da un servizio TTS.
g. Dialogflow esegue la gestione del contesto e delle sessioni per l'intera conversazione.
Il controllo del flusso rimane associato a Dialogflow a meno che il cliente non richieda un trasferimento dell'agente o la chiamata non sia disconnessa.
L'installazione intenzionale basata sulla premessa è più adatta per i clienti che richiedono il trattamento delle informazioni sull'identità personale (PII, Personal Identity Information) o di qualsiasi altro dato riservato nei propri sistemi locali. In genere, in tali distribuzioni, le informazioni di identità personali (PII, Personal Identity Information) non vengono mai inviate al cloud per essere elaborate, ma vengono raccolte in modo tale che le informazioni vengano sempre conservate ed elaborate in locale. In questo flusso di chiamata la maggior parte del controllo processo viene eseguita sul server VXML. Questo flusso di chiamate consente:
Questo flusso di chiamata utilizza gli elementi DialogflowIntent e DialogflowParamt di call studio. I passaggi da 1 a 3 sono identici al precedente flusso di chiamate Dialogflow. Di seguito sono riportati i passaggi successivi
a. Google Dialogflow restituisce l'intento all'applicazione call studio distribuita nel server VXML.
b. Se l'intento identificato richiede l'elaborazione di informazioni riservate, ad esempio un numero di carta di credito o un PIN
, Cisco VB può riprodurre il prompt richiesto e raccogliere i dati DTMF (Dual Tone Multy Frequency) dal cliente finale.
c. Queste informazioni riservate vengono raccolte dalle applicazioni aziendali locali e inviate al database Customer Relationship Management (CRM) per l'autenticazione e per
processo.
d. Una volta che il cliente è stato autenticato con il PIN, il controllo vocale può essere passato al servizio ASR nel cloud.
e. VXML Server tramite l'applicazione call studio esegue la gestione del contesto e delle sessioni per l'intera conversazione.
Essenzialmente, questo flusso di chiamate offre una maggiore flessibilità in termini di definizione delle azioni da intraprendere in ogni fase sulla base delle indicazioni dei clienti ed è interamente basato su applicazioni in loco. I servizi cloud vengono utilizzati principalmente per il riconoscimento vocale e l'identificazione dell'intento. Una volta identificato l'intento, il controllo viene restituito all'applicazione aziendale CVP per l'elaborazione e la decisione sul passaggio successivo da eseguire.
Questo flusso di chiamata fornisce la conversione dell'input del cliente dal discorso a una frase di testo, in pratica ASR.
Google Dialogflow deve essere configurato e connesso a Cisco Speech Server prima di avviare la configurazione CVA. È necessario un account di servizio Google, un progetto Google e un agente virtuale Dialogflow. Quindi, è possibile insegnare a questo agente virtuale Dialogflow il linguaggio naturale in modo che l'agente possa rispondere all'interazione del cliente con l'uso di elaborazione del linguaggio naturale.
Google Dialogflow è una piattaforma di conversazione dell'utente (UX) che consente interazioni univoche in linguaggio naturale per dispositivi, applicazioni e servizi. In altre parole, Dialogflow è un framework che fornisce servizi NLP / NLU (Natural Language Understanding).Cisco si integra con Google Dialogflow per CVA.
Cosa significa questo per voi? Significa che è possibile creare un agente virtuale in Dialogflow e quindi integrarlo con Cisco Contact Center Enterprise.
Di seguito sono riportati i passaggi per creare un agente virtuale o un progetto Dialogflow:
Passaggio 1. Crea un account o un progetto Google o ottieni un progetto Google dal tuo partner Cisco.
Passaggio 2. Accedere a Dialogflow. Andare sul sito https://dialogflow.com/
Passaggio 3. Crea un nuovo agente. Scegliere un nome per il nuovo agente e il fuso orario predefinito. Mantenere la lingua impostata su Inglese. Fare clic su CREATE AGENT.
In questo esempio l'agente virtuale gestisce le transazioni bancarie, quindi il nome dell'agente per questa esercitazione è BankingRoot. La lingua è l'inglese, mentre il fuso orario è l'ora di sistema predefinita.
Passaggio 4. Fare clic sulla scheda CREATE.
Passaggio 5. Una volta creato l'agente virtuale, è possibile importare gli agenti virtuali di Google pre-build come mostrato nell'immagine oppure insegnare all'agente come comunicare con il chiamante.
Passaggio 6. A questo punto, l'agente non sa ancora come rispondere a qualsiasi input utente. Il passo successivo è insegnargli come comportarsi. In primo luogo, si modella la personalità dell'agente e farla rispondere a un intento di benvenuto predefinito di ciao e si presenta. Una volta creato l'agente, viene visualizzata questa immagine.
Nota: hello può essere definito come l'intento di benvenuto predefinito nell'elemento dell'applicazione di call studio Dialogflow.
Passaggio 7. Fare clic su Intento di benvenuto predefinito.
Passaggio 8. Aggiungere ciao, Buongiorno e Buon pomeriggio alle frasi di Training. Digitatele nel formato testo e premete il tasto Invio dopo ciascuna di esse.
Passaggio 9. Scorrere verso il basso fino a Risposte, quindi fare clic su ADD RESPONSES (AGGIUNGI RISPOSTE).
Passaggio 10. Selezionare Risposta testo.
Come per le frasi di formazione, aggiungi una risposta appropriata. Questo è il primo messaggio che l'utente riceve dall'agente. Per fare in modo che il tuo agente sembri più naturale e conversazionale, pensa a una conversazione normale e immagina cosa direbbe un agente. Tuttavia, è buona norma far sapere all'utente che l'interazione è con un agente Intelligente Artificialmente (AI). In questo scenario viene utilizzata un'applicazione Cisco Live Banking come esempio, in modo da poter aggiungere:Benvenuto in Cisco Live! Mi chiamo John Doe e sono l'assistente virtuale di Cisco Live Banking. Scegliere una delle seguenti opzioni: È possibile pronunciare ad esempio Controlla saldo, Crea un nuovo conto o Trasferisci denaro.
Passaggio 11. Fare clic su Save (Salva).
Prima di creare altri intenti, create le entità. Entity è una proprietà o un parametro che può essere utilizzato da Dialogflow per rispondere alla richiesta dell'utente. L'entità è in genere una parola chiave all'interno dell'intento, ad esempio un tipo di conto, una data, una posizione e così via. Pertanto, prima di aggiungere altri intenti, aggiungere le entità: Tipo di conto, Tipo di versamento e Tipo di trasferimento.
Passaggio 12. Scegliere Entità dal menu Flusso di dialogo.
Passaggio 13. Nella finestra Entità, fare clic su CREA ENTITÀ.
Passaggio 14. Nel tipo di nome di entità AccountType. Nel campo Definisci sinonimi, digitare: Corrente, Prestito e Risparmi e fare clic su SALVA.
Passaggio 15. Tornare al menu Flusso di dialogo e fare di nuovo clic su Entità. Nella finestra Entità fare quindi clic su CREA ENTITÀ.
>
Passaggio 16. Nel campo Tipo di nome entità: DepositType. Nel campo Definisci sinonimi, digitare: Contanti e Assegno, quindi fare clic su SALVA.
Passaggio 17. È possibile creare più entità, ad esempio TipoTrasferimento, e nel campo Definisci sinonimi, tipo di campo: Contanti, Pagamento a saldo, PagamentoTM e Bonifico, ecc.
Passaggio 18. Creare l'entità Titolare conto. Nel campo Nome entità, digitare AccountHolder; nel campo Definisci sinonimi.
Passaggio 19. Ora, continua la formazione dell'agente con tutte le possibili domande ricevute nel sistema bancario e le risposte tipiche. Creare gli intenti successivi: CheckBalance, TransferMoney. Per l'intento CheckBalance è possibile aggiungere le frasi di training mostrate nell'immagine:
È inoltre possibile aggiungere la seguente risposta:
Passaggio 20. È possibile aggiungere il resto degli Intenti (TransferMoney, CreateAccount e Exit), delle frasi di addestramento, dei parametri e delle risposte.
Nota: per ulteriori informazioni sulla configurazione di Google Dialogflow, passare a: DialogFlow Virtual Agent
Speech Server è un nuovo componente integrato in Cisco VB. Il server di sintesi vocale interagisce con il flusso di dialogo di Google tramite un sistema RPC (Remote Procedure Call) inizialmente sviluppato da Google
Passaggio 1. Se non lo si è fatto, scambiare i certificati tra PCCE Admin Workstation (AW), CVP e CVB. Se la distribuzione è su UCCE, scambiare i certificati tra CVP New Operations Manager Server (NOAMP), CVP e CVB.
Nota: fare riferimento a questi documenti per lo scambio di certificati PCCE: Certificati autofirmati in una soluzione PCCE e Gestisci certificato componenti PCCE per SPOG. Per UCCE fare riferimento al certificato autofirmato scambiato su UCCE .
Passaggio 2. Su PCCE, aprire l'interfaccia CCE Admin / Single Plane of Glass (SPOG). se la distribuzione è su UCCE, eseguire la procedura seguente sul server NOAMP.
Passaggio 3. In Caratteristiche selezionare Assistente virtuale cliente.
Passaggio 4. Verranno visualizzate tre schede: Testo in discorso, Riconoscimento vocale automatico e Comprensione del linguaggio naturale.
Passaggio 5. Fare clic su Natural Language Understanding e quindi su New.
Passaggio 6. Nella finestra Nuovo conto di comprensione del linguaggio naturale, selezionare Dialogflow come provider di servizi.
Passaggio 7. Per il Nome account del servizio, è necessario fornire il progetto Google relativo all'agente virtuale creato in Google Dialogflow.
Per identificare il progetto correlato all'agente virtuale creato, eseguire la procedura seguente:
a. Accedere all'account DialogFlow (dialogflow.com), selezionare l'agente creato e fare clic sull'icona delle impostazioni.
b. Scorrere verso il basso la finestra delle impostazioni sul lato destro per visualizzare l'account del servizio e l'ID del progetto. Copiare l'ID progetto, ovvero il nome dell'account del servizio da aggiungere alla configurazione di Speech Server.
Passaggio 8.Per utilizzare le API di flusso di Google Dialog necessarie per identificare e rispondere alle finalità del cliente, è necessario ottenere una chiave privata associata all'account del servizio di un agente virtuale.
La chiave privata viene scaricata come file JSON al momento della creazione dell'account del servizio. Per ottenere la chiave privata dell'agente virtuale, eseguire la procedura seguente.
Nota: è obbligatorio creare un nuovo account di servizio anziché utilizzare uno degli account di servizio predefiniti di Google associati al progetto.
a. Nella sezione Google Project, fare clic sull'URL dell'account del servizio.
b. Viene visualizzata la pagina Account del servizio della piattaforma Google Cloud. A questo punto è necessario innanzitutto aggiungere ruoli all'account del servizio. Fare clic sul pulsante Crea account di servizio nella parte superiore della pagina.
c. Nel popup, inserire un nome per l'account del servizio. In questo caso, immettere BankingRootSA e fare clic su CREATE (CREA).
d. Fare clic su Select a role.
e. Nella categoria Flusso di dialogo, selezionare il ruolo desiderato. Selezionare Dialogflow API Admin e fare clic su Continua.
f. Scorrere verso il basso e selezionare CREATE KEY.
g. Nella finestra della chiave privata, assicurarsi che JSON sia selezionato per Tipo chiave e fare clic su CREA.
h. Viene avviato il download del file JSON. Selezionare la casella Salva file, scegliere un percorso in cui salvarlo e confermare.
Attenzione: il file JSON può essere scaricato una sola volta, quindi accertarsi di salvare il file e conservarlo in un luogo sicuro. Se la chiave viene persa o viene compromessa, è possibile utilizzare la stessa procedura per creare una nuova chiave. Il file JSON viene salvato nella cartella C:\Download
i. Al termine, viene visualizzato un messaggio di conferma. Fare clic su Close (Chiudi).
Passaggio 9. Dopo aver fatto clic su NEXT nella finestra Account NLU, è necessario fornire la chiave di autenticazione.
Passaggio 10. Aggiungere la descrizione. Passare alla cartella in cui scaricare il file JSON. Modificare il file, selezionare tutte le righe nel file e copiarle nel campo Chiave account servizio. Fare clic su Save (Salva).
CVP Call Studio release 12.5 è stato migliorato e questi quattro elementi (come mostrato nell'immagine) sono stati aggiunti per facilitare la configurazione della funzione CVA.
Di seguito è riportata una breve descrizione di ciascun elemento:
Dialogflow è stato creato per attivare e gestire i servizi ASR, NLU e TTS dal cloud. Dialogflow consente di simulare una distribuzione di Hosted IVR in cui tutti i servizi vocali vengono utilizzati da Google Dialogflow e l'intera logica aziendale viene controllata e guidata dal cloud.
DialogflowIntent è stato creato per i servizi cloud da utilizzare per il riconoscimento (servizio ASR) e l'identificazione intento (servizio NLU). Una volta identificato l'intento e passato al server VXML CVP, è possibile eseguire l'handle dell'intento e qualsiasi altra azione nello script di CVP Call Studio. Qui è stata fornita flessibilità agli sviluppatori di applicazioni per l'utilizzo dei servizi TTS dal cloud o da locali.
DialogflowParam funziona insieme all'elemento DialogflowIntent. In una tipica implementazione IVR locale, quando l'intento del cliente viene identificato e passato al server VXML, è necessaria l'identificazione dei parametri, che deve essere gestita dall'applicazione CVP. Ad esempio, un'applicazione bancaria tipica potrebbe analizzare input mancanti dal discorso del cliente e richiedere input obbligatori rimanenti prima dell'elaborazione dell'intera transazione. Nello scenario precedente, l'elemento DialogflowParam viene utilizzato insieme all'elemento DialogflowIntent per elaborare l'intento identificato e aggiungere i parametri richiesti.
La trascrizione è stata creata per elaborare il discorso del cliente e restituire il testo come output. In pratica esegue la funzione di riconoscimento e fornisce testo come output. Questo elemento deve essere utilizzato quando è richiesta solo la funzionalità ASR.
Per ulteriori informazioni sull'impostazione dei parametri in ciascuno di questi elementi, consultare la guida Element Specifications release 12.5.
Quando una chiamata raggiunge un'applicazione VXML, l'elemento Dialogflow subentra e inizia a elaborare l'input vocale.
Il dialogo con il cliente continua e, nella misura in cui l'agente virtuale Google è in grado di identificare le finalità e di elaborarle, i supporti vengono ritrasmessi ai servizi TTS. Per ogni richiesta del cliente, il flusso continua in un ciclo attorno all'elemento Dialogflow e ogni intento corrispondente viene eseguito in una casella di decisione per determinare se il trattamento IVR deve continuare o se il cliente deve trasferire la chiamata a un agente.
Una volta attivata la decisione di trasferimento dell'agente, la chiamata viene instradata al CVP e il controllo viene consegnato per mettere la chiamata in coda e quindi trasferire la chiamata a un agente.
Di seguito sono riportati i passaggi di configurazione per un'applicazione di esempio Call Studio:
Passaggio 1. Importare l'applicazione in Call Studio o crearne una nuova. In questo esempio è stata importata un'applicazione call studio chiamata DFaudio da Cisco Devnet Sample CVA Application-DFAudio.
Passaggio 2. Nell'applicazione DFAudio, selezionare l'elemento Dialogflow, quindi sul lato destro selezionare la scheda Settings (Impostazioni). Modificare il nome dell'account di servizio con l'ID progetto precedentemente aggiunto al server di sintesi vocale, in questo esempio è:bankingroot-iemspv
Passaggio 3. Verificare che il parametro Output audio sia impostato su true per inviare l'audio all'agente virtuale Dialogflow anziché al testo.
Passaggio 4. Convalidare, salvare e distribuire l'applicazione nel server VXML.
Passaggio 5. Distribuire l'applicazione nella memoria del server VXML. Sul server VXML CVP, aprire Esplora risorse, passare a C:\Cisco\CVP\VXMLServer e fare clic su deployAllNewApps.bat. Se l'applicazione è stata precedentemente distribuita nel server VXML, fare clic sul file UpdateAllApps.bat.
In questo esempio, il flusso di chiamata è correlato a un'applicazione bancaria in cui i clienti possono controllare il saldo del proprio conto e trasferire una determinata quantità di denaro da un conto di risparmio a un altro conto. Gli elementi di trascrizione iniziali raccolgono i dati di identificazione dal cliente tramite riconoscimento vocale e li convalidano con il numero ANI. Una volta convalidata l'identificazione del cliente finale, il controllo delle chiamate viene trasferito all'elemento DialogFlowIntent per identificare la richiesta del cliente. In base all'input del cliente (ad esempio l'importo da trasferire), l'applicazione CVP Call Studio richiede al cliente finale i parametri rimanenti per elaborare ulteriormente l'intento. Una volta terminata la transazione di bonifico, il cliente può scegliere di terminare la chiamata o richiedere il trasferimento di un agente.
Passaggio 1. Importare l'applicazione in Call Studio o crearne una nuova. In questo esempio è stata importata un'applicazione call studio chiamata DFRemote da Cisco Devnet Sample CVA Application-DFRemote.
Passaggio 2. Nell'applicazione DFRemote, selezionare l'elemento DialogflowIntent (DFIntent) e sul lato destro selezionare la scheda Impostazioni. Modificare il nome dell'account di servizio con l'ID progetto precedentemente aggiunto al server di sintesi vocale, nell'esempio riportato di seguito è: bankingroot-iemspv
Passaggio 3. Verificare che il parametro Modalità input sia impostato su voce. È possibile impostarlo su voice e DTMF, ma per questo elemento deve essere impostato su voice perché non vengono raccolti parametri. Quando si utilizza DialogflowParam, è possibile impostarlo su entrambi. In questo elemento è il punto in cui si raccoglie effettivamente il parametro di input dal chiamante.
Passaggio 4. In questo esempio, quando un cliente chiama per controllare il saldo del conto, l'applicazione chiede al cliente di fornire il tipo di conto per DTMF o voce. Queste informazioni vengono raccolte nell'elemento DialogflowParam (AccountType, come illustrato nell'immagine). Per raccogliere i parametri richiesti, modificare le impostazioni di DialogflowParam. In Modalità input selezionare dtmf+voice, in modo che il chiamante possa immettere o pronunciare il tipo di account. Nel parametro Intento digitare l'intento correlato, in questo caso CheckBalance. E nell'impostazione Variable,
selezionare il parametro dell'intento, in questo caso AccountType. Se questo è l'ultimo parametro dell'intento, impostate la variabile Last Parameter su true. Per ulteriori informazioni sulle impostazioni di DialogflowParam, consultare la guida Element Specifications release 12.5.
Passaggio 5. Convalidare, salvare e distribuire l'applicazione nel server VXML.
Passaggio 6. Distribuire l'applicazione nella memoria del server VXML. Sul server VXML CVP, aprire Esplora risorse, passare a C:\Cisco\CVP\VXMLServer e fare clic su deployAllNewApps.bat. Se l'applicazione è stata precedentemente distribuita nel server VXML, fare clic sul file UpdateAllApps.bat.
Passaggio 7. Copiare il file JSON scaricato in precedenza nella directory C:\Cisco\CVP\Conf. Il nome del file jason deve corrispondere al nome del progetto, in questo caso bankingroot-iemspv.json.
Passaggio 8. Aggiungere i servizi TTS e ASR di Google, se necessari, come in questo esempio. Se la distribuzione è su UCCE, aggiungere i servizi TTS e ASR tramite il server NOAMP. Su PCCE, aprire l'interfaccia CCE Admin / Single Plane of Glass (SPOG).
Passaggio 9. Nella scheda Caratteristiche, selezionare Assistente virtuale cliente.
Passaggio 10. Aggiungere innanzitutto il servizio TTS e quindi seguire la stessa procedura per aggiungere il servizio ASR. Fare clic su Sintesi vocale, quindi su Nuovo.
Passaggio 11. Selezionare Google come provider di servizi e aggiungere il Nome account del servizio (lo stesso nome account dell'account NLU nei passaggi precedenti). Fare clic su Next (Avanti).
Passaggio 12. Impostare questo servizio TTS come servizio predefinito e copiare il contenuto del file json NLU generato nei passaggi precedenti come chiave JSON ASR e TTS. Fare clic su Salva.
Nota: gli account del servizio TTS e ASR non richiedono l'assegnazione di alcun ruolo. Tuttavia, se si utilizza lo stesso account del servizio NLU per ASR e TTS, è necessario verificare che questo account del servizio abbia accesso alle API TTS e ASR.
In generale, questo è il flusso di processo quando si utilizzano DialogflowIntent e DialogflowParam:
1. L'applicazione Call Studio / VXML legge il file JSON da C:\Cisco\CVP\Conf\
2. Viene riprodotto il prompt audio DialogflowIntent, il file audio o il segnale acustico nell'impostazione audio viene convertito in audio.
3. Ora, quando il cliente parla, l'audio viene trasmesso al motore di riconoscimento Google ASR.
4. Google ASR converte il discorso in testo.
5. Il testo viene inviato al flusso di dialogo dal server VXML.
6. Google Dialogflow restituisce l'intento in forma di testo all'elemento DialogflowIntent dell'applicazione VXML.
Google Software Development Kit (SDK) in Cisco VB utilizza il protocollo gRPC per interagire con Google Dialogflow. gRPC utilizza HTTP/2 per il trasporto.
Poiché il protocollo sottostante è HTTP, è necessario configurare il proxy HTTP per stabilire la comunicazione end-to-end se non è disponibile una comunicazione diretta tra Cisco VB e Google Dialogflow.
Il server proxy deve supportare HTTP 2.0. Cisco VB espone il comando CLI per configurare la configurazione dell'host proxy e della porta.
Passaggio 1. Configurare httpsProxy Host.
set speechserver httpsProxy host <hostname>
Passaggio 2. Configurare la porta httpsProxy.
set speechserver httpsProxy port <portNumber>
Passaggio 3. Convalidare la configurazione con il comando Show httpsProxy.
show speechserver httpsProxy host
show speechserver httpsProxy port
Passaggio 4. Riavviare il servizio Cisco Speech Server dopo la configurazione del proxy.
utilizza il servizio per riavviare Cisco Speech Server
Inoltre, se è stato implementato il modello di distribuzione Premise Based Intent Processing (DialogflowIntent / DialogflowParam) e non è disponibile una connessione Internet diretta tra il server VXML di CVP e Google Dialogflow, è necessario configurare il server proxy sul server VXML di CVP.
Passaggio 1. Accedere al server VXML CVP.
Passaggio 2. Eseguire il comando regedit.
Passaggio 3. Passare a HKEY_LOCAL_MACHINE\SOFTWARE\WOW6432Node\Apache Software Foundation\Procrun 2.0\VXMLServer\Parameters\Java\Options.
Passaggio 4. Aggiungere queste righe al file.
-Dhttps.proxyHost=<IP/Host proxy>
-Dhttps.proxyPort=<Numero porta proxy>
Passaggio 5. Riavviare il servizio Cisco CVP VXML Server.
Se è necessario risolvere i problemi relativi al software CVA, consultare le informazioni riportate in questo documento Risoluzione dei problemi dell'Assistente virtuale del cliente Cisco.
Revisione | Data di pubblicazione | Commenti |
---|---|---|
2.0 |
18-Dec-2023 |
Release 2 |
1.0 |
14-May-2020 |
Versione iniziale |