Google Cloud anuncia mejoras en su inteligencia artificial para contact centers

0

La aplicación de los asistentes inteligentes en los centros de atención al cliente está en un momento de evolución crítico ya que, a pesar que son capaces de atender correctamente un elevado porcentaje de consultas y solicitudes, todavía no alcanzan el nivel de servicio que esperamos de un operador humano y pueden generar frustración y un efecto negativo en los usuarios o clientes. Sin embargo, los desarrolladores de tecnología están avanzando a pasos forzados para mejorar estos sistemas que, (como todos los que pueden sustituir a empleados humanos), muchas empresas están deseando incorporar.

El gigante Google anunció el mes pasado su tecnología Contact Center AI para ayudar a las empresas a aplicar la inteligencia artificial en los contact center y hoy ha anunciado ya actualizaciones de las tecnologías que sustentan la solución Contact Center AI. Las actualizaciones se centran en las tecnologías Dialogflow y Cloud Speech-to-Text, que mejoran la precisión del reconocimiento de voz en más de un 40% en algunos casos para dar un mejor soporte a los clientes y a los agentes que les ayudan.

Según Google Cloud, las actualizaciones de Contact Center AI incluyen:

  • Adaptación automática del habla en Dialogflow (beta)
  • Mejoras en el modelo de reconocimiento de voz para IVRs y agentes virtuales basados en teléfono en Cloud Speech-to-Text
  • Adaptación manual del habla más rica en Dialogflow y Cloud Speech-to-Text (beta)
  • Transmisión de secuencias en la nube de voz a texto (beta)
  • Compatibilidad con formatos de archivo MP3 en Cloud Speech-to-Text

Mejorando el reconocimiento del habla en los agentes virtuales

Los agentes virtuales son una poderosa herramienta para los contact center, que proporciona una mejor experiencia de usuario las 24 horas del día, a la vez que reduce los tiempos de espera. Sin embargo, ejecutar el reconocimiento automático de voz (ASR) que requieren los agentes virtuales es mucho más difícil en líneas telefónicas ruidosas que en el laboratorio. E incluso con altas tasas de precisión de reconocimiento (~90%), en ocasiones el ASR puede resultar en una experiencia frustrante para el cliente.

Para ayudar a los agentes virtuales a comprender rápidamente lo que necesitan los clientes y responder con precisión, estamos introduciendo una nueva e interesante función en Dialogflow.

Adaptación automática del habla en Dialogflow Beta

Al igual que el conocimiento del contexto de una conversación facilita la comprensión mutua entre las personas, el ASR mejora cuando la IA subyacente comprende el contexto que hay detrás de lo que dice uno de los participantes en la conversación. Utilizamos el concepto adaptación del habla para describir este proceso de aprendizaje.

Dialogflow, el paquete de desarrollo para crear experiencias de conversación automatizadas, puede ayudar a los agentes virtuales a responder con mayor precisión gracias al conocimiento del contexto. Por ejemplo, si el agente Dialogflow supiera que el contexto es “pedir una hamburguesa” y que “queso” es un ingrediente común de las hamburguesas, probablemente entendería que el usuario quiere decir “queso” y no “estos”. Del mismo modo, si el agente virtual supiera que el término “envío” es un término común en el contexto de una devolución de producto, no lo confundiría con las palabras “sitio” o “recibo”.

Para alcanzar ese objetivo, la nueva función de Adaptación automática del habla de Dialogflow ayuda al agente virtual a comprender automáticamente el contexto teniendo en cuenta todas las frases de entrenamiento, entidades y otra información específica del agente. En algunos casos, esta característica puede aumentar un 40% o más la precisión de forma relativa.

Es fácil activar la Adaptación automática del habla: basta con hacer clic en el interruptor “on” de la consola Dialogflow (desactivado de forma predeterminada).

 

Mejoras en las bases de Cloud Speech-to-Text para IVRs y agentes virtuales basados en teléfonos

En abril de 2018, Google introdujo modelos prefabricados para mejorar la precisión de la transcripción de las llamadas telefónicas y de vídeo. Más adelante, se anunció la disponibilidad de estos modelos para todos los clientes, no sólo para aquellos que habían optado por nuestro programa de registro de datos. Hoy en día, hemos optimizado aún más nuestro modelo para telefonía, teniendo en cuenta las expresiones cortas más habituales en las interacciones con agentes virtuales basados en teléfono. El nuevo modelo es ahora un 15% más preciso para el inglés de EE.UU (según Google), en términos relativos, más allá de las mejoras que se anunciaron ya anteriormente.

Mejorando la transcripción para ayudar a los agentes humanos

Una transcripción precisa de las conversaciones con los clientes puede ayudar a los agentes humanos a responder mejor a sus solicitudes, lo que resulta en un mejor servicio de atención al cliente. Estas actualizaciones mejoran la calidad de la precisión de la transcripción para ayudar a los agentes humanos.

Adaptación manual del habla más rica en Cloud Speech-to-Text

Al utilizar Cloud Speech-to-Text, los desarrolladores utilizan los llamados parámetros SpeechContext para proporcionar información contextual adicional que puede hacer que la transcripción sea más precisa. Este proceso de ajuste puede ayudar a mejorar el reconocimiento de frases que son habituales en función del caso de uso concreto. Por ejemplo, la línea de atención al cliente de una empresa puede querer reconocer mejor los nombres de sus propios productos.

Ahora, Google Cloud ha anunciado tres actualizaciones, todas ellas en beta, que hacen que SpeechContext sea aún más útil para afinar manualmente el ASR y mejorar la precisión de la transcripción. Estas nuevas actualizaciones están disponibles en las APIs Cloud Speech-to-Text y Dialogflow.

Classes son entidades prefabricadas que reflejan conceptos populares o comunes y le dan a Cloud Speech-to-Text el contexto que necesita para reconocer y transcribir con mayor precisión la entrada de voz. El uso de classes permite a los desarrolladores sintonizar el ASR con una lista completa de palabras a la vez, en lugar de añadirlas una por una.

Por ejemplo, digamos que hay una frase que normalmente aparece en una transcripción, “Son las doce y cincuenta y una”. Basándose en el caso práctico de uso, se podría utilizar una clase SpeechContext para refinar la transcripción de varias maneras diferentes:

Hay diferentes classes disponibles para establecer el contexto de secuencias de dígitos, direcciones, números y monedas – puedes ver la lista completa aquí.

SpeechContext boost Beta

Sintonizar el reconocimiento de voz con herramientas como SpeechContext aumenta la probabilidad de que ciertas frases sean capturadas, lo que reducirá el número de falsos negativos (cuando se menciona una frase, pero no aparece en la transcripción), pero también puede aumentar potencialmente el número de falsos positivos (cuando una frase no se menciona, pero aparece en la transcripción). La nueva función “boost” permite a los desarrolladores utilizar la mejor adaptación del habla para su caso de uso.

Example:
"config": {
"encoding":"LINEAR16",
"sampleRateHertz": 8000,
"languageCode":"en-US",
"speechContexts": [{
"phrases": ["Weather is hot"],
"boost": 2
}]
}

 

SpeechContext amplía su límite de frases (beta)

Como parte del proceso de ajuste, los desarrolladores utilizan “indicios” para aumentar la probabilidad de que las palabras o frases de uso común relacionadas con su negocio o vertical sean capturadas por el ASR. El número máximo de indicios de frases por solicitud de API se ha multiplicado por diez, de 500 a 5.000, lo que significa que una empresa puede optimizar la transcripción de miles de palabras de su jerga (como los nombres de productos) que son poco comunes en el lenguaje cotidiano.

Además de estas nuevas características relacionadas con la adaptación, ahora se anuncian otras mejoras muy solicitadas que mejoran la experiencia de producto para todos.

Streaming ilimitado (beta) en Cloud Speech-to-text

Desde que se introdujo la tecnología Cloud Speech-to-Text hace casi tres años, el streaming de larga duración ha sido una de las principales peticiones de los usuarios. Hasta ahora, Cloud Speech-to-Text sólo soportaba la transmisión de audio en segmentos de un minuto, lo que resultaba problemático para aquellos casos en los que se necesitaban transcripciones de larga duración como reuniones, vídeo en directo y llamadas telefónicas. Hoy, el límite de tiempo de la sesión se ha elevado a 5 minutos. Además, la API permite ahora a los desarrolladores iniciar una nueva sesión de streaming desde donde se dejó la anterior, lo que hace que la transcripción automática en directo sea infinita en duración y se desbloqueen una serie de nuevas posibilidades relacionadas con el audio de larga duración.

El formato MP3 compatible con la versión beta de Cloud-Speech-to-Text

Hasta el momento, Cloud-Speech-to-Text ha soportado siete formatos de archivos diferentes (aquí el listado). Hasta ahora, el procesamiento de archivos MP3 exigía expandirlos primero al formato Linear16, lo que requiere mantener una infraestructura adicional. Cloud Speech-to-Text es ahora compatible con archivos MP3 de forma nativa, por lo que no es necesario realizar conversiones adicionales.

About Author

Avatar

Periodista especializado con más de 18 años de experiencia en tecnología. He sido director de publicaciones como Macworld (dedicada al mundo Apple) o TechStyle (dedicada a electrónica de consumo) y después he trabajado con TICbeat.com como responsable de desarrollo de producto. Actualmente trabajo como Chief Content Officer en GlobbTV.

Leave A Reply