Problema 2300
Las reuniones de ventas virtuales han hecho que sea más difícil que nunca para los vendedores leer la sala. Por lo tanto, algunos proveedores de tecnología bien financiados están interviniendo con su propio argumento de venta audaz: que la IA no solo puede ayudar a los vendedores a comunicarse mejor, sino también a detectar el "estado emocional" de un trato, y a las personas a las que les están vendiendo.
De hecho, mientras que los investigadores de IA han intentado inculcar la emoción humana en máquinas robóticas calculadoras y frías durante décadas, las compañías de software de ventas y servicio al cliente, incluidas Uniphore y Sybill, están creando productos que usan IA en un intento de ayudar a los humanos a comprender y responder a la emoción humana. . Zoom, la potencia de las reuniones virtuales también planea proporcionar características similares en el futuro.
“Es muy difícil establecer una relación en una relación en ese tipo de entorno”, dijo Tim Harris, director de marketing de productos de Uniphore, con respecto a las reuniones virtuales. La empresa vende un software que intenta detectar si un cliente potencial está interesado en lo que un vendedor tiene que decir durante una videollamada, alertando al vendedor en tiempo real durante la reunión si alguien parece más o menos involucrado en un tema en particular.
El sistema, llamado Q de Ventas, podría indicar que el sentimiento o el nivel de compromiso de un cliente potencial se animó cuando un vendedor mencionó una característica particular del producto, pero luego disminuyó cuando se mencionó el precio. Sybill, un competidor, también usa IA en un intento de analizar el estado de ánimo de las personas durante una llamada.
El software de Uniphore incorpora visión por computadora, reconocimiento de voz, procesamiento de lenguaje natural e IA emocional para captar las señales de comportamiento asociadas con el tono de voz, los movimientos oculares y faciales de alguien u otro lenguaje corporal no verbal, luego analiza esos datos para evaluar su estado emocional. actitud.
Y hay un cuadro de mando de emociones digital real.
Sentado junto a la imagen de alguien en la cámara durante una reunión virtual, la aplicación Q for Sales visualiza la emoción a través de indicadores fluctuantes que indican los niveles detectados de sentimiento y compromiso en función de la interpretación combinada del sistema de su satisfacción, felicidad, compromiso, sorpresa, ira, disgusto, miedo o tristeza. El software requiere que se graben las videollamadas, y solo puede evaluar el sentimiento de alguien cuando ese cliente individual, o la sala llena de clientes potenciales, y el vendedor han aprobado la grabación.
Imagen: Uniphore
Aunque Harris dijo que Uniphore no compila perfiles de personas individuales en función de los datos que intercepta y genera, su software proporciona datos que, según dice, indican el "estado emocional de un trato" en función del sentimiento y el compromiso de todos los miembros de un comité de compras que han estado presentes en reuniones a lo largo de la línea de tiempo de discusiones con ese cliente potencial.
Estar siempre... ¿grabando?
Pero la mera solicitud de grabar una conversación virtual puede alterar la actitud de un cliente, dijo Grace Briscoe, vicepresidenta sénior de Desarrollo de Clientes en la empresa de publicidad digital Basis Technologies. “Tan pronto como aparece la alerta de grabación, la gente se pone en guardia”, dijo. “Creo que sería desagradable para los clientes; serían menos sinceros. No creo que sea propicio para el tipo de construcción de relaciones que queremos hacer".
Si bien algunos participantes de la reunión de ventas pueden sentirse incómodos al ser grabados, otros estarán más abiertos, dijo Josh Dulberger, jefe de Producto, Datos e IA en Zoom. “Parte de esto es la cultura del equipo de ventas”, dijo, y señaló que es posible que no se tolere la grabación cuando se vende a industrias más sensibles, como los servicios financieros.
Zoom, el rey de las reuniones virtuales, dijo el miércoles que presentará nuevas funciones llamadas Zoom IQ for Sales que brindan a los anfitriones de reuniones de ventas transcripciones de conversaciones y análisis de sentimientos posteriores a la reunión. Aunque se sabe que algunos servicios de transcripción basados en IA cometen errores, Dulberger dijo que el software de Zoom se creó internamente utilizando su propio sistema automatizado de reconocimiento de hablantes y comprensión del lenguaje natural. El sistema está integrado con Salesforce.
“Estamos analizando cosas como la cadencia del hablante y otros factores en el enfoque lingüístico para tratar de separar a un hablante de otro”, dijo Dulberger.
Por ahora, las nuevas funciones de Zoom para vendedores no evalúan el sentimiento en tiempo real durante una reunión. En su lugar, ofrecen un análisis posterior a la reunión. Por ejemplo, Dulberger dijo que una interacción podría etiquetarse como "bajo compromiso" si el cliente potencial no habla mucho.
“Podrá medir que no estaban muy bien comprometidos”, dijo, y señaló que los vendedores apuntan a conversaciones equilibradas durante las cuales los clientes hablan con la misma frecuencia que un representante de ventas.
Frustración detectada. Mostrar empatía.
El análisis de sentimientos no es nada nuevo. Desde los primeros días de las redes sociales, los proveedores de software han absorbido el texto de las publicaciones, los tweets y las reseñas de productos, analizando su contenido para ayudar a determinar qué significan para las marcas de consumo, los restaurantes o los candidatos políticos. Hoy en día, el software para los chats de la mesa de ayuda y los centros de llamadas emplean el reconocimiento de voz y la IA de procesamiento de lenguaje natural para pedir a los representantes de servicio al cliente que hablen más despacio o sean más enérgicos. Por ejemplo, Amazon se asoció con Salesforce para llevar el análisis de sentimientos a las aplicaciones utilizadas por los agentes de servicio al cliente, y un producto de Cogito utiliza el análisis de voz durante las llamadas para evaluar el estado emocional de las personas que llaman o los representantes de servicio.
“Frustración detectada. Muestre empatía”, afirma una alerta que se muestra como ejemplo en el sitio web de Cogito.
IA cuestionable para entrenar habilidades humanas básicas
Pero lo que están haciendo compañías como Uniphore, que recientemente recaudó $ 400 millones en fondos de la serie E con una valoración de $ 2.5 mil millones, y Sybill van más allá de las indicaciones de servicio al cliente. Uniphore y Sybill tienen como objetivo monitorear el comportamiento humano durante las videollamadas en tiempo real. Y están apostando a que incluso los vendedores experimentados pueden beneficiarse de la guía de su entrenamiento emocional de IA.
Dulberger dijo que Zoom también tiene una investigación activa en marcha para incorporar inteligencia artificial emocional en los productos de la compañía en el futuro. Señaló una investigación que, según dijo, muestra que se están realizando mejoras en la IA utilizada para detectar las emociones de las personas, incluido un [estudio] (https://link.springer.com/content/pdf/10.1007/s42452-020-2234-1. pdf) que involucra una técnica que elimina las imágenes faciales de las imágenes de fondo que pueden confundir a las computadoras y un nuevo conjunto de datos que incorporó datos de expresión facial, señales fisiológicas como la frecuencia cardíaca y la temperatura corporal y las emociones autoinformadas.
“Estas son señales informativas que pueden ser útiles; no son necesariamente decisivos”, dijo Dulberger, y señaló que se podrían agregar métricas basadas en inteligencia artificial emocional para brindar a los vendedores una mejor comprensión de lo que sucedió durante una reunión de ventas, por ejemplo, al detectar: “Creemos que los sentimientos se fueron al sur en esta parte de la llamada.”
Briscoe dijo que reconoció el valor potencial de las tecnologías basadas en inteligencia artificial emocional como herramientas de gestión para ayudar a determinar qué vendedores podrían estar experimentando problemas. Sin embargo, dijo, “las empresas deberían contratar personas que tengan algún nivel de inteligencia emocional. Si la gente de nuestro equipo no puede leer que alguien ha perdido el interés, esas son habilidades humanas básicas que no sé por qué necesitarías IA [para facilitar]".
Imagen: Uniphore
Incluso si la orientación emocional de la IA es atractiva para algunos equipos de ventas, su [validez está en duda] (https://www.nature.com/articles/d41586-020-00507-5).
"La afirmación de que el estado interior de una persona puede evaluarse con precisión mediante el análisis de la cara de esa persona se basa en evidencia inestable", escribió Kate Crawford en un [artículo] de 2021 (https://www.theatlantic.com/technology/archive/2021/ 04/artificial-intelligence-misreading-human-emotion/618696/) en The Atlantic. En el artículo, Crawford, un erudito en ética de la IA, profesor de investigación en la USC Annenberg e investigador principal sénior en Microsoft Research, citó un [artículo de investigación] de 2019 (https://journals.sagepub.com/doi/10.1177/1529100619832930) que declaró: “La evidencia científica disponible sugiere que las personas a veces sonríen cuando están felices, fruncen el ceño cuando están tristes, fruncen el ceño cuando están enojadas, y así sucesivamente, según lo propuesto por la opinión común, más de lo que se esperaría por casualidad. Sin embargo, la forma en que las personas comunican la ira, el disgusto, el miedo, la felicidad, la tristeza y la sorpresa varía sustancialmente entre culturas, situaciones e incluso entre personas dentro de una misma situación”.
“Podemos mirar caras y clasificarlas en diferentes expresiones emocionales establecidas por psicólogos que son bastante estándar”, dijo Patrick Ehlen, vicepresidente de IA de Uniphore.
Podrías estar sonriendo y asintiendo y, de hecho, estás pensando en tus vacaciones la próxima semana.
Ehlen dijo que la tecnología que ha desarrollado Uniphore usa las mismas señales que las personas usan para inferir lo que otros están pensando o sintiendo, como las expresiones faciales, el lenguaje corporal y el tono de voz. “Nos esforzamos por hacerlo tan bien como un ser humano”, dijo. El software de Uniphore incorpora tecnología de visión por computadora y análisis de emociones humanas que la compañía adquirió cuando compró Emotion Research Labs en 2021 por un precio no revelado.
El modelo de inteligencia artificial de Uniphore se entrenó utilizando conjuntos de datos privados y de código abierto con imágenes de diversos grupos étnicos de personas, dijo Ehlen. Algunos de esos datos provienen de reuniones de ventas reales que realizó la empresa. Para ayudar a la máquina a aprender qué señales faciales representan ciertos tipos de emociones, los datos de la imagen fueron etiquetados por personas contratadas por Uniphore para hacer esas anotaciones en función de un conjunto de pautas que la compañía estableció y luego modificó en función de si las personas estaban de acuerdo con ciertos criterios, dijo.
“En el futuro, siempre hay espacio para que estas cosas mejoren a medida que el sistema pasa a manos de dominios más grandes”, dijo Ehlen. La empresa también está realizando un estudio de validación del software.
Pero Ehlen reconoció las limitaciones de la tecnología. “No existe una forma objetiva real de medir las emociones de las personas”, dijo. “Podrías estar sonriendo y asintiendo y, de hecho, estás pensando en tus vacaciones la próxima semana”.