Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4147

Incidentes Asociados

Incidente 8116 Reportes
AI-Powered Transcription Services Allegedly Leak Confidential Workplace Discussions

Loading...
Los asistentes de inteligencia artificial están revelando nuestros vergonzosos secretos laborales
washingtonpost.com · 2024

Los asistentes corporativos han sido durante mucho tiempo los guardianes de los chismes y secretos de la empresa. Ahora, la inteligencia artificial se está haciendo cargo de algunas de sus tareas, pero no comparte su sentido de la discreción.

El investigador e ingeniero Alex Bilzerian dijo en X la semana pasada que, después de una reunión de Zoom con algunos inversores de capital de riesgo, recibió un correo electrónico automático de Otter.ai, un servicio de transcripción con un "asistente de reuniones de IA". El correo electrónico contenía una transcripción de la reunión, incluida la parte que sucedió después de que Bilzerian cerrara la sesión, cuando los inversores discutieron los fracasos estratégicos de su empresa y manipularon las métricas, le dijo a The Washington Post a través de un mensaje directo en X.

Los inversores, a quienes no nombró, "se disculparon profusamente" una vez que se lo hizo saber, pero el daño ya estaba hecho. Esa charla posterior a la reunión hizo que Bilzerian decidiera cancelar el acuerdo, dijo.

Las empresas están incorporando funciones de IA a los productos de trabajo en todos los ámbitos. Más recientemente, Salesforce anunció una oferta de IA llamada Agentforce, que permite a los clientes crear agentes virtuales impulsados por IA que ayudan con las ventas y el servicio al cliente. Microsoft ha estado aumentando las capacidades de su AI Copilot en su conjunto de productos de trabajo, mientras que Google ha estado haciendo lo mismo con Gemini. Incluso la herramienta de chat en el lugar de trabajo Slack se ha sumado al juego, agregando funciones de IA que pueden resumir conversaciones, buscar temas y crear resúmenes diarios. Pero la IA no puede leer la sala como lo hacen los humanos, y muchos usuarios no se detienen a verificar configuraciones importantes o considerar lo que podría suceder cuando las herramientas automatizadas accedan a gran parte de su vida laboral.

Otter respondió al hilo de Bilzerian en X, diciendo que los usuarios "tienen control total sobre los permisos para compartir conversaciones y pueden cambiar, actualizar o detener los permisos para compartir una conversación en cualquier momento. Para este caso específico, los usuarios tienen la opción de no compartir transcripciones automáticamente con nadie o compartir conversaciones automáticamente solo con usuarios que comparten el mismo dominio de Workspace".

También compartió un enlace a una guía que muestra cómo los usuarios pueden cambiar su configuración.

Los inversores sofisticados no son los únicos que se ven perjudicados por las nuevas funciones de IA. Los empleados de base también corren el riesgo de que las herramientas impulsadas por IA registren y compartan información perjudicial.

"Creo que es un gran problema porque la tecnología está proliferando tan rápido y la gente no ha interiorizado realmente lo invasiva que es", dijo Naomi Brockwell, defensora de la privacidad e investigadora. Brockwell dijo que la combinación de grabación constante y transcripción impulsada por IA erosiona nuestra privacidad en el trabajo y nos expone a demandas, represalias y filtraciones de secretos.

A veces, los tomadores de notas de IA capturan momentos que no estaban destinados a oídos externos. Isaac Naor, un diseñador de software en Los Ángeles, dijo que una vez recibió una transcripción de Otter después de una reunión de Zoom que contenía momentos en los que la otra participante se silenciaba para hablar de él. Ella no tenía idea y Naor se sintió demasiado incómodo como para decírselo, dijo.

OtterPilot, la función de inteligencia artificial de Otter que graba, transcribe y resume reuniones, solo graba el audio de la reunión virtual, lo que significa que si alguien está silenciado, su audio no se grabará. Pero si los usuarios presionan manualmente grabar, Otter recibe el audio del micrófono y los parlantes. Entonces, si el micrófono puede escuchar la conversación, Otter también puede.

Otras veces, la mera presencia de una herramienta de inteligencia artificial hace que las reuniones sean incómodas. Rob Bezdjian, propietario de una pequeña empresa de eventos en Salt Lake City, dijo que tuvo una llamada incómoda con posibles inversores después de que insistieran en grabar una reunión a través de Otter. Bezdjian no quería que se grabaran sus ideas patentadas, por lo que se negó a compartir algunos detalles sobre su negocio. El acuerdo no se concretó.

En los casos en que Otter comparte una transcripción, se notificará a los asistentes a la reunión que se está procesando una grabación, señaló la empresa. Si alguien usa OtterPilot, los asistentes recibirán una notificación en el chatbot de la reunión o por correo electrónico, y OtterPilot aparecerá como otro participante. Los usuarios que conectan sus calendarios a sus cuentas de Otter también pueden cambiar su configuración de uso compartido automático a "todos los invitados al evento" para compartir notas de la reunión automáticamente después de hacer clic en grabar.

Junto con la información que los usuarios proporcionan durante el registro, OtterPilot recopila capturas de pantalla automáticas de reuniones virtuales, texto, imágenes o videos que los usuarios cargan. Otter comparte la información del usuario con terceros, incluidos los servicios de inteligencia artificial que brindan soporte de back-end para Otter, socios publicitarios y agencias de aplicación de la ley cuando es necesario.

De manera similar, la función AI Companion de Zoom puede enviar resúmenes de reuniones a todos los asistentes. Los participantes reciben una notificación y ven un ícono brillante o una insignia de grabación cuando se está grabando una reunión o se está utilizando Companion. La configuración predeterminada de Zoom es enviar resúmenes al anfitrión de la reunión.

Ambas empresas dijeron que los usuarios deben ajustar su configuración para evitar compartir información no deseada. Otter también "recomienda enfáticamente" pedir consentimiento al usar la herramienta en reuniones. Y recuerde: si la configuración de compartir automáticamente está activada para todos los participantes, todos recibirán detalles de la reunión completa grabada, no solo de la parte a la que asistió esa persona.

Pero Hatim Rahman, profesor asociado de la Escuela de Administración Kellogg de la Universidad Northwestern que estudia los efectos de la IA en el trabajo, cree que la responsabilidad recae tanto en las empresas como en los usuarios para garantizar que los productos de IA no generen consecuencias inesperadas en el trabajo.

"Las empresas deben ser conscientes de que personas de diferentes edades y habilidades tecnológicas van a utilizar estos productos", dijo. Los usuarios podrían asumir que la IA debería saber cuándo los asistentes abandonan las reuniones y, por lo tanto, no enviarles esas partes de la transcripción. "Es una suposición muy razonable".

Aunque los usuarios deberían tomarse el tiempo para familiarizarse con la tecnología, las empresas podrían generar más fricción en el producto de modo que si algunos asistentes se van a mitad de la reunión, por ejemplo, podrían pedirle al organizador que confirme si aún deben recibir la transcripción completa.

Con demasiada frecuencia, los ejecutivos que deciden implementar herramientas de IA en toda la empresa no están bien versados en los riesgos, dijo el consultor de ciberseguridad Will Andre. En su anterior carrera como vendedor, una vez se topó con un video de sus jefes decidiendo quién sería despedido en una próxima ronda de despidos. El software que grababa la reunión de video había sido configurado para guardar automáticamente una copia en el servidor público de la empresa. (Decidió fingir que nunca lo había visto).

"No siempre te corresponde a ti como empleado cuestionar el uso de algunas de estas tecnologías en los lugares de trabajo", dijo Andre. Pero los empleados, señaló, son los que más tienen que perder.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd