Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 811: AI-Powered Transcription Services Allegedly Leak Confidential Workplace Discussions

Descripción: AI-powered meeting assistants, such as Otter.ai’s OtterPilot and Zoom's AI Companion, have reportedly shared sensitive and private conversations beyond the intended audience. These AI tools, which are set to automatically record and distribute meeting transcripts, allegedly sent confidential discussions after participants had left the meeting, the consequences of which led to unintended exposure of proprietary information, privacy breaches, and potential reputational harm.
Editor Notes: Reconstructing the timeline of events and more details: In late September 2024, Alex Bilzerian received a transcript from Otter.ai after a Zoom meeting with venture capital investors. The transcript included sensitive post-meeting discussions that occurred after he had logged off. Following the incident, the investors apologized to Bilzerian for the unintentional leak of private information, but the damage was already done, leading to the cancellation of the deal. On October 2, 2024, The Washington Post published a report on the broader implications of AI-powered workplace tools sharing sensitive information without sufficient user control or discretion, using Bilzerian's account as a specific case to discuss these wider vulnerabilities and likely ongoing incidents among other users of the technology.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Otter.ai y Zoom developed an AI system deployed by Alex Bilzerian , Unnamed venture capital investors , Employees , Employers , Companies y Organizations, which harmed Alex Bilzerian , Unnamed venture capital investors , Employees , Employers , Companies y Organizations.

Estadísticas de incidentes

ID
811
Cantidad de informes
4
Fecha del Incidente
2024-10-02
Editores
Daniel Atherton
Applied Taxonomies
MIT

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

2.1. Compromise of privacy by obtaining, leaking or correctly inferring sensitive information

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Privacy & Security

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

+2
Los asistentes de inteligencia artificial están revelando nuestros vergonzosos secretos laborales
Algunos asistentes de inteligencia artificial tienen este gran defecto: hablan demasiadoUn fallo de inteligencia artificial expone conversaciones confidenciales: la IA de Otter transcribe conversaciones privadas después de que finaliza una reunión de Zoom
Los asistentes de inteligencia artificial están revelando nuestros vergonzosos secretos laborales

Los asistentes de inteligencia artificial están revelando nuestros vergonzosos secretos laborales

washingtonpost.com

Los servicios de transcripción de inteligencia artificial están revelando secretos de la empresa, según un informe

Los servicios de transcripción de inteligencia artificial están revelando secretos de la empresa, según un informe

entrepreneur.com

Algunos asistentes de inteligencia artificial tienen este gran defecto: hablan demasiado

Algunos asistentes de inteligencia artificial tienen este gran defecto: hablan demasiado

inc.com

Un fallo de inteligencia artificial expone conversaciones confidenciales: la IA de Otter transcribe conversaciones privadas después de que finaliza una reunión de Zoom

Un fallo de inteligencia artificial expone conversaciones confidenciales: la IA de Otter transcribe conversaciones privadas después de que finaliza una reunión de Zoom

timesnownews.com

Los asistentes de inteligencia artificial están revelando nuestros vergonzosos secretos laborales
washingtonpost.com · 2024
Traducido por IA

Los asistentes corporativos han sido durante mucho tiempo los guardianes de los chismes y secretos de la empresa. Ahora, la inteligencia artificial se está haciendo cargo de algunas de sus tareas, pero no comparte su sentido de la discreció…

Los servicios de transcripción de inteligencia artificial están revelando secretos de la empresa, según un informe
entrepreneur.com · 2024
Traducido por IA

¿Se puede confiar en la inteligencia artificial para que transmita información confidencial?

Esa era la pregunta que se planteaba cuando el popular servicio de transcripción de inteligencia artificial Otter, que tiene más de 14 millones de …

Algunos asistentes de inteligencia artificial tienen este gran defecto: hablan demasiado
inc.com · 2024
Traducido por IA

Lo extraño de la tecnología de IA es que es tan nueva y tan emocionante que sigue siendo divertido y novedoso incluirla en experiencias cotidianas como crear una publicación en las redes sociales, o en procesos comerciales cotidianos como g…

Un fallo de inteligencia artificial expone conversaciones confidenciales: la IA de Otter transcribe conversaciones privadas después de que finaliza una reunión de Zoom
timesnownews.com · 2024
Traducido por IA

Alex Bilzerian, ingeniero e investigador, sufrió recientemente un inquietante percance con la IA que involucraba a Otter AI, una popular herramienta de transcripción. Después de una reunión por Zoom con una empresa de capital de riesgo, Bil…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Selected by our editors
Faulty AI Transcription Threatens Integrity of Genoa Bribery Probe

The judicial system underestimates the errors of automatic transcription

May 2024 · 1 informe
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 informes
Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Working Anything but 9 to 5

Aug 2014 · 10 informes
Inappropriate Gmail Smart Reply Suggestions

Computer, respond to this email: Introducing Smart Reply in Inbox by Gmail

Nov 2015 · 22 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Selected by our editors
Faulty AI Transcription Threatens Integrity of Genoa Bribery Probe

The judicial system underestimates the errors of automatic transcription

May 2024 · 1 informe
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 informes
Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Working Anything but 9 to 5

Aug 2014 · 10 informes
Inappropriate Gmail Smart Reply Suggestions

Computer, respond to this email: Introducing Smart Reply in Inbox by Gmail

Nov 2015 · 22 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df