Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 811: Servicios de transcripción basados en IA supuestamente filtran conversaciones confidenciales en el lugar de trabajo

Traducido por IA
Descripción:
Traducido por IA
Asistentes de reuniones con IA, como OtterPilot de Otter.ai y AI Companion de Zoom, han compartido conversaciones confidenciales y privadas con más frecuencia que la audiencia prevista. Estas herramientas de IA, configuradas para grabar y distribuir automáticamente las transcripciones de las reuniones, supuestamente enviaron conversaciones confidenciales después de que los participantes abandonaran la reunión, lo que provocó la exposición involuntaria de información confidencial, violaciones de la privacidad y posibles daños a la reputación.
Editor Notes: Reconstructing the timeline of events and more details: In late September 2024, Alex Bilzerian received a transcript from Otter.ai after a Zoom meeting with venture capital investors. The transcript included sensitive post-meeting discussions that occurred after he had logged off. Following the incident, the investors apologized to Bilzerian for the unintentional leak of private information, but the damage was already done, leading to the cancellation of the deal. On October 2, 2024, The Washington Post published a report on the broader implications of AI-powered workplace tools sharing sensitive information without sufficient user control or discretion, using Bilzerian's account as a specific case to discuss these wider vulnerabilities and likely ongoing incidents among other users of the technology.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Otter.ai y Zoom developed an AI system deployed by Alex Bilzerian , Unnamed venture capital investors , Employees , Employers , Companies y Organizations, which harmed Alex Bilzerian , Unnamed venture capital investors , Employees , Employers , Companies y Organizations.

Estadísticas de incidentes

ID
811
Cantidad de informes
4
Fecha del Incidente
2024-10-02
Editores
Daniel Atherton
Applied Taxonomies
MIT

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

2.1. Compromise of privacy by obtaining, leaking or correctly inferring sensitive information

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Privacy & Security

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

+2
Los asistentes de inteligencia artificial están revelando nuestros vergonzosos secretos laborales
Algunos asistentes de inteligencia artificial tienen este gran defecto: hablan demasiadoUn fallo de inteligencia artificial expone conversaciones confidenciales: la IA de Otter transcribe conversaciones privadas después de que finaliza una reunión de Zoom
Los asistentes de inteligencia artificial están revelando nuestros vergonzosos secretos laborales

Los asistentes de inteligencia artificial están revelando nuestros vergonzosos secretos laborales

washingtonpost.com

Los servicios de transcripción de inteligencia artificial están revelando secretos de la empresa, según un informe

Los servicios de transcripción de inteligencia artificial están revelando secretos de la empresa, según un informe

entrepreneur.com

Algunos asistentes de inteligencia artificial tienen este gran defecto: hablan demasiado

Algunos asistentes de inteligencia artificial tienen este gran defecto: hablan demasiado

inc.com

Un fallo de inteligencia artificial expone conversaciones confidenciales: la IA de Otter transcribe conversaciones privadas después de que finaliza una reunión de Zoom

Un fallo de inteligencia artificial expone conversaciones confidenciales: la IA de Otter transcribe conversaciones privadas después de que finaliza una reunión de Zoom

timesnownews.com

Los asistentes de inteligencia artificial están revelando nuestros vergonzosos secretos laborales
washingtonpost.com · 2024
Traducido por IA

Los asistentes corporativos han sido durante mucho tiempo los guardianes de los chismes y secretos de la empresa. Ahora, la inteligencia artificial se está haciendo cargo de algunas de sus tareas, pero no comparte su sentido de la discreció…

Los servicios de transcripción de inteligencia artificial están revelando secretos de la empresa, según un informe
entrepreneur.com · 2024
Traducido por IA

¿Se puede confiar en la inteligencia artificial para que transmita información confidencial?

Esa era la pregunta que se planteaba cuando el popular servicio de transcripción de inteligencia artificial Otter, que tiene más de 14 millones de …

Algunos asistentes de inteligencia artificial tienen este gran defecto: hablan demasiado
inc.com · 2024
Traducido por IA

Lo extraño de la tecnología de IA es que es tan nueva y tan emocionante que sigue siendo divertido y novedoso incluirla en experiencias cotidianas como crear una publicación en las redes sociales, o en procesos comerciales cotidianos como g…

Un fallo de inteligencia artificial expone conversaciones confidenciales: la IA de Otter transcribe conversaciones privadas después de que finaliza una reunión de Zoom
timesnownews.com · 2024
Traducido por IA

Alex Bilzerian, ingeniero e investigador, sufrió recientemente un inquietante percance con la IA que involucraba a Otter AI, una popular herramienta de transcripción. Después de una reunión por Zoom con una empresa de capital de riesgo, Bil…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Selected by our editors
Faulty AI Transcription Threatens Integrity of Genoa Bribery Probe

Faulty AI Transcription Threatens Integrity of Genoa Bribery Probe

May 2024 · 1 informe
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 informes
Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Aug 2014 · 10 informes
Inappropriate Gmail Smart Reply Suggestions

Inappropriate Gmail Smart Reply Suggestions

Nov 2015 · 22 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Selected by our editors
Faulty AI Transcription Threatens Integrity of Genoa Bribery Probe

Faulty AI Transcription Threatens Integrity of Genoa Bribery Probe

May 2024 · 1 informe
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 informes
Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Aug 2014 · 10 informes
Inappropriate Gmail Smart Reply Suggestions

Inappropriate Gmail Smart Reply Suggestions

Nov 2015 · 22 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178