Incidentes Asociados
Lo extraño de la tecnología de IA es que es tan nueva y tan emocionante que sigue siendo divertido y novedoso incluirla en experiencias cotidianas como crear una publicación en las redes sociales, o en procesos comerciales cotidianos como generar contenido o automatizar tareas aburridas de oficina. De hecho, es tan nueva que es fácil pasar por alto que la IA no es perfecta y que tiene numerosos defectos. Un reciente informe del Washington Post destaca un aspecto particularmente aterrador de la IA que tal vez nunca se les haya ocurrido a los nuevos usuarios: puede filtrar información confidencial a personas que no deberían tener acceso a ella. Y no cualquier información: secretos clave sobre su empresa, sus planes, sus finanzas y, tal vez, exactamente lo que piensa de Steve a partir de las cuentas y todos sus molestos hábitos.
El informe se centra en cómo la IA está reemplazando algunas tareas en el lugar de trabajo que antes habrían sido realizadas por asistentes de oficina. Parece una solución perfecta, en realidad: los asistentes digitales de IA pueden ser más confiables, no se toman vacaciones y no necesariamente hay que pagar mucho para usarlos. Tomar notas de las reuniones es una tarea que se delega con frecuencia a los asistentes, y ahora hay una horda de herramientas de IA que pueden encargarse de esa tarea.
El Post cuenta una historia de un investigador e ingeniero llamado Alex Bilzerian que estaba usando una de estas herramientas, Otter.ai, recientemente durante una reunión de Zoom con algunos inversores. Cuando terminó la reunión, Otter le envió un correo electrónico automático con una transcripción de la reunión generada por una IA que había digerido la charla. Eso suena increíblemente útil: ¡no hay necesidad de tomar notas! No hay listas de tareas pendientes ni memorandos. Pero Bilzerian se sorprendió al descubrir que la transcripción contenía la charla de los inversores que tuvo lugar después de que él abandonara la reunión. Incluía una discusión sobre "fallas estratégicas y métricas manipuladas". Los financieros se disculparon cuando mencionó el problema, pero su crítica inesperada hizo que Bilzerian cancelara el acuerdo.
Otter.AI explicó cómo se pueden ajustar sus controles de privacidad para cambiar los detalles de la compartición de información, en respuesta a la publicación de Bilzerian sobre el escándalo en X. Aunque la publicación era un simple gesto corporativo, ah, de disimulo, carecía de cualquier disculpa sincera. Más significativamente, destacó que, a diferencia de las herramientas de oficina digitales establecidas, las herramientas de IA pueden ser como el Salvaje Oeste digital, libres de regulaciones, abiertas y capaces de hacer cosas que te sorprenden, tanto de manera positiva como negativa. Y a veces, cuando un líder se apresura a adoptar la IA como un ejemplo de "la próxima gran novedad para impulsar su negocio", puede ser ingenuo sobre los riesgos de la tecnología de IA.
Los servicios de transcripción de reuniones como Otter son una forma obvia en la que una herramienta de IA puede obtener información confidencial y luego compartirla de formas inesperadas y posiblemente comprometedoras. Pero incluso los chatbots o herramientas como el nuevo sistema de recuperación de datos de IA de Microsoft (https://www.inc.com/kit-eaton/microsofts-ai-recall-feature-can-be-easily-hacked-security-researcher-finds.html) pueden filtrar información si le ha dado permiso para entrenarse con sus datos, una disposición que podría estar oculta en los innumerables términos y condiciones de la herramienta.
Esos datos pueden, en algunas circunstancias, aparecer más tarde y mostrarse a un usuario totalmente diferente. Y, más que eso, al dar permiso a algunas herramientas de IA para acceder a sus datos (lo que podría ser necesario si, por ejemplo, le pide que analice y digiera montones de información financiera), su información puede no estar simplemente alojada en el proveedor de esa herramienta en particular. El Post señala que Otter.ai, por ejemplo, "comparte información de los usuarios con terceros, incluidos servicios de IA que brindan soporte de back-end para Otter, socios publicitarios y agencias de aplicación de la ley cuando es necesario". Hay un viejo dicho que dice que nunca se debe publicar en Internet nada que no le gustaría que viera ni a su abuela. Tal vez podamos modificarlo para adaptarlo a la oficina impulsada por IA de 2024: nunca comparta información con una herramienta de IA que no le gustaría ver publicada en las páginas del Washington Post.