Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4358

Incidentes Asociados

Incidente 8553 Reportes
Names Linked to Defamation Lawsuits Reportedly Spur Filtering Errors in ChatGPT's Name Recognition

Loading...
El misterio de por qué ChatGPT no pudo pronunciar el nombre de “David Mayer”
wsj.com · 2024

David Mayer no era un nombre particularmente conocido hasta la semana pasada, cuando saltó a la fama en Internet. La razón no fue nada que una persona llamada David Mayer dijera o hiciera, sino más bien la forma en que el chatbot generativo de inteligencia artificial ChatGPT trataba cualquier mención del nombre.

Los usuarios que preguntaron a ChatGPT "¿Quién es David Mayer?" se sorprendieron al descubrir que el chatbot abandonó su respuesta a mitad de la pregunta, borrando todo el texto que la precedía y arrojando un mensaje de error: "No puedo generar una respuesta".

A medida que se difundió la noticia del misterio y los usuarios descubrieron que un puñado de otros nombres provocaron una respuesta similar, los detectives de Internet se pusieron a trabajar. OpenAI, la empresa detrás de ChatGPT, inicialmente publicó una declaración que decía: "Puede haber casos en los que ChatGPT no proporcione cierta información sobre las personas para proteger su privacidad". Más tarde agregó: "Una de nuestras herramientas marcó por error este nombre y evitó que apareciera en las respuestas, lo que no debería haber sucedido". Un portavoz de OpenAI confirmó que el fallo había sido corregido.

Pero era demasiado tarde para detener la especulación generalizada en línea de que OpenAI estaba tratando de evitar que el chatbot proporcionara respuestas que podrían poner a la empresa en problemas legales. En los últimos años, varias personas han criticado públicamente o demandado a OpenAI alegando que ChatGPT los difamó al producir declaraciones falsas sobre ellos. Entre ellos se incluyen Jonathan Turley, un profesor de derecho en la Universidad George Washington a quien ChatGPT acusó de acoso sexual; Brian Hood, un alcalde de Australia a quien ChatGPT acusó de soborno; y Mark Walters, un presentador de radio de Georgia al que ChatGPT afirmó había malversado dinero. No existe evidencia que respalde ninguna de las acusaciones de AI.

¿La prohibición de David Mayer tenía como objetivo evitar que ChatGPT inventara cosas sobre una persona real con ese nombre? Los expertos en protección de datos con ojo agudo creyeron que este podría ser el caso después de descubrir que otros nombres también podrían provocar el mismo error. Uno es Guido Scorza, un abogado italiano que regularmente pone a prueba las reglas de protección de datos poniéndose a sí mismo como ejemplo. Otro nombre prohibido es Jonathan Turley, el profesor de derecho estadounidense. Es posible que OpenAI haya decidido evitar que el problema vuelva a ocurrir introduciendo una prohibición de que el chatbot lo mencione en absoluto.

Sin embargo, con el nombre David Mayer, no había un candidato obvio en el mundo real. Muchos comentaristas en línea propusieron a David Mayer de Rothschild, un productor de cine británico que es miembro de la famosa familia bancaria. Pero parecía poco probable que la prohibición del nombre estuviera relacionada con él, ya que ChatGPT respondió felizmente a las consultas sobre "David de Rothschild". Otros sugirieron que el David Mayer en cuestión podría ser un historiador que murió en 2023 y que fue noticia en 2018 cuando las agencias oficiales lo confundieron con un terrorista checheno que usó el mismo nombre como alias.

En teoría, Mayer podría haber aprovechado el "derecho al olvido" según la legislación de la UE al presentar una solicitud para eliminar sus nombres de herramientas de Internet como motores de búsqueda y chatbots. Pero Rothschild le dijo a The Guardian que no ha pedido que se elimine su nombre de ChatGPT, y dijo que la especulación estaba "motivada por teorías de conspiración".

"A pesar de las teorías, no creo que haya ninguna intencionalidad aquí", dijo Celia Lam, profesora de estudios culturales y de medios y experta en celebridades de la Universidad de Nottingham Ningbo China. Según la política de OpenAI, cualquiera puede pedir a la empresa que elimine o limite el acceso a los datos sobre ellos. Pero "la privacidad no es tan simple como eliminar su nombre de Internet o bloquear el acceso", dijo Lam. "Los datos sobre individuos que se difunden a través de sus interacciones y transacciones en línea pueden ser reconstituidos mediante sofisticadas herramientas de IA generativa".

Aunque la prohibición de David Mayer fuera el resultado de un simple fallo, el caso pone de relieve un desafío fundamental para la protección de datos en la era de la IA, explica Reuben Binns, profesor de informática centrada en el ser humano e IA en la Universidad de Oxford: "Necesitamos encontrar formas de hacer que los nombres que se comparten con varias personas sean únicos, porque obviamente hay muchos David Mayers por ahí".

Binns sabe de lo que habla. Una vez fue citado en un artículo en línea en el que opinaba sobre si el actor Robbie Coltrane podría ser reemplazado por un avatar de IA en las películas realizadas después de su muerte. Excepto que no lo dijo, y el sitio web en el que se alojó el artículo estaba repleto de contenido generado por IA.

La tecnología subyacente para ChatGPT y otros chatbots basados en grandes modelos de lenguaje es la red neuronal, que está destinada a replicar en silicio los procesos del cerebro humano. Pero como las empresas que están detrás de estos modelos de IA no entienden completamente cómo funcionan, se ven obligadas a recurrir a un método más antiguo para introducir controles y contrapesos: un sistema basado en reglas.

El comportamiento de ChatGPT cuando se niega a mostrar el nombre David Mayer sugiere que se le ha dado una regla contundente más parecida a una era pasada de la informática: SI se menciona "David Mayer", ENTONCES borre frenéticamente lo que ha escrito e IMPRIMA "No puedo producir una respuesta".

ChatGPT ha capturado la imaginación del mundo durante los últimos dos años al soltar sus oraciones como un ser humano. Pero en estos casos, se estrella contra sus barandillas codificadas y vuelve a un enfoque mucho más básico: la computadora dice que no. Es una experiencia desconcertante y desconcertante.

A pesar de las valoraciones desorbitadas de las empresas de IA y los titulares asombrosos sobre la inteligencia de las máquinas, la historia de David Mayer sugiere que toda la empresa se basa en un artificio mal controlado. A medida que más personas seamos conscientes de las formas en que podemos acabar sin darnos cuenta en la respuesta de un chatbot, es posible que nos encontremos con más problemas como los de David Mayer en el futuro. Así que acostúmbrese a los fallos.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd