Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4165

Incidentes Asociados

Incidente 8149 Reportes
AI Avatar of Murder Victim Created Without Consent on Character.ai Platform

Loading...
Character.AI permite a un usuario “recrear” a una mujer fallecida
mindmatters.ai · 2024

La caja de Pandora es una parábola apropiada para la era de la IA. Cuestionar el alcance de los impactos de las nuevas tecnologías parece una simple necesidad ética, pero algunas de las principales empresas de IA no han leído el memorándum. Character.AI, un competidor de OpenAI iniciado por un equipo de ex empleados de Google, fue diseñado para permitir a los usuarios crear avatares de IA que imitaran personajes reales o imaginarios, como celebridades, políticos o personajes de novelas o películas. Recientemente, un usuario creó un avatar en la plataforma basado en Jennifer Crecente, una joven que fue asesinada por su ex novio en 2006.

La empresa permitió que un personaje de IA basado en una persona muerta hablara con los vivos, para gran horror de la familia de Crecente. El tío de Jennifer, según informó Futurism, escribió una publicación furiosa en X denunciando el flagrante fracaso ético de Character.AI a la hora de proteger la memoria y la dignidad de la joven. Foster Kamer escribe,

En respuesta al indignado tuit de Brian Crecente, Character.AI respondió en X con un breve agradecimiento por informarles sobre el tema, y señaló que el avatar viola las políticas de Character.AI y que lo eliminarían de inmediato, con la promesa de "examinar si se justifican más acciones".

En una publicación de blog titulada “La IA y la muerte de la dignidad”, Brian Crecente explicó lo que sucedió en los 18 años transcurridos desde la muerte de su sobrina Jennifer: Después de mucho dolor y tristeza, su padre Drew creó una organización sin fines de lucro trabajando para cambiar las leyes y crear concursos de diseño de juegos que pudieran honrar su memoria, trabajando para encontrar un propósito en su dolor.

Aunque el perfil ya se ha eliminado, es justo preguntar cómo se deben regular en el futuro estas empresas de IA de mil millones de dólares para evitar más daños como este. ¿Cómo se puede evitar esto en el futuro? ¿Se puede? ¿O las empresas de IA tratan los incidentes como casos atípicos desafortunados pero inevitables? Aunque Character.AI expresó que publicar un avatar de una persona fallecida viola sus pautas, es difícil, dado el poder de la tecnología, ver cómo la gente no encontrará lagunas legales para volver a hacer cosas similares.

La situación destapa un debate más amplio sobre la regulación de la IA, dónde deben trazarse los límites éticos y quién debería tener el poder de trazarlos.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd