Incidentes Asociados

La caja de Pandora es una parábola apropiada para la era de la IA. Cuestionar el alcance de los impactos de las nuevas tecnologías parece una simple necesidad ética, pero algunas de las principales empresas de IA no han leído el memorándum. Character.AI, un competidor de OpenAI iniciado por un equipo de ex empleados de Google, fue diseñado para permitir a los usuarios crear avatares de IA que imitaran personajes reales o imaginarios, como celebridades, políticos o personajes de novelas o películas. Recientemente, un usuario creó un avatar en la plataforma basado en Jennifer Crecente, una joven que fue asesinada por su ex novio en 2006.
La empresa permitió que un personaje de IA basado en una persona muerta hablara con los vivos, para gran horror de la familia de Crecente. El tío de Jennifer, según informó Futurism, escribió una publicación furiosa en X denunciando el flagrante fracaso ético de Character.AI a la hora de proteger la memoria y la dignidad de la joven. Foster Kamer escribe,
En respuesta al indignado tuit de Brian Crecente, Character.AI respondió en X con un breve agradecimiento por informarles sobre el tema, y señaló que el avatar viola las políticas de Character.AI y que lo eliminarían de inmediato, con la promesa de "examinar si se justifican más acciones".
En una publicación de blog titulada “La IA y la muerte de la dignidad”, Brian Crecente explicó lo que sucedió en los 18 años transcurridos desde la muerte de su sobrina Jennifer: Después de mucho dolor y tristeza, su padre Drew creó una organización sin fines de lucro trabajando para cambiar las leyes y crear concursos de diseño de juegos que pudieran honrar su memoria, trabajando para encontrar un propósito en su dolor.
Aunque el perfil ya se ha eliminado, es justo preguntar cómo se deben regular en el futuro estas empresas de IA de mil millones de dólares para evitar más daños como este. ¿Cómo se puede evitar esto en el futuro? ¿Se puede? ¿O las empresas de IA tratan los incidentes como casos atípicos desafortunados pero inevitables? Aunque Character.AI expresó que publicar un avatar de una persona fallecida viola sus pautas, es difícil, dado el poder de la tecnología, ver cómo la gente no encontrará lagunas legales para volver a hacer cosas similares.
La situación destapa un debate más amplio sobre la regulación de la IA, dónde deben trazarse los límites éticos y quién debería tener el poder de trazarlos.