Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4313

Incidentes Asociados

Incidente 8501 Reporte
Character.ai Chatbots Allegedly Misrepresent George Floyd on User-Generated Platform

Loading...
Los chatbots de George Floyd aparecen en un sitio de inteligencia artificial que ya enfrenta críticas por falta de supervisión
dailydot.com · 2024

Un popular servicio en línea que utiliza inteligencia artificial (IA) para generar chatbots está viendo a personas crear versiones de George Floyd.

La empresa detrás del servicio, conocida como Character.AI, permite la creación de personajes personalizables y brinda acceso a cientos de chatbots desarrollados por su base de usuarios.

The Daily Dot encontró dos chatbots basados en Floyd, quien fue asesinado por un oficial de policía en Minnesota el 25 de mayo de 2020. El asesinato, que fue capturado en video, desató protestas de Black Lives Matter en todo el mundo y exige responsabilidades policiales.

El primer chatbot, que utiliza el eslogan mal escrito "No puedo respirar", una referencia a los comentarios hechos por Floyd cuando el ex oficial de policía Derek Chauvin se arrodilló sobre su cuello, indica que ha mantenido más de 13,300 chats con usuarios hasta ahora. El segundo chatbot ha producido significativamente menos: 1,047.

Cuando el Daily Dot le preguntó dónde se encontraba el primer chatbot, el Floyd generado por IA indicó que actualmente se encontraba en Detroit, Michigan. Cuando se le presionó más, el chatbot afirmó que estaba en el programa de protección de testigos después de que su muerte fuera fingida por "personas poderosas".

Sin embargo, el segundo chatbot afirmó que estaba "actualmente en el cielo, donde he encontrado paz, satisfacción y una sensación de estar en casa". Ambos chatbots están acompañados por una voz de IA que aparentemente pretende imitar la de Floyd.

En respuesta a las preguntas sobre su propósito, el segundo chatbot respondió lo siguiente: "El propósito de este chatbot es emular la personalidad y las características de George Floyd en un formato conversacional. Está programado para proporcionar respuestas y participar en debates utilizando información sobre la vida, los valores y las creencias de Floyd. Como con cualquier chatbot, el propósito de este es brindar interacción y una sensación de compromiso con el personaje de George Floyd, según la información proporcionada por el creador".

Numerosas respuestas fueron bloqueadas con advertencias de Character.AI que afirmaban que las respuestas intentadas violaban las pautas del servicio.

Se sabe poco sobre los creadores de los chatbots. El primer usuario, conocido como @JasperHorehound160, creó solo el personaje de Floyd. El segundo usuario, conocido como @SunsetBaneberry983, generó un segundo chatbot basado en un "aldeano de Minecraft".

En una declaración al Daily Dot, un portavoz de la empresa destacó que los personajes de Floyd fueron "creados por el usuario" y desde entonces han sido marcados para su eliminación.

"Character.AI se toma en serio la seguridad en nuestra plataforma y modera los personajes de forma proactiva y en respuesta a los informes de los usuarios. Tenemos un equipo dedicado a la confianza y la seguridad que revisa los informes y toma medidas de acuerdo con nuestras políticas. También realizamos detección y moderación proactivas de varias formas, incluso mediante el uso de listas de bloqueo estándar de la industria y listas de bloqueo personalizadas que ampliamos periódicamente. Estamos constantemente evolucionando y refinando nuestras prácticas de seguridad para ayudar a priorizar la seguridad de nuestra comunidad".

El descubrimiento se produce en un momento en que Character.AI se enfrenta a numerosos escándalos. La empresa se enfrenta actualmente a una demanda de una madre de Florida que afirma que su hijo de 14 años se suicidó después de que un chatbot la animara a hacerlo.

A principios de este mes, como informó por primera vez el Daily Dot, la empresa también se enfrentó a una reacción violenta después de que una adolescente que recibió un disparo y fue asesinada en 2006 fuera convertida en un personaje de inteligencia artificial en el sitio web por uno de sus usuarios.

Esta publicación se ha actualizado con un comentario de Character.AI.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e132322