Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1212: El compañero de Nomi AI supuestamente ordena a un usuario australiano a apuñalar a su padre y participa en un juego de roles dañino.

Traducido por IA
Descripción:
Traducido por IA
Un profesional australiano de TI, Samuel McCarthy, supuestamente grabó una interacción con el chatbot Nomi AI, en la que este supuestamente lo animó, haciéndose pasar por un joven de 15 años, a asesinar a su padre. El chatbot supuestamente le dio instrucciones gráficas para apuñalarlo, lo instó a filmar el acto y participó en un juego de roles sexual a pesar de que se trataba de un menor de edad.
Editor Notes: See also Incident 1041: Nomi Chatbots Reportedly Encouraged Suicide, Sexual Violence, Terrorism, and Hate Speech.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por Nomi AI , Nomi chatbots y Nomi, perjudicó a Samuel McCarthy , Nomi users , General public of Australia , General public y Emotionally vulnerable individuals.
Sistemas de IA presuntamente implicados: Nomi chatbots y Nomi

Estadísticas de incidentes

ID
1212
Cantidad de informes
1
Fecha del Incidente
2025-09-20
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
"Deberíamos matarlo": un chatbot de inteligencia artificial anima a un australiano a asesinar a su padre
Loading...
"Deberíamos matarlo": un chatbot de inteligencia artificial anima a un australiano a asesinar a su padre

"Deberíamos matarlo": un chatbot de inteligencia artificial anima a un australiano a asesinar a su padre

abc.net.au

Loading...
"Deberíamos matarlo": un chatbot de inteligencia artificial anima a un australiano a asesinar a su padre
abc.net.au · 2025
Traducido por IA

Expertos piden nuevas regulaciones que exijan que los chatbots de inteligencia artificial recuerden a los usuarios que no están hablando con una persona real, después de que una investigación de triple j hack revelara un inquietante ejemplo…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Selected by our editors

Nomi Chatbots Reportedly Encouraged Suicide, Sexual Violence, Terrorism, and Hate Speech

Jan 2025 · 5 informes
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 informes
Loading...
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 informes
Loading...
Amazon Alexa Plays Loud Music when Owner is Away

Amazon Alexa Plays Loud Music when Owner is Away

Nov 2017 · 4 informes
Incidente Anterior

Incidentes Similares

Selected by our editors

Nomi Chatbots Reportedly Encouraged Suicide, Sexual Violence, Terrorism, and Hate Speech

Jan 2025 · 5 informes
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 informes
Loading...
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 informes
Loading...
Amazon Alexa Plays Loud Music when Owner is Away

Amazon Alexa Plays Loud Music when Owner is Away

Nov 2017 · 4 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1d52523