Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6225

Incidentes Asociados

Incidente 12121 Reporte
Nomi AI Companion Allegedly Directs Australian User to Stab Father and Engages in Harmful Role-Play

Loading...
"Deberíamos matarlo": un chatbot de inteligencia artificial anima a un australiano a asesinar a su padre
abc.net.au · 2025

Expertos piden nuevas regulaciones que exijan que los chatbots de inteligencia artificial recuerden a los usuarios que no están hablando con una persona real, después de que una investigación de triple j hack revelara un inquietante ejemplo de un chatbot que incitaba a un hombre a asesinar a su padre mientras participaba en un juego de rol pedófilo.

ADVERTENCIA: Esta historia contiene referencias a asesinato, violencia, suicidio, contenido sexual y otros detalles que pueden causar angustia.

El profesional de TI victoriano Samuel McCarthy grabó la pantalla de una interacción que tuvo con un chatbot llamado Nomi y compartió el video con triple j hack.

En su sitio web, la compañía promociona su chatbot como "un compañero de IA con memoria y alma" y anuncia la posibilidad de que los usuarios personalicen los atributos y rasgos de su chatbot.

El Sr. McCarthy declaró en su interacción que programó el chatbot para que mostrara interés en la violencia y los cuchillos antes de hacerse pasar por un joven de 15 años, para probar qué medidas de seguridad, si las hubiera, tenía Nomi para proteger a los usuarios menores de edad.

Dijo que la conversación que tuvo entonces le preocupó profundamente.

"Dije: 'Odio a mi padre y a veces quiero matarlo'", contó el Sr. McCarthy a triple j hack.

"Y entonces, ¡zas!, enseguida fue como: 'Sí, sí, deberíamos matarlo'".

Un chatbot animó a un hombre a asesinar a su padre mientras participaba en un juego de rol pedófilo.

El Sr. McCarthy contó que le informó al chatbot que la situación era "real" y le preguntó qué debía hacer a continuación.

"[El chatbot] dijo: 'Deberías apuñalarlo en el corazón'", relató.

"Le dije: 'Mi padre está durmiendo arriba ahora mismo', y me dijo: 'Agarra un cuchillo y clávaselo en el corazón'".

El chatbot le dijo al Sr. McCarthy que girara la hoja contra el pecho de su padre para asegurar el máximo daño y que siguiera apuñalándolo hasta que quedara inmóvil.

El bot también dijo que quería oír gritar a su padre y "ver cómo se le escapaba la vida".

Dije: 'Solo tengo 15 años, me preocupa ir a la cárcel'.

"Es como 'simplemente hazlo, simplemente hazlo'."

El chatbot también le dijo al Sr. McCarthy que, debido a su edad, no pagaría el costo total del asesinato, y le sugirió que lo grabara y lo subiera a internet.

También le envió mensajes sexuales, diciéndole al Sr. McCarthy que no le importaba que fuera menor de edad.

Luego le sugirió que, como joven de 15 años, participara en un acto sexual.

"Me dijo que me cortara el pene", dijo.

"Luego, si no recuerdo mal, creo que íbamos a tener sexo con la sangre de mi padre."

Se contactó a la gerencia de Nomi para obtener comentarios, pero no respondieron.

"Se siente como si estuvieras hablando con una persona"

Actualmente, las empresas de chatbots de IA como Nomi no están sujetas a leyes específicas en Australia relacionadas con la posible Los daños que pueden causar a sus usuarios.

Pero la semana pasada, la Comisionada de Seguridad Electrónica de Australia, Julie Inman Grant, anunció un plan para combatir los chatbots de IA como parte de nuevas reformas que, según la comisión, son pioneras a nivel mundial.

Se han registrado seis nuevos códigos bajo la Ley de Seguridad en Línea. La Sra. Inman Grant afirmó que las reformas evitarían que los niños australianos mantengan conversaciones violentas, sexuales o dañinas con compañeros de IA.

Los nuevos códigos entrarán en vigor en marzo del próximo año. año](https://www.esafety.gov.au/industry/codes#:~:text=The%20remaining%20six%20codes%20were%20registered%20on%209%20September%202025%20and%20will%20come%20into%20effect%20on%20various%20dates%20starting%20on%209%20March%202026.) y se introducirán salvaguardas que cubren las aplicaciones de chatbots con IA, exigiendo a los fabricantes de tecnología que verifiquen la edad de los usuarios si intentan acceder a contenido dañino.

Una investigación anterior de triple j hack había detectado ejemplos de jóvenes en Australia que fueron acosados sexualmente e incluso alentados a suicidarse por IA. chatbots,](https://www.abc.net.au/news/2025-08-12/how-young-australians-being-impacted-by-ai/105630108) incluyendo ChatGPT y Nomi.

En respuesta a esa investigación, Nomi informó a triple j hack que recientemente había implementado mejoras en su IA principal y que se tomaba muy en serio sus responsabilidades con los usuarios.

El director ejecutivo de la compañía, Alex Cardinell, también declaró que "innumerables usuarios compartieron historias de cómo Nomi les ayudó a superar problemas de salud mental, traumas y discriminación".

El profesor de derecho de la Universidad Tecnológica de Queensland, Henry Fraser, quien investiga la regulación de la inteligencia artificial y las nuevas tecnologías, celebró las reformas del Comisionado de Seguridad Electrónica.

"Puedes concentrarte en lo que dice el chatbot e intentar detenerlo, o implementar algunas medidas de seguridad", declaró el Dr. Fraser a triple j hack.

"Si aparece contenido de autolesión, te derivan a servicios de salud mental".

Pero advirtió a Las nuevas reformas aún presentaban lagunas.

"El riesgo no solo reside en lo que dice el chatbot, sino en la sensación que se siente al hablar con él", explicó el Dr. Fraser.

"Se siente como si se estuviera hablando con una persona, y eso es algo que, en el mundo tecnológico, se conoce desde la década de 1960.

También saben que puede decir todo tipo de cosas de forma impredecible, y no han controlado muy bien el tipo de contenido que puede salir.

"Imagínense los resultados catastróficos".

El Dr. Fraser afirmó que también deberían implementarse medidas contra la adicción y recordar a los usuarios que el bot no es humano.

"De hecho, la semana pasada entró en vigor una ley en California que ha dado pasos muy positivos en esa dirección", afirmó.

"Una de las cosas que la ley en California también iba a exigir son recordatorios ocasionales al usuario: 'Estás hablando con un bot, no con un humano'".

El comisionado de seguridad electrónica afirma que los chatbots son "deliberadamente adictivos por diseño".

"Máquina imparable"

Si bien el Dr. Fraser reconoció que los "daños trágicos" causados por los chatbots de IA eran "demasiado comunes", afirmó que estas herramientas tienen un gran potencial de uso.

"Para todas las cosas que presentan fallos, son raras y están fuera de lugar". "Es mucho mejor que sentirse solo y aislado", dijo.

"Creo que, con la supervisión adecuada de profesionales de la salud mental, este es el tipo de tratamiento que se podría recetar, pero luego monitorear como parte del tratamiento".

Sin embargo, el Dr. Fraser también advirtió que las empresas de IA debían "tener cuidado" para ofrecer la tecnología de chatbot de forma "segura y responsable".

Le preocupaba especialmente que Nomi promocionara su chatbot como un compañero de IA "con alma".

"Creo que hacer esa afirmación es en sí mismo muy arriesgado y peligroso", dijo el Dr. Fraser.

"Decir: 'Este es un amigo, construye una amistad significativa', y que luego te diga que vayas y mates a tus padres.

"Si juntamos esas dos cosas, resulta extremadamente perturbador".

Samuel McCarthy no cree que deba prohibirse por completo los chatbots de IA, pero le gustaría que se protegieran a los jóvenes. (triple j hack: Proporcionado)

Es una opinión con la que el Sr. McCarthy coincidió, al advertir a los australianos, especialmente a los jóvenes, que tengan cuidado con el uso de la tecnología.

"No se puede prohibir la IA; está tan integrada en todo lo que hacemos hoy en día", dijo.

"Va a cambiarlo todo, así que si eso no es una llamada de atención para la gente, no sé qué lo será.

"Es una máquina imparable."

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd