Incidente 1166: ChatGPT sugiere bromuro de sodio como sustituto del cloruro, lo que provoca bromismo y hospitalización.
Herramientas
Entidades
Ver todas las entidadesEstadísticas de incidentes
Risk Subdomain
3.1. False or misleading information
Risk Domain
- Misinformation
Entity
AI
Timing
Post-deployment
Intent
Unintentional
Informes del Incidente
Cronología de Informes
Nota del editor de AIID: Este artículo de revista revisada por pares está abreviado en partes. Consulte la fuente original para obtener la versión completa, específicamente la Tabla 1 y la sección de Referencias.
Resumen
La ingestión de bro…
Un estudio de caso publicado este mes ofrece una historia con moraleja, ideal para nuestros tiempos modernos. Médicos detallan cómo un hombre experimentó una psicosis causada por un veneno tras seguir consejos dietéticos guiados por IA.
Méd…

Un hombre consultó ChatGPT antes de cambiar su dieta. Tres meses después, tras mantener el cambio de dieta de forma constante, acudió a urgencias con nuevos síntomas psiquiátricos preocupantes, como paranoia y alucinaciones.
Resultó que el …
Una revista médica estadounidense ha advertido contra el uso de ChatGPT para obtener información de salud después de que un hombre desarrollara una afección poco común tras una interacción con el chatbot (https://www.theguardian.com/technol…
Hyderabad: Médicos de Hyderabad han advertido a la población sobre la importancia de confiar únicamente en herramientas de inteligencia artificial (IA) como ChatGPT para obtener asesoramiento médico. Hicieron hincapié en que los pacientes, …

