Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Bienvenido a
la base de datos de incidentes de IA

Loading...
La IA entra en la sala de exámenes

Incidente 1374: Una alerta de sepsis supuestamente generada por IA provocó la administración de líquidos intravenosos potencialmente inapropiados a un paciente en diálisis, lo que se evitó gracias a la intervención del médico.

Traducido por IA
“La IA entra en la sala de exámenes”Último informe
scientificamerican.com2026-02-21

Adam Hart lleva 14 años como enfermero en el Hospital St. Rose Dominican en Henderson, Nevada. Hace unos años, mientras colaboraba en urgencias, escuchaba el informe de la ambulancia sobre una paciente recién llegada —una anciana con la presión arterial peligrosamente baja— cuando una señal de sepsis apareció en el sistema electrónico del hospital.

La sepsis, una reacción potencialmente mortal a una infección, es una de las principales causas de muerte en los hospitales estadounidenses, y el tratamiento temprano es fundamental. La señal de sepsis impulsó al enfermero a cargo a indicarle a Hart que ingresara a la paciente en la habitación de inmediato, le tomara las constantes vitales y comenzara a administrarle líquidos intravenosos. Era el protocolo; en urgencias, eso suele significar rapidez.

Pero cuando Hart examinó a la mujer, vio que tenía un catéter de diálisis debajo de la clavícula. Sus riñones no estaban funcionando correctamente. Advirtió que una infusión rutinaria de líquidos intravenosos podría saturar su sistema y acabar en sus pulmones. La enfermera jefe le dijo que lo hiciera de todos modos debido a la alerta de sepsis generada por el sistema de inteligencia artificial del hospital. Hart se negó.

Un médico escuchó la conversación, que se intensificaba, e intervino. En lugar de líquidos, el médico recetó dopamina para elevar la presión arterial del paciente sin aumentar el volumen, evitando así lo que Hart creía que podría haber provocado una complicación potencialmente mortal.

Lo que más le impactó a Hart fue la coreografía que produjo la alerta generada por IA. Una pantalla instaba a la urgencia, que un protocolo convirtió en una orden; una objeción a pie de cama basada en un razonamiento clínico resultó, al menos en ese momento, un desafío. Nadie actuaba de mala fe. Aun así, la herramienta los obligó a obedecer cuando la evidencia que tenían delante —la paciente y sus riñones comprometidos— exigía exactamente lo contrario. (Un portavoz del hospital afirmó que no podían comentar sobre un caso específico, pero que el hospital considera la IA como "una de las muchas herramientas que respaldan, no reemplazan, la experiencia y el criterio de nuestros equipos de atención médica").

Esta dinámica se está volviendo familiar en el sistema de salud estadounidense. En los últimos años, los hospitales han integrado modelos algorítmicos en la práctica clínica habitual. La atención clínica a menudo se basa en la comparación de los síntomas del paciente con protocolos rígidos, un entorno ideal para la automatización. Para una fuerza laboral agotada, el atractivo de delegar tareas rutinarias como la documentación a la IA es innegable.

Las tecnologías ya implementadas abarcan un espectro que va desde modelos predictivos que calculan puntuaciones de riesgo simples hasta IA con capacidad de agencia que promete una toma de decisiones autónoma, lo que permite a los sistemas ajustar el flujo de oxígeno de un paciente o repriorizar una cola de triaje en urgencias con poca intervención humana. Un proyecto piloto lanzado en Utah hace unos meses utiliza tecnología de chatbot con capacidades de agencia para renovar recetas, una medida que, según sus defensores, otorga a los proveedores más tiempo, aunque las asociaciones de médicos se han opuesto a la eliminación de la supervisión humana. En todo el país, los sistemas de salud utilizan herramientas similares para detectar riesgos, escuchar las visitas de los pacientes de forma ambiental, generar notas clínicas, monitorear a los pacientes mediante dispositivos portátiles, asignar participantes a ensayos clínicos e incluso gestionar la logística de quirófanos y traslados a unidades de cuidados intensivos.

Las enfermeras vieron cómo un producto imperfecto podía convertirse en una política y, luego, en su problema.

La industria busca una visión de atención verdaderamente continua: una infraestructura de toma de decisiones que monitoree a los pacientes entre citas combinando el historial médico (resultados de análisis de laboratorio, imágenes, notas, medicamentos) con datos de la población y con los datos que las personas generan por sí mismas mediante, por ejemplo, dispositivos portátiles y registros de alimentos. Esta infraestructura detecta cambios significativos, envía orientación o avisos, y marca los casos que requieren intervención humana. Los defensores argumentan que este tipo de monitoreo continuo y con uso intensivo de datos está fuera del alcance cognitivo de cualquier profesional humano.

Otros afirman que los profesionales clínicos deben mantenerse al día, utilizando la IA no como piloto automático, sino como una herramienta que les ayude a comprender grandes cantidades de datos. El año pasado, Stanford Medicine lanzó ChatEHR, una herramienta que permite a los médicos clínicos interactuar con los historiales médicos de sus pacientes. Un médico comentó que la herramienta encontró información crucial oculta en los historiales de un paciente con cáncer, lo que ayudó a un equipo de seis patólogos a emitir un diagnóstico definitivo. "Si eso no demuestra el valor de la HCE, no sé qué lo hará", informaron.

Al mismo tiempo, en muchas plantas de hospital, estas promesas digitales a menudo fracasan, según Anaeze Offodile, directora de estrategia del Memorial Sloan Kettering Cancer Center de la ciudad de Nueva York. Señala que algoritmos defectuosos, una implementación deficiente y un bajo retorno de la inversión han provocado el estancamiento de algunos proyectos. En la práctica, el personal de enfermería, encargado de la atención a los pacientes, desconfía cada vez más de las herramientas no validadas. Esta fricción se ha trasladado de las salas a las calles. En los últimos dos años, enfermeras de California y la ciudad de Nueva York han organizado manifestaciones para llamar la atención sobre la incorporación de herramientas algorítmicas no reguladas al sistema sanitario, argumentando que, si bien los hospitales invierten en IA, la atención a pie de cama sigue siendo peligrosamente escasa.

La predicción de la sepsis se ha convertido en un caso de alerta. Hospitales de todo Estados Unidos adoptaron ampliamente el algoritmo de predicción de sepsis de Epic, empresa de tecnología de la información para la salud. Evaluaciones posteriores lo encontraron sustancialmente menos preciso de lo que se promocionaba. Epic afirma que estudios en entornos clínicos han demostrado que su modelo de sepsis mejoró los resultados y que, desde entonces, ha lanzado una segunda versión que, según afirma, funciona mejor. Aun así, las enfermeras vieron cómo un producto imperfecto podía convertirse en política y, luego, en su problema.

El agotamiento, la escasez de personal y el aumento de la violencia en el lugar de trabajo ya están reduciendo la plantilla de enfermería, según una encuesta de enfermería de 2024. Estas presiones se extendieron a las escaleras del Ayuntamiento de Nueva York el pasado noviembre, cuando miembros de la Asociación de Enfermeras del Estado de Nueva York se manifestaron y luego testificaron ante el comité de hospitales del Ayuntamiento. Argumentaron que algunos de los sistemas privados más grandes de la ciudad están invirtiendo dinero en ejecutivos y proyectos de IA, mientras que las unidades hospitalarias siguen careciendo de personal suficiente y el personal de enfermería se enfrenta a crecientes riesgos de seguridad. Al cierre de esta edición a mediados de enero, 15.000 enfermeras de los sistemas hospitalarios de la ciudad de Nueva York estaban en huelga, exigiendo una mayor dotación de personal y mayor protección en el lugar de trabajo.

Los nuevos modelos de monitorización basados en IA suelen llegar a los hospitales con la misma expectación que ha acompañado a la IA en otros sectores. En 2023, UC Davis Health implementó BioButton en su unidad de trasplante de médula ósea oncológica, calificándolo de "transformador". El dispositivo, un pequeño sensor hexagonal de silicona que se coloca en el pecho del paciente, monitorizaba continuamente los signos vitales como la frecuencia cardíaca, la temperatura y los patrones respiratorios.

En planta, generaba con frecuencia alertas difíciles de interpretar para el personal de enfermería. Para Melissa Beebe, enfermera titulada que lleva 17 años trabajando en UC Davis Health, los pings ofrecían poca información útil. "Aquí es donde se volvió realmente problemático", afirma. "Era vago". Las notificaciones indicaban cambios en los signos vitales sin detalles específicos.

Beebe comenta que a menudo seguía alarmas que no llevaban a ninguna parte. "Tengo mis propias alertas internas: 'Algo anda mal con este paciente, quiero vigilarlo', y entonces el BioButton se activaba por sí solo. Estaba exagerando, pero no proporcionaba mucha información".

Como representante sindical de la Asociación de Enfermeras de California en UC Davis Health, Beebe solicitó una conversación formal con la dirección del hospital antes de la implementación de los dispositivos, tal como lo permitía el contrato sindical. "Es simplemente una exageración: '¡Dios mío, esto va a ser tan transformador! ¿Y no tienen mucha suerte de poder hacerlo?'", dice. Sentía que cuando ella y otras enfermeras planteaban preguntas, se las percibía como reticentes a la tecnología. "Soy una enfermera del PORQUÉ. Para entender algo, tengo que saber por qué. ¿Por qué lo hago?".

Entre las preocupaciones del personal de enfermería se encontraba el funcionamiento del dispositivo en diferentes tipos de cuerpo y la rapidez con la que se esperaba que respondieran a las alertas. Beebe afirma que la dirección tenía pocas respuestas claras. En cambio, se les dijo al personal de enfermería que el dispositivo podría ayudar con la detección temprana de accidentes cerebrovasculares hemorrágicos, cuyo riesgo era especialmente alto en los pacientes de su planta. "Pero el problema es que la frecuencia cardíaca, la temperatura y la frecuencia respiratoria, en el caso de un accidente cerebrovascular, serían señales bastante tardías", explica. "En ese momento, uno estaría prácticamente muriendo". Los primeros signos de un accidente cerebrovascular hemorrágico pueden ser dificultad para despertar al paciente, dificultad para hablar o problemas de equilibrio. "Ninguno de estos parámetros se puede controlar con BioButtons".

Al final, UC Davis Health dejó de usar los BioButtons después de probar la tecnología durante aproximadamente un año, explica Beebe. "Lo que estaban descubriendo era que, en los pacientes que estaban realmente enfermos y que se beneficiarían de ese tipo de alerta, el personal de enfermería los detectaba mucho más rápido", explica. (UC Davis Health declaró que probó BioButton junto con los monitores existentes y finalmente decidió no adoptarlo porque sus alertas no ofrecían una ventaja clara sobre la monitorización actual).

Beebe argumenta que el juicio clínico, moldeado por años de formación y experiencia e informado por sutiles señales sensoriales provenientes de equipos técnicos, no se puede automatizar. "No puedo imaginar la cantidad de veces que tengo esa sensación: 'No me siento bien con este paciente'. Podría ser simplemente cómo se ve o se siente su piel". Elven Mitchell, enfermero de cuidados intensivos con 13 años de experiencia en el Hospital Kaiser Permanente de Modesto, California, coincide con esta opinión. "A veces se puede ver a un paciente y, con solo mirarlo, saber que no está bien. No se refleja en los análisis ni en el monitor", afirma. "Tenemos cinco sentidos, y las computadoras solo reciben información".

La atención clínica a menudo depende de la comparación de los síntomas del paciente con protocolos rígidos, un entorno ideal para la automatización.

Los algoritmos pueden mejorar el juicio clínico, afirman los expertos, pero no pueden reemplazarlo. "Los modelos nunca tendrán acceso a todos los datos que posee el proveedor", afirma Ziad Obermeyer, Profesor Asociado Distinguido de Política y Gestión Sanitaria de Blue Cross of California en la Facultad de Salud Pública de la Universidad de California, Berkeley. Los modelos analizan principalmente historiales médicos electrónicos, pero no todo está en el archivo digital. "Y eso resulta ser un montón de información realmente importante, como: ¿Cómo responden a las preguntas? ¿Cómo caminan? Todos estos detalles sutiles que los médicos y el personal de enfermería ven y comprenden sobre los pacientes".

Mitchell, quien también forma parte del equipo de respuesta rápida de su hospital, afirma que a sus colegas les cuesta confiar en las alertas. Calcula que aproximadamente la mitad de las alertas generadas por un equipo de monitoreo centralizado son falsos positivos; sin embargo, la política del hospital exige que el personal de cabecera evalúe cada uno, lo que aleja al personal de enfermería de los pacientes ya identificados como de alto riesgo. (Kaiser Permanente declaró que sus herramientas de monitoreo de IA están diseñadas para apoyar a los profesionales clínicos, y que las decisiones recaen en los equipos de atención, y que los sistemas se prueban rigurosamente y se monitorean continuamente).

"Quizás en 50 años sea más beneficioso, pero tal como está, es un sistema que intenta que funcione", afirma Mitchell. Desearía que hubiera más regulación en este ámbito, ya que las decisiones sobre atención médica pueden, en casos extremos, ser de vida o muerte.

En las entrevistas para este artículo, las enfermeras enfatizaron constantemente que no se oponen a la tecnología en el hospital. Muchas dijeron que reciben con agrado las herramientas que están cuidadosamente validadas y que mejoran la atención de forma demostrable. Lo que las ha hecho recelosas, argumentan, es la rápida implementación de modelos de IA muy publicitados, cuyo rendimiento en entornos reales no cumple con las promesas. Implementar herramientas no validadas puede tener consecuencias duraderas. "Se está generando desconfianza en una generación de profesionales clínicos y proveedores", advierte un experto, que solicitó el anonimato por temor a las repercusiones profesionales.

Las preocupaciones van más allá de los proveedores privados. Los propios hospitales a veces eluden las medidas de seguridad que antes regían la introducción de nuevas tecnologías médicas, afirma Nancy Hagans, enfermera y presidenta de la Asociación de Enfermeras del Estado de Nueva York.

Los riesgos no son meramente teóricos. Obermeyer, profesor de la Escuela de Salud Pública de Berkeley, descubrió que algunos algoritmos utilizados en la atención al paciente resultaron ser racistas. "Se utilizan para evaluar a entre 100 y 150 millones de personas cada año para este tipo de decisiones, por lo que es un fenómeno muy extendido", afirma. "Esto plantea la pregunta de por qué no contamos con un sistema para detectar estas cosas antes de que se implementen y empiecen a afectar todas estas decisiones importantes", añade, comparando la introducción de herramientas de IA en la atención médica con el desarrollo de fármacos. A diferencia de los fármacos, no existe un único responsable de la IA; los hospitales a menudo deben validar las herramientas por sí solos.

En la cabecera del paciente, la opacidad tiene consecuencias: si la alerta es difícil de explicar, las consecuencias siguen siendo responsabilidad del profesional sanitario. Si un dispositivo funciona de forma diferente en distintos pacientes (omitiendo a algunos, sobreseñalando a otros), el médico también lo hereda.

El revuelo en torno a la IA ha complicado aún más las cosas. En los últimos dos años, las herramientas de escucha basadas en IA que registran las interacciones médico-paciente y generan una nota clínica para documentar la visita se extendieron rápidamente por el sector sanitario. Muchas instituciones las adquirieron con la esperanza de que ahorraran tiempo a los médicos. Muchos profesionales valoran no tener que tomar notas mientras hablan con los pacientes, pero la evidencia emergente sugiere que las mejoras en la eficiencia pueden ser modestas. Estudios han reportado ahorros de tiempo que van desde insignificantes hasta 22 minutos al día. "Todos se apresuraron a decir que estas cosas eran mágicas; nos ahorrarían horas. Ese ahorro no se materializó", afirma Nigam Shah, profesor de medicina en la Universidad de Stanford y científico jefe de datos de Stanford Health Care. "¿Cuál es el retorno de la inversión de ahorrar seis minutos al día?".

Experiencias similares han hecho que algunas instituciones de élite se muestren reticentes a confiar únicamente en empresas externas para herramientas algorítmicas. Hace unos años, Stanford Health Care, Mount Sinai Health System en la ciudad de Nueva York y otras empresas incorporaron el desarrollo de IA internamente para poder desarrollar sus propias herramientas, probar herramientas de proveedores, optimizarlas y presentarlas ante los médicos. "Se trata de una redefinición estratégica de la IA en el ámbito sanitario como una capacidad institucional en lugar de una tecnología de consumo", afirma Shah. En Mount Sinai, este cambio ha implicado centrarse menos en los algoritmos en sí y más en la adopción y la confianza, buscando generar confianza con el personal sanitario e integrando nuevas herramientas en el flujo de trabajo.

Las herramientas de IA también deben explicar por qué recomiendan algo e identificar las señales específicas que activaron la alerta, no solo presentar una puntuación. Los hospitales deben prestar atención a las interacciones hombre-máquina, afirma Suchi Saria, profesora asociada John C. Malone de Ciencias de la Computación en la Universidad Johns Hopkins y directora del Laboratorio de Aprendizaje Automático y Atención Médica de la universidad. Argumenta que los modelos de IA deberían funcionar más como miembros de un equipo bien capacitado. "No funcionará si este nuevo miembro del equipo es disruptivo. La gente no lo usará", afirma Saria. "Si este nuevo miembro es ininteligible, la gente no lo usará".

Sin embargo, muchas instituciones no consultan ni cocrean con sus enfermeras y demás personal de primera línea al considerar o desarrollar nuevas herramientas de IA que se utilizarán en la atención al paciente. "Sucede constantemente", afirma Shah, de Stanford. Recuerda que inicialmente dotó a su equipo de ciencia de datos con médicos, no enfermeras, hasta que el director de enfermería de su institución se opuso. Ahora cree que la perspectiva de las enfermeras es indispensable. "Pregunten primero a las enfermeras, después a los médicos, y si el médico y la enfermera no están de acuerdo, confíen en la enfermera, porque saben lo que realmente está sucediendo", afirma.

Para incluir a más personal en el proceso de desarrollo de herramientas de IA, algunas instituciones han implementado un enfoque ascendente, además de uno descendente. "Muchas de las mejores ideas provienen de personas cercanas al trabajo, por lo que creamos un proceso donde cualquier persona de la empresa puede presentar una idea", afirma Robbie Freeman, exenfermero de cabecera y actual director de transformación digital en Mount Sinai. Una enfermera especializada en el cuidado de heridas tuvo la brillante idea de crear una herramienta de IA para predecir qué pacientes son propensos a desarrollar úlceras por presión. El programa tiene una alta tasa de adopción, afirma Freeman, en parte porque esta enfermera está capacitando con entusiasmo a sus colegas.

Freeman afirma que el objetivo no es reemplazar el juicio clínico, sino crear herramientas que los profesionales clínicos puedan usar: herramientas que se expliquen por sí mismas. En la versión que desean las enfermeras, la alerta es una invitación a analizar con más detalle, no un gestor digital poco fiable.

La nueva frontera llegó al laboratorio de cateterismo cardíaco de Mount Sinai el año pasado con un nuevo sistema de IA agente llamado Sofiya. En lugar de que las enfermeras llamen a los pacientes antes de un procedimiento de colocación de stent para darles instrucciones y responder preguntas, Sofiya ahora les llama. El agente de IA, diseñado con una voz suave y tranquilizadora y representado como una modelo femenina con uniforme médico en recortes promocionales de tamaño natural, ahorró al Mount Sinai más de 200 horas de enfermería en cinco meses, según Annapoorna Kini, directora del laboratorio de cateterismo. Sin embargo, algunas enfermeras no están de acuerdo con Sofiya. El pasado noviembre, en una reunión del Ayuntamiento de la Ciudad de Nueva York, Denash Forbes, enfermera con 37 años de experiencia en Mount Sinai, testificó que el trabajo de Sofiya aún debe ser revisado por enfermeras para garantizar su precisión.

Incluso Freeman admite que aún queda mucho camino por recorrer hasta que esta IA con función de agente proporcione una experiencia integrada y fluida. O tal vez se una a las filas de los pilotos de IA fallidos. Mientras la industria busca la eficiencia de los agentes autónomos, necesitamos una infraestructura para probar algoritmos. Por ahora, la seguridad del paciente sigue anclada en aquello que la IA no puede replicar: la intuición del profesional clínico. Como en el caso de Adam Hart, quien rechazó un veredicto digital para proteger los pulmones de un paciente, el valor último de la enfermera en la era de la IA puede no ser su capacidad de seguir la indicación sino su voluntad de ignorarla.

Leer Más
Loading...
Los empleados de OpenAI alertaron sobre el sospechoso del tiroteo en Canadá hace meses

Incidente 1375: OpenAI supuestamente no alertó a la RCMP después de que ChatGPT marcara chats violentos antes del tiroteo en la escuela de Columbia Británica

Traducido por IA
“Los empleados de OpenAI alertaron sobre el sospechoso del tiroteo en Canadá hace meses”
wsj.com2026-02-21

Meses antes de que Jesse Van Rootselaar se convirtiera en sospechosa del tiroteo masivo que devastó un pueblo rural en la Columbia Británica, Canadá, OpenAI consideró alertar a las fuerzas del orden sobre sus interacciones con su chatbot ChatGPT, según informó la compañía.

Mientras usaba ChatGPT en junio pasado, Van Rootselaar describió situaciones de violencia con armas de fuego a lo largo de varios días, según personas familiarizadas con el asunto.

Sus publicaciones, marcadas por un sistema de revisión automatizado, alarmaron a los empleados de OpenAI. Internamente, alrededor de una docena de empleados debatieron si tomar medidas con respecto a las publicaciones de Van Rootselaar. Algunos empleados interpretaron los escritos de Van Rootselaar como un indicio de posible violencia en el mundo real e instaron a los líderes a alertar a las fuerzas del orden canadienses sobre su comportamiento, según informaron las personas familiarizadas con el asunto.

Los líderes de OpenAI finalmente decidieron no contactar a las autoridades.

Una portavoz de OpenAI declaró que la compañía bloqueó la cuenta de Van Rootselaar, pero determinó que su actividad no cumplía con los criterios para denunciarla ante las autoridades, lo que habría requerido que constituyera un riesgo creíble e inminente de daño físico grave a terceros.

El 10 de febrero, Van Rootselaar fue encontrada muerta por lo que parecía ser una lesión autoinfligida en el escenario de un tiroteo masivo en una escuela que causó la muerte de ocho personas y dejó al menos 25 heridas. La Real Policía Montada de Canadá identificó a Van Rootselaar, una mujer trans de 18 años, como sospechosa.

La compañía contactó a la Real Policía Montada de Canadá (RCMP) tras enterarse del tiroteo y está apoyando su investigación, afirmó la portavoz.

"Nuestros pensamientos están con todos los afectados por la tragedia de Tumbler Ridge", declaró la compañía en un comunicado.

Otros aspectos de la huella digital de Van Rootselaar surgieron en los días posteriores al ataque, incluyendo un videojuego que creó en la plataforma Roblox que simulaba un tiroteo masivo. En redes sociales, la sospechosa compartió su preocupación por el proceso de transición y su interés por los dibujos animados de anime y las drogas ilegales.

Las plataformas en línea han debatido durante mucho tiempo cómo equilibrar la privacidad de sus usuarios con la seguridad pública al alertar a ciertos usuarios sobre las fuerzas del orden. Ese debate se avecina ahora para las empresas de IA que impulsan los chatbots a los que las personas confían los detalles más íntimos de sus pensamientos y vidas.

OpenAI afirmó que entrena sus modelos para disuadir a los usuarios de cometer daños en situaciones reales y dirige las conversaciones en las que los usuarios expresan intención de causar daño a revisores humanos, quienes pueden remitirlos a las fuerzas del orden en caso de que se determine que representan un riesgo inminente de daño físico grave.

La empresa afirmó que sopesa el riesgo de violencia frente a las consideraciones de privacidad y la posible angustia que puede causar a las personas y las familias involucrar innecesariamente a la policía.

Van Rootselaar ya era conocido por la policía local antes del tiroteo. Visitaron su domicilio varias veces para atender problemas de salud mental y retiraron temporalmente las armas de la residencia.

Un equipo especializado de investigadores también ha estado revisando su actividad en línea y su huella digital en busca de pistas sobre el tiroteo masivo, además de revisar sus interacciones previas con la policía y profesionales de la salud mental, según el comisionado de la RCMP, Dwayne McDonald.

Publicaciones archivadas en redes sociales muestran que Van Rootselaar publicó fotos de ella misma disparando en un campo de tiro, afirmó haber creado un cartucho de bala con una impresora 3D y participó en una discusión en línea sobre videos de YouTube hechos por entusiastas de las armas.

Leer Más
Loading...
Un camino medieval mortal en Inglaterra se cobra una víctima moderna: una furgoneta de Amazon

Incidente 1376: Una furgoneta de reparto de Amazon quedó varada en las marismas de Essex después de que el GPS la dirigiera hacia Broomway.

Traducido por IA
“Un camino medieval mortal en Inglaterra se cobra una víctima moderna: una furgoneta de Amazon”
nytimes.com2026-02-21

Se considera uno de los caminos más peligrosos de Gran Bretaña, una ruta medieval que se dice que causó decenas de muertes a lo largo de siglos.

Y en 2026, resultó ser demasiado para una furgoneta de Amazon.

Uno de los vehículos de reparto de la compañía quedó varado el domingo después de que el conductor se desviara por error hacia Broomway, un sendero peatonal de nueve kilómetros en Essex, en el sureste de Inglaterra. El conductor seguía las indicaciones del GPS para llegar a Foulness Island, una zona de pruebas militares restringida, desde tierra firme.

La Guardia Costera de Su Majestad de Southend informó en un comunicado que recibió una llamada el domingo por la mañana sobre "una furgoneta de reparto de Amazon que había entrado en Broomway". Amazon fue informada del incidente, según el comunicado, y la compañía "organizó la recuperación del vehículo".

Una fotografía de la escena publicada en redes sociales por la Guardia Costera de Su Majestad mostraba una furgoneta gris de Amazon Prime estacionada en las marismas. El conductor pudo salir del vehículo, según el comunicado.

Amazon se negó a comentar los detalles del incidente, pero afirmó: "Afortunadamente, el conductor se encuentra a salvo, la camioneta fue recuperada y estamos investigando". La compañía se encargó de que un granjero cercano retirara la camioneta, según informó la Guardia Costera de Su Majestad.

El nombre de Broomway proviene de los cientos de escobas que antiguamente marcaban su camino. Los periódicos eduardianos le dieron un apodo más siniestro: The Doomway.

Se ha descrito como un lugar desconcertante donde la niebla marina y las arenas movedizas pueden dar la sensación de que la tierra se ha fusionado con el mar. El acceso al sendero solo está disponible durante la marea baja. Si se adentra en el sendero en el momento equivocado, la marea puede volverse abrumadora rápidamente. Se cree que más de 100 personas murieron en el Broomway, según la BBC, y ahora solo está parcialmente abierto al público.

"Sigue siendo una vía pública, por lo que está clasificada como camino secundario, lo que significa que se puede circular legalmente con vehículos de carretera. Sin embargo, no es recomendable", declaró Kev Brown, quien organiza recorridos a pie por el sendero a través de su empresa, Thames Estuary Man. "No es un lugar al que ir si no se sabe adónde se va".

Hoy en día, se recomienda a los aspirantes a senderistas que recorran el Broomway con un guía local que conozca las mareas inestables y pueda ofrecer un paso seguro a través de la arena y las marismas hasta las tierras de cultivo de la isla Foulness. El Broomway fue en su día la única vía por la que los servicios llegaban a la isla.

Entre sus viajeros más habituales se encontraban los carteros (https://www.geograph.org.uk/photo/299201), quienes presumiblemente no dependían del GPS.

Leer Más
Loading...
Por qué un video de IA de Tom Cruise luchando contra Brad Pitt asustó a Hollywood

Incidente 1377: Seedance 2.0 generó un video viral de la pelea entre Tom Cruise y Brad Pitt, lo que provocó quejas en Hollywood sobre propiedad intelectual y semejanza.

Traducido por IA
“Por qué un video de IA de Tom Cruise luchando contra Brad Pitt asustó a Hollywood”
nytimes.com2026-02-21

Bastaron tan solo 15 segundos de Tom Cruise y Brad Pitt peleándose en una azotea derruida al anochecer para provocar indignación y un miedo considerable en Hollywood en los últimos días.

El vídeo de amplia difusión fue creado por el director irlandés Ruairi Robinson con Seedance 2.0, una potente herramienta de generación de vídeos con inteligencia artificial propiedad de la empresa tecnológica china ByteDance. Contaba con todos los extras de una película de Hollywood de gran presupuesto: ángulos de cámara amplios, coreografías de acrobacias, efectos de sonido nítidos y música cautivadora.

Con una instrucción de dos frases y el clic de un botón, Seedance había producido un resultado asombrosamente realista que supuso una mejora drástica respecto a los vídeos de inteligencia artificial generados anteriormente, a menudo clips de mala calidad conocidos como chatarra de IA. Este video fue tan convincente que casi provocó la condena inmediata de algunas de las principales organizaciones y empresas de Hollywood.

Rhett Reese, guionista conocido por sus películas de "Deadpool", declaró en una entrevista que el video de Cruise-Pitt le había provocado un escalofrío.

"Para todos los que trabajamos en la industria y dedicamos nuestras carreras y vidas a ella, creo que es simplemente aterrador", declaró. "Me lo imagino costando empleos por todas partes".

ByteDance lanzó Seedance 2.0 la semana pasada, casi dos meses después de que una versión anterior no generara mucha indignación. Un comunicado de prensa de la compañía elogió la precisión física, el realismo y la controlabilidad de la herramienta actualizada, que, según la compañía, era adecuada para las necesidades de escenarios creativos de nivel profesional.

El proceso de creación —continuó el comunicado— es más natural y eficiente, lo que permite a los usuarios controlar sus creaciones como un auténtico director.

Los usuarios acudieron rápidamente a la plataforma para crear su propio contenido. Un final alternativo de "Juego de Tronos" se volvió viral, al igual que un video de los raperos Kendrick Lamar y Drake, conocidos por sus peleas, enterrando el hacha de guerra en "The Tonight Show", y uno de Samara Morgan, la chica vengativa de las películas de terror de "The Ring", saliendo de un viejo televisor para acariciar a un gato.

El propio Robinson publicó videos adicionales, incluyendo uno de Pitt y Cruise luchando contra un robot, y uno de Pitt entrenando con un "ninja zombi" armado con una espada.

Al mismo tiempo, Hollywood no tardó en reaccionar. Charles Rivkin, presidente y director ejecutivo de la Asociación Cinematográfica, instó a ByteDance a cesar de inmediato su actividad infractora, afirmando en un comunicado que Seedance 2.0 había incurrido en el uso no autorizado de obras protegidas por derechos de autor a gran escala. La Campaña Human Artistry, una coalición global que aboga por el uso de la IA con respeto a los artistas, intérpretes y creativos irremplazables, afirmó en redes sociales que las obras no autorizadas generadas por Seedance 2.0 violaban los aspectos más básicos de la autonomía personal. Disney, que el año pasado, en un acuerdo decisivo de mil millones de dólares, acordó permitir a los usuarios de Sora de OpenAI generar contenido de vídeo con sus personajes (https://www.nytimes.com/2025/12/11/business/media/disney-openai-sora-deal.html), envió una carta de cese y desistimiento a ByteDance (https://www.axios.com/2026/02/13/disney-bytedance-seedance), acusándolo de proporcionar a Seedance una "biblioteca pirateada" de personajes de Disney, "como si la codiciada propiedad intelectual de Disney fuera clipart gratuito de dominio público".

ByteDance, propietaria también de TikTok y valorada en [480 mil millones de dólares en el mercado privado] (https://www.cbinsights.com/research-unicorn-companies), declaró que respetaba los derechos de propiedad intelectual y que estaba al tanto de las preocupaciones sobre Seedance. "Estamos tomando medidas para reforzar las salvaguardas actuales mientras trabajamos para prevenir el uso no autorizado de la propiedad intelectual y la imagen por parte de los usuarios", decía el comunicado.

Como sugiere el acuerdo del año pasado entre Disney y OpenAI, Hollywood lleva años lidiando con la gestión del rápido crecimiento de la inteligencia artificial generativa. Las preocupaciones señaladas por Reese se hicieron eco de la huelga del Sindicato de Guionistas de 2023, cuando durante meses miles de miembros del sindicato exigieron que los estudios implementaran medidas de seguridad que los protegieran de que la IA les robara sus trabajos o su propiedad intelectual. Al final, el grupo obtuvo garantías de que la IA no interferiría con los créditos y la compensación de los guionistas.

Duncan Crabtree-Ireland, director ejecutivo nacional y negociador jefe de SAG-AFTRA, que representa a actores y artistas audiovisuales, afirmó que sus contratos incluían normas específicas y vinculantes sobre la replicación digital. El tipo de material representado en la batalla entre Cruise y Pitt, afirmó, "no podría ser producido por ninguno de los firmantes de nuestros contratos —los estudios, las plataformas de streaming— sin el consentimiento específico e informado de dichas personas".

Según Crabtree-Ireland, la verdadera preocupación radica en que, incluso si los vídeos generados por Seedance y otras plataformas de IA "no tienen intenciones maliciosas", podrían "violar el derecho de alguien a controlar cómo se utiliza su imagen, su semejanza y su voz".

No todo el mundo está impresionado con la tecnología más reciente de Seedance. Heather Anne Campbell, productora ejecutiva y guionista de la serie animada "Rick y Morty", comentó que la semana pasada sus redes sociales se inundaron de clips de anime, ciencia ficción y batallas de superhéroes improbables generados por Seedance. Pero aún no le preocupa perder su trabajo por culpa de la tecnología, dijo.

"Creo que todos están atrapados en el circo que llegó a la ciudad y se está luciendo", dijo. "Todavía no he visto nada bueno. Nada que me deje sin aliento, nada conmovedor, ni siquiera nada provocador. Es pura basura".

Campbell añadió que los servicios de IA como Seedance eran, en el mejor de los casos, "máquinas de promediar" y argumentó que el arte más grande nunca se creó de forma rápida o impersonal.

Aun así, a algunas personas que trabajan en Hollywood les cuesta imaginar que los estudios no lleguen a ver la IA como un atajo para ahorrar costes. "Sería más barato que una IA escribiera un guion que que yo lo hiciera", dijo Reese, el guionista de "Deadpool". "Simplemente sé que, en el fondo, de ahí viene el terror".

Para Reese, una respuesta a largo plazo a la inquietud que genera la IA... La idea de reorganizar Hollywood no podía ser más rápida.

"Si pudiera hacer desaparecer la IA, al menos en el ámbito creativo", dijo, "lo haría sin duda". Bastaba con un clip de 15 segundos de Tom Cruise y Brad Pitt peleándose en una azotea derruida al anochecer para provocar una rápida indignación y un temor considerable en Hollywood en los últimos días.

El vídeo de amplia difusión fue creado por el director irlandés Ruairi Robinson con Seedance 2.0, una potente herramienta de generación de vídeo con inteligencia artificial propiedad de la empresa tecnológica china ByteDance. Tenía muchos de los detalles propios de una película de gran presupuesto de Hollywood: ángulos de cámara amplios, coreografías de acrobacias, efectos de sonido nítidos y música cautivadora.

Con una instrucción de dos frases y el clic de un botón, Seedance produjo un resultado asombrosamente realista que representó una mejora drástica respecto a los videos de inteligencia artificial generados anteriormente, a menudo clips de mala calidad conocidos como chatarra de IA. Este video fue tan convincente que recibió una condena casi inmediata por parte de algunas de las principales organizaciones y empresas de Hollywood.

Rhett Reese, guionista conocido por sus películas de "Deadpool", declaró en una entrevista que el video de Cruise-Pitt le había provocado un escalofrío.

"Para todos los que trabajamos en la industria y dedicamos nuestras carreras y vidas a ella, creo que es simplemente aterrador", declaró. "Me lo imagino costando empleos en todas partes".

ByteDance lanzó Seedance 2.0 la semana pasada, casi dos meses después de que una versión anterior no generara mucha indignación. Un comunicado de prensa de la compañía elogió la precisión física, el realismo y la controlabilidad de la herramienta actualizada, que, según la compañía, era adecuada para las necesidades de escenarios creativos de nivel profesional.

El proceso de creación —continuó el comunicado— es más natural y eficiente, lo que permite a los usuarios controlar sus creaciones como un auténtico director.

Los usuarios acudieron rápidamente a la plataforma para crear su propio contenido. Un final alternativo de "Juego de Tronos" se volvió viral, al igual que un video de los raperos Kendrick Lamar y Drake, conocidos por sus peleas, enterrando el hacha de guerra en "The Tonight Show", y uno de Samara Morgan, la chica vengativa de las películas de terror de "The Ring", saliendo de un viejo televisor para acariciar a un gato.

El propio Robinson publicó videos adicionales, incluyendo uno de Pitt y Cruise luchando contra un robot, y uno de Pitt entrenando con un "ninja zombi" armado con una espada.

Al mismo tiempo, Hollywood no tardó en reaccionar. Charles Rivkin, presidente y director ejecutivo de la Asociación Cinematográfica, instó a ByteDance a cesar de inmediato su actividad infractora, afirmando en un comunicado que Seedance 2.0 había incurrido en el uso no autorizado de obras protegidas por derechos de autor a gran escala. La Campaña Human Artistry, una coalición global que aboga por el uso de la IA con respeto a los artistas, intérpretes y creativos irremplazables, afirmó en redes sociales que las obras no autorizadas generadas por Seedance 2.0 violaban los aspectos más básicos de la autonomía personal. Disney, que el año pasado, en un acuerdo decisivo de mil millones de dólares, acordó permitir a los usuarios de Sora de OpenAI generar contenido de vídeo con sus personajes (https://www.nytimes.com/2025/12/11/business/media/disney-openai-sora-deal.html), envió una carta de cese y desistimiento a ByteDance (https://www.axios.com/2026/02/13/disney-bytedance-seedance), acusándolo de proporcionar a Seedance una "biblioteca pirateada" de personajes de Disney, "como si la codiciada propiedad intelectual de Disney fuera clipart gratuito de dominio público".

ByteDance, propietaria también de TikTok y valorada en [480 mil millones de dólares en el mercado privado] (https://www.cbinsights.com/research-unicorn-companies), declaró que respetaba los derechos de propiedad intelectual y que estaba al tanto de las preocupaciones sobre Seedance. "Estamos tomando medidas para reforzar las salvaguardas actuales mientras trabajamos para prevenir el uso no autorizado de la propiedad intelectual y la imagen por parte de los usuarios", decía el comunicado.

Como sugiere el acuerdo del año pasado entre Disney y OpenAI, Hollywood lleva años lidiando con la gestión del rápido crecimiento de la inteligencia artificial generativa. Las preocupaciones señaladas por Reese se hicieron eco de la huelga del Sindicato de Guionistas de 2023, cuando durante meses miles de miembros del sindicato exigieron que los estudios implementaran medidas de seguridad que los protegieran de que la IA les robara sus trabajos o su propiedad intelectual. Al final, el grupo obtuvo garantías de que la IA no interferiría con los créditos y la compensación de los guionistas.

Duncan Crabtree-Ireland, director ejecutivo nacional y negociador jefe de SAG-AFTRA, que representa a actores y artistas audiovisuales, afirmó que sus contratos incluían normas específicas y vinculantes sobre la replicación digital. El tipo de material representado en la batalla entre Cruise y Pitt, afirmó, "no podría ser producido por ninguno de los firmantes de nuestros contratos —los estudios, las plataformas de streaming— sin el consentimiento específico e informado de dichas personas".

Según Crabtree-Ireland, la verdadera preocupación radica en que, incluso si los vídeos generados por Seedance y otras plataformas de IA "no tienen intenciones maliciosas", podrían "violar el derecho de alguien a controlar cómo se utiliza su imagen, su semejanza y su voz".

No todo el mundo está impresionado con la tecnología más reciente de Seedance. Heather Anne Campbell, productora ejecutiva y guionista de la serie animada "Rick y Morty", comentó que la semana pasada sus redes sociales se inundaron de clips de anime, ciencia ficción y batallas de superhéroes improbables generados por Seedance. Pero aún no le preocupa perder su trabajo por culpa de la tecnología, dijo.

"Creo que todos están atrapados en el circo que llegó a la ciudad y se está luciendo", dijo. "Todavía no he visto nada bueno. Nada que me deje sin aliento, nada conmovedor, ni siquiera nada provocador. Es pura basura".

Campbell añadió que los servicios de IA como Seedance eran, en el mejor de los casos, "máquinas de promediar" y argumentó que el arte más grande nunca se creó de forma rápida o impersonal.

Aun así, a algunas personas que trabajan en Hollywood les cuesta imaginar que los estudios no lleguen a ver la IA como un atajo para ahorrar costes. "Sería más barato que una IA escribiera un guion que que yo lo hiciera", dijo Reese, el guionista de "Deadpool". "Simplemente sé que, en el fondo, de ahí viene el terror".

Para Reese, una respuesta a largo plazo a la inquietud que genera la IA... La reorganización de Hollywood no podía ser más rápida.

"Si pudiera hacer desaparecer la IA, al menos en el ámbito creativo", dijo, "lo haría sin dudarlo".

Leer Más
Loading...
La escuela secundaria Radnor alerta a las familias sobre un video de IA "inapropiado" que muestra a los estudiantes

Incidente 1378: Un video supuestamente generado por IA supuestamente retrataba a estudiantes de la escuela secundaria Radnor de manera inapropiada, lo que provocó una investigación policial.

Traducido por IA
“La escuela secundaria Radnor alerta a las familias sobre un video de IA "inapropiado" que muestra a los estudiantes”
6abc.com2026-02-15

RADNOR, Pensilvania (WPVI) -- La Escuela Secundaria Radnor y la Policía Municipal de Radnor están investigando un video generado por IA que presuntamente muestra a varios estudiantes de manera inapropiada, según un correo electrónico enviado a las familias por el director, Dr. Joseph MacNamara.

"Les escribo para abordar las preocupaciones y rumores sobre un video generado por IA que, según se informa, muestra a varios de nuestros estudiantes de manera inapropiada", escribió MacNamara. "Entendemos la preocupación y gravedad de esta situación, y queremos asegurarles que la estamos tratando con la mayor urgencia y cuidado".

El director indicó que se ha contactado a las familias de los estudiantes involucrados y se les ha brindado apoyo. El correo electrónico también indica que la escuela inició de inmediato una investigación interna y notificó a la Policía Municipal de Radnor.

"El Departamento de Policía de Radnor (RPD) participa activamente y seguimos trabajando estrechamente con ellos mientras recopilamos información", escribió MacNamara.

El distrito escolar se negó a hacer más comentarios, y la Policía Municipal de Radnor se limitó a indicar que el incidente se encuentra bajo investigación activa.

Action News habló con una madre de dos hijos que asisten a la escuela secundaria Radnor, quien pidió permanecer en el anonimato.

"La mayor preocupación es la seguridad psicológica de nuestras hijas, que asisten a la escuela todos los días y que ahora están pendientes de lo que ocurre. Se preguntan si deberían publicar algo en redes sociales", dijo.

Los miembros de la comunidad expresaron su preocupación por las implicaciones más amplias de la tecnología.

"Va a ser algo recurrente si no hacemos nada para detenerlo. En cuanto a dónde estará en unos años, ¿quién sabe?", dijo Frank McHugh, quien tiene un familiar en la escuela secundaria Radnor.

"Es tan repugnante, y especialmente para las mujeres jóvenes, es increíblemente peligroso que esto esté sucediendo", dijo Meredith Criswell.

Si bien las principales plataformas de inteligencia artificial como ChatGPT y Gemini cuentan con medidas de seguridad para evitar la creación de imágenes sexualmente explícitas, el Dr. Robert D'Ovidio, profesor de criminología y experto en ciberseguridad de la Universidad de Drexel, afirmó que las aplicaciones no reguladas siguen estando ampliamente disponibles.

"Y existe un gran negocio en torno a esto en línea", dijo D'Ovidio. "Estas herramientas fraudulentas permiten a los delincuentes contratarlas a cambio de una tarifa para hacer cosas como crear imágenes sexualizadas a partir de lo que parece ser una selfie inocente, por ejemplo".

Los legisladores se han apresurado a ponerse al día con el rápido avance de la tecnología. El año pasado, el gobernador Josh Shapiro firmó una ley que prohíbe la pornografía deepfake que involucra tanto a menores como a adultos sin consentimiento.

"Sabemos que esto no es un incidente aislado, lo que ocurrió en el municipio de Radnor", declaró D'Ovidio a Action News. "Y los padres deben reconocerlo. Esto no es algo que indique un problema comunitario. Sí, está sucediendo aquí, pero está sucediendo en todo el país".

Instó a los padres a hablar con sus hijos sobre los riesgos.

"Este es el momento de hablar con sus hijos, porque ahora tienen la capacidad de hacerlo", dijo D'Ovidio. Ya sabes, ten cuidado con quién dejas entrar a tus círculos sociales en las distintas plataformas de redes sociales que usas. Asegúrate de poder confiar en estas personas porque, repito, les estás dando acceso a fotos y vídeos que pueden usar fácilmente como arma en tu contra.

Leer Más
Enviar URL Rapidamente

Los enlaces enviados se agregan a una cola de revisión para que se resuelvan en un registro de incidente nuevo o existente. Los incidentes enviados con detalles completos se procesan antes que las URL que no poseen los detalles completos.
Acerca de la Base de Datos

La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.

Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

post-image
Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...

Leer Más
La Base de Datos en la Prensa

Lea acerca de la base de datos en Time Magazine, Vice News, Venture Beat, Wired y Bulletin of the Atomic Scientists entre otros puntos de venta.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Rankings de Reportadores de Incidentes

Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.

Nuevos incidentes aportados
  • 🥇

    Daniel Atherton

    714
  • 🥈

    Anonymous

    154
  • 🥉

    Khoa Lam

    93
Reportes agregados a Incidentes Existentes
  • 🥇

    Daniel Atherton

    810
  • 🥈

    Anonymous

    232
  • 🥉

    Khoa Lam

    230
Informe total de contribuciones
  • 🥇

    Daniel Atherton

    3011
  • 🥈

    Anonymous

    976
  • 🥉

    1

    587
El Informe de Incidentes de IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidentes Aleatorios
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
El Colaborativo de IA Responsable

La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.

Patrocinador fundador de la organización
Patrocinador fundador de la base de datos
Patrocinadores y subvenciones
Patrocinadores similares

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd