Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Bienvenido a
la base de datos de incidentes de IA

Loading...
Las 5 historias falsas del ataque de Bondi difundidas por IA y redes sociales

Incidente 1307: Grok AI Reportedly Generated Fabricated Civilian Hero Identity During Bondi Beach Shooting

“Las 5 historias falsas del ataque de Bondi difundidas por IA y redes sociales”Último informe
afr.com2025-12-16

Apenas había terminado el tiroteo cuando la información falsa comenzó a difundirse, formada en rincones de internet dominados por hechos alternativos.

Según Grok, la plataforma de inteligencia artificial de X (anteriormente Twitter), un hombre llamado Edward Crabtree fue el héroe que arriesgó su vida para desarmar a uno de los atacantes. Crabtree incluso tenía una biografía completa. El único problema: era pura ficción.

Supuestamente, también se produjeron otros ataques simultáneos en Sídney, lo que avivó el miedo y la paranoia.

"Si no hay muchos datos disponibles, siempre se llenará con lo que esté disponible, y con frecuencia la información inicial es de muy baja calidad", afirmó la Dra. Anne Kruger, experta en desinformación y engaños de la Universidad de Queensland.

"El plural de anécdota nunca es un hecho. Estamos viendo lo mismo: el blanqueo de información a través de las redes sociales".

Puede que Donald Trump haya popularizado el término noticias falsas, pero la desinformación no es nueva. Sin embargo, es una gran preocupación, ya que las personas recurren a las redes sociales y las plataformas de inteligencia artificial para obtener la información más reciente. "Es muchísimo más fácil inventar información falsa que esperar a que fuentes fiables la divulguen", declaró Nathan Ruser, analista del Instituto Australiano de Política Estratégica. "Si algo es creíble, la narrativa puede desaparecer mucho más rápido que la realidad".

Muchas narrativas falsas circulaban por internet el domingo por la noche cuando dos presuntos pistoleros abrieron fuego en un evento de Janucá junto a la icónica playa de Bondi.

Aquí hay cinco de ellas.

1. Edward Crabtree

Apenas había terminado el ataque cuando empezó a difundirse un artículo que parecía legítimo. Era una entrevista con Crabtree, aparentemente un profesional de la informática de 43 años. "No lo pensé. Simplemente actué", declaró Crabtree desde su cama de hospital.

Pero el sitio web, llamado thedailyaus.world (sin ninguna conexión con el sitio web de noticias juveniles The Daily Aus), fue registrado el domingo por un usuario residente (o que fingía residir) en Islandia. (Los fundadores de The Daily Aus, Sam Koslowski y Zara Seidler, afirmaron que sus lectores se habían puesto en contacto con ellos para alertarlos sobre el sitio de noticias falsas).

Sin embargo, lo cierto es que el hombre que arriesgó su vida para enfrentarse a uno de los pistoleros y quitarle su arma resultó ser Ahmed Al Ahmed, un padre de familia del condado de Sutherland, quien recibió dos disparos por su heroísmo.

El gestor de fondos de cobertura Bill Ackman denunció la desinformación, lo que también revela la difusión de la cuenta falsa. "Me han dicho que otros informes que afirman que el héroe fue un hombre llamado Edward Crabtree son falsos", escribió Ackman en X.

El primer ministro israelí, Benjamin Netanyahu, también se equivocó, al afirmar inicialmente a los periodistas que fue un transeúnte judío quien le arrebató el arma al pistolero, según informó The Times of Israel.

2. Otros ataques

Minutos después de la primera ráfaga de disparos, comenzaron a circular publicaciones sobre Bondi como el primero de una serie de ataques coordinados en otras localidades de los suburbios del este, incluyendo las cercanas Dover Heights y Double Bay.

No hubo testimonios, pruebas fotográficas ni verificación. Sin embargo, circularon publicaciones sobre supuestos testigos que oyeron disparos y afirmaron tener conocimiento de los planes para futuros ataques. Otro evento de "Janucá junto al mar" en la Reserva Dudley Page en Dover Heights se clausuró, lo que aumentó el miedo y la paranoia en Sídney.

La información falsa se difundió tan rápidamente que la Policía de Nueva Gales del Sur tuvo que emitir un comunicado en redes sociales. "No se han reportado incidentes en Dover Heights; por favor, NO compartan rumores sin confirmar", escribió la policía de Nueva Gales del Sur.

3. Vínculos entre las Fuerzas de Defensa de Israel, Irán y Palestina

Antes de que se verificara la identidad de Naveed Akram como uno de los dos presuntos tiradores, su licencia de conducir se publicó en redes sociales con supuestos datos sobre su identidad. Fue utilizada como arma por personas de ambos bandos en la guerra de Israel en Gaza.

Algunas de las publicaciones más virales afirmaban categóricamente que era un exsoldado de las Fuerzas de Defensa de Israel que había perdido la cabeza tras estar destinado en Gaza. Otras afirmaban que era un agente del Mossad y que se trataba de una especie de ataque de "falsa bandera", un término que describe un incidente diseñado para que parezca perpetrado por alguien ajeno a la persona o grupo responsable.

Hubo otras afirmaciones falsas de que Akram había estudiado en la Universidad de Islamabad y que Irán le había infiltrado para perpetrar el ataque.

Cuando se dio a conocer el nombre de Akram, también surgieron informes erróneos sobre la identidad del segundo tirador, que mencionaban a un ciudadano libanés de ascendencia palestina sin vínculos, y que eran falsos.

4. Persona equivocada

A última hora del domingo, otro hombre residente en Sídney llamado Naveed Akram compartió dos videos en los que rogaba a los medios de comunicación y redes sociales que dejaran de identificarlo como vinculado al ataque.

Este Naveed Akram es un especialista en informática de Pakistán que se mudó a Australia en 2018 y tenía una cuenta pública de Facebook y LinkedIn, lo que provocó que fotos suyas jugando al críquet y de su historial laboral se publicaran por todo internet.

La afirmación de que Akram había cometido los ataques se viralizó tras ser ampliamente promocionada por cuentas con sede en India, incluido el Foro de Estudios Estratégicos de la India. Incluso fue retomada por algunas plataformas tradicionales, como la estadounidense CBS News.

Identificar erróneamente a los autores de delitos se ha vuelto común en la última década, desde el auge de las redes sociales. A principios de este año, Benjamin Cohen, un ciudadano de Sídney, demandó a Seven Network después de que el programa Sunrise de la compañía de medios afirmara falsamente que había asesinado a seis personas en el apuñalamiento de Bondi Junction en abril.

5. Celebración con fuegos artificiales

Algunos aprovecharon la tragedia para avivar la tensión en Sídney. Videos de fuegos artificiales en el oeste de Sídney circularon por X, Facebook y Reddit tras el ataque, incluyendo los del creador de contenido de derecha Drew Pavlou en una publicación, ahora eliminada, titulada "Informes de que islamistas lanzaron fuegos artificiales de celebración en Bankstown, al oeste de Sídney".

Hubo fuegos artificiales en el oeste de Sídney el domingo por la noche, pero no tenían nada que ver con los horrores de Bondi. En cambio, se trataba de celebrar el evento anual Villancicos a la Luz de las Velas de Padstow, que coincidía con la fecha.

El papel de la inteligencia artificial en la difusión de información errónea y desinformación se analizará en los próximos días y semanas. Pero la IA y las redes sociales no se han visto coronadas por el éxito del ataque de Bondi Beach.

"El mayor problema es cómo la IA ha reducido la fricción para difundir y crear desinformación", afirmó Ruser.

Kruger añadió: "Las redes sociales crean una dinámica de nosotros contra ellos. En los momentos realmente difíciles, no hay margen para los matices. Son un caldo de cultivo perfecto en las redes sociales que coloca a la gente de un lado o del otro".

Leer Más
Loading...
Editorial bajo presión tras encontrar citas falsas en una guía de ética de IA

Incidente 1309: Springer Nature Book 'Social, Ethical and Legal Aspects of Generative AI: Tools, Techniques and Systems' Reportedly Published With Numerous Purportedly Fabricated or Unverifiable Citations

“Editorial bajo presión tras encontrar citas falsas en una guía de ética de IA”
thetimes.com2025-12-16

Una de las editoriales académicas más grandes del mundo vende un libro sobre la ética de la investigación en inteligencia artificial que parece estar plagado de citas falsas, incluyendo referencias a revistas inexistentes.

La publicación académica ha sido criticada recientemente por aceptar artículos fraudulentos producidos mediante IA, que han superado un proceso de revisión por pares diseñado para garantizar altos estándares.

The Times descubrió que un libro publicado recientemente por el gigante editorial germano-británico Springer Nature incluye docenas de citas que parecen haber sido inventadas, lo que a menudo indica que el material fue generado por IA.

El libro, Aspectos sociales, éticos y legales de la IA generativa, se anuncia como una revisión autorizada de los dilemas éticos que plantea esta tecnología y está a la venta por 125 libras esterlinas. Al menos dos capítulos incluyen notas a pie de página que citan publicaciones científicas que parecen haber sido inventadas.

En un capítulo, 8 de las 11 citas no pudieron verificarse, lo que sugiere que más del 70 % podrían haber sido inventadas.

Existe una creciente preocupación en el ámbito académico por la generación de citas e incluso artículos de investigación completos mediante herramientas de IA que intentan imitar trabajos académicos genuinos.

En abril, Springer Nature retiró otro título tecnológico, Mastering Machine Learning: From Basics to Advanced, tras descubrirse que contenía numerosas referencias ficticias.

En el libro más reciente analizado por The Times, una cita afirma referirse a un artículo publicado en "Harvard AI Journal". Harvard Business Review ha afirmado que dicha revista no existe.

Guillaume Cabanac, profesor asociado de informática en la Universidad de Toulouse y experto en la detección de artículos académicos falsos, analizó dos capítulos utilizando BibCheck, una herramienta diseñada para identificar referencias inventadas.

Descubrió que al menos 11 de las 21 citas del primer capítulo no se pudieron relacionar con artículos académicos conocidos. El análisis también sugirió que 8 de las 11 citas del capítulo 4 eran imposibles de rastrear.

"Esto constituye una mala conducta investigadora: falsificación e invención de referencias", declaró Cabanac. Realiza un seguimiento de estos casos y afirma haber observado un aumento constante de citas "alucinadas" de IA en la literatura académica.

Añadió: "Los investigadores construyen conocimiento basándose en investigaciones previamente publicadas... Cuando [estos estudios] son frágiles o deficientes, no podemos construir nada sólido sobre ellos".

Una revisión independiente realizada por el Dr. Nathan Camp, de la Universidad Estatal de Nuevo México, llegó a conclusiones similares. Camp, quien ha estudiado el auge de las citas falsas generadas por IA, encontró numerosas referencias erróneas, incoherentes o totalmente inventadas en el libro de ética de la IA.

En algunos casos, parecía que se habían combinado detalles de diferentes artículos auténticos. Otros seis capítulos parecían ser precisos. Cada capítulo fue escrito por un grupo diferente de autores.

Camp afirmó: «Si bien es difícil determinar con certeza si las citas utilizadas son generadas por IA, en el mejor de los casos son erróneas, probablemente inventadas, y la forma más sencilla de inventar citas es con IA».

James Finlay, vicepresidente de libros de ciencias aplicadas de Springer Nature, afirmó: «Nos tomamos muy en serio cualquier inquietud sobre la integridad de nuestro contenido publicado. Nuestro equipo especializado en integridad de la investigación está investigando este caso con prioridad».

Añadió: «Nuestro equipo de integridad trabaja con editores y utiliza conocimientos especializados y herramientas de detección para mantener nuestros estándares y detectar cualquier problema de integridad con antelación. Sin embargo, es posible que se nos escape un pequeño número».

Leer Más
Loading...
La CRA facturó a los contribuyentes más de $18 millones por un chatbot de inteligencia artificial que difundió información inexacta

Incidente 1310: Canada Revenue Agency (CRA) AI Chatbot 'Charlie' Reportedly Gave Incorrect Tax Filing Guidance at Scale

“La CRA facturó a los contribuyentes más de $18 millones por un chatbot de inteligencia artificial que difundió información inexacta”
junonews.com2025-12-16

La Agencia Tributaria de Canadá (CRA) malgastó casi 20 millones de dólares del dinero de los contribuyentes en un chatbot de "IA" que proporcionaba repetidamente información errónea a los canadienses que intentaban declarar sus impuestos.

La herramienta de IA de la CRA, llamada Charlie the Chatbot, acertó aproximadamente el 44 % de las veces cuando fue probada por el equipo de la Auditora General, Karen Hogan.

Esta función del software fue anunciada en 2020 por la entonces Ministra de Ingresos Nacionales, Diane Lebouthillier, y se preveía que costaría a los contribuyentes más de 18 millones de dólares.

Según los documentos presentados en el Parlamento el lunes, 13,67 millones de dólares se destinaron a pagar los salarios de quienes trabajaron en el proyecto, además de los costos relacionados con las prestaciones y los viajes de los empleados. Otros 3,21 millones de dólares se destinaron a los consultores de TI del proyecto.

En el momento de su publicación, la CRA advirtió que el chatbot aún estaba "aprendiendo" sobre la agencia, y añadió que "las preguntas que formule le ayudarán a ser más competente e interactivo".

"¡Charlie facilitará la obtención de la información necesaria para presentar su declaración de impuestos sobre la renta y prestaciones!", escribió la agencia en 2020.

Sin embargo, el informe de Hogan indicó que el software, que actualmente sigue disponible en 13 páginas web de la Agencia Tributaria de Canadá (CRA), sigue siendo inexacto.

"Las respuestas de Charlie fueron generalmente breves, ofreciendo un contexto limitado y poca información adicional", afirma el informe del Fiscal General, publicado en octubre. Descubrimos que Charlie proporcionó respuestas precisas en solo 2 de las 6 preguntas que le hicimos, mientras que las otras herramientas públicas de inteligencia artificial conversacional basadas en la web respondieron con precisión a 5 de las 6 preguntas.

Según la CRA, se han mantenido más de siete millones de conversaciones con Charlie y se han formulado más de 18 millones de preguntas desde su creación.

Aun así, se registró recientemente que el chatbot tenía un umbral de precisión del 70 %, y una nueva versión inédita alcanzó aproximadamente el 90 % el mes pasado.

Sin embargo, la agencia señaló que no se puede determinar con precisión el número exacto de preguntas que el chatbot de Inteligencia Artificial Generativa ha respondido correctamente sin realizar una revisión exhaustiva de todas las transcripciones de las interacciones.

La Agencia de Recursos Humanos (CRA) publicó el jueves los resultados de su plan de mejora del servicio de 100 días (https://www.canada.ca/en/revenue-agency/campaigns/100-day-service-improvement-plan.html). El informe indica que el 70 % de los usuarios de Charlie, el Chatbot, alcanzó su objetivo en noviembre.

El informe también indicó que la capacidad de respuesta general de la agencia a los clientes casi se duplicó durante el otoño. Esto se debió en parte a la recontratación o la extensión de los contratos de más de 1200 empleados del centro de llamadas.

Leer Más
Loading...
La tecnología de reconocimiento facial de Peppermill Reno conduce a un arresto injusto

Incidente 1311: Peppermill Casino Facial Recognition System Reportedly Misidentified Individual, Leading to Wrongful Arrest in Reno

“La tecnología de reconocimiento facial de Peppermill Reno conduce a un arresto injusto”
casino.org2025-12-16

Un camionero de larga distancia que visitó el Peppermill Casino de Reno en septiembre de 2023 vio cómo su noche se convertía en una pesadilla tras ser identificado erróneamente por la tecnología de reconocimiento facial con inteligencia artificial del local como un réprobo local, según documentos judiciales.

El sistema identificó a Jason Killinger como un hombre que había sido expulsado del local meses antes por dormir en las instalaciones. El rostro de Killinger coincidió al 100 % con el de la persona expulsada, identificada en los documentos judiciales únicamente como "M.E."

Killinger fue detenido por la seguridad del casino y luego arrestado por un agente novato del Departamento de Policía de Reno. El agente, llamado R. Jager en los documentos, se negó a creerle y lo acusó de obtener una identificación fraudulenta tras proporcionar pruebas de su identidad.

El conductor del camión estuvo detenido durante 11 horas, según una demanda por arresto injusto presentada ante el Tribunal de Distrito de los Estados Unidos para el Distrito de Nevada. Durante cuatro de esas horas, estuvo esposado, lo que le provocó moretones y dolor en el hombro, según la demanda.

Killinger fue finalmente liberado después de que una verificación de huellas dactilares confirmara que no era su doble, de menor reputación.

Declaraciones falsas

El demandante ya demandó al Casino Peppermill en un caso que se resolvió por una cantidad no revelada. Ahora persigue a Jager, a quien acusa de falsificar pruebas y participar en un proceso judicial malicioso.

Killinger afirma que Jager "introdujo a sabiendas declaraciones falsas" tanto en su informe del incidente como en su declaración de arresto; específicamente, que sus identificaciones eran contradictorias y que una o más "parecían ser fraudulentas".

Esto a pesar de que el demandante tenía una licencia de conducir válida de Nevada, un recibo de sueldo de UPS y la matrícula del vehículo, todos con su nombre y descripciones físicas coincidentes.

La demanda alega que se trató de una "falsificación deliberada" con la intención de "inventar una causa probable" después de que el agente se percatara de las inconsistencias entre la reclamación del casino y la documentación de Killinger.

La demanda afirma que Jager le dijo a un agente supervisor que Killinger "probablemente tiene acceso al DMV", lo que implica tener acceso a una identificación falsa, aunque no existían pruebas que respaldaran dicha afirmación.

Invención por Ocultamiento

Killinger argumenta que las acciones de Jager violaron su derecho al debido proceso, amparado por la Decimocuarta Enmienda. También sostiene que los informes de Jager omitieron la exoneración de las huellas dactilares y describieron falsamente a Killinger como poco cooperativo y que utilizaba identidades contradictorias. Dichas omisiones constituyeron invención por ocultamiento, argumenta la demanda.

La demanda solicita daños compensatorios, especiales y punitivos, pero no especifica las cantidades.

Leer Más
Loading...
Elon Musk roba 45.000 dólares a una pareja de Florida

Incidente 1306: Florida Couple Reportedly Loses $45,000 in Alleged AI-Generated Elon Musk Impersonation Scam

“Elon Musk roba 45.000 dólares a una pareja de Florida”
clickorlando.com2025-12-15

LEESBURG, Florida -- Una pareja de Leesburg perdió decenas de miles de dólares tras un supuesto sorteo de autos por parte del multimillonario Elon Musk.

George Hendricks, de 69 años, afirma que su vida "ya no existe" tras perder casi 45.000 dólares en una estafa que podría costarle su casa y a su esposa de 39 años.

"Quiere divorciarse", dijo Hendricks. Cuando se le preguntó si se debía a la estafa, respondió: "Sí".

La estafa comenzó cuando Hendricks comentó en un grupo de Facebook de Elon Musk sobre sorteos de autos, uno de los muchos grupos similares que existen en línea.

Elon Musk le dio más legitimidad, dijo Hendricks.

Hendricks recibió entonces un mensaje de Facebook felicitándolo por ganar 100.000 dólares y un auto nuevo.

Los delincuentes le pidieron que se cambiara a WhatsApp, una aplicación de mensajería gratuita comúnmente utilizada por los delincuentes debido a su comunicación privada y encriptada.

Hendricks recibió entonces un mensaje de video personalizado, que creía provenía del propio Musk, prometiéndole la entrega del paquete del premio.

Sin embargo, le dijeron que tenía que pagar $7,500 en efectivo para enviar el auto. Hendricks tomó fotos del dinero y las envió.

Poco después, se le presentaron oportunidades de inversión que prometían una rentabilidad de $120,000 en una inversión de $10,000.

Cuando Hendricks expresó su escepticismo, recibió otro mensaje de video: "Nunca me aprovecharía de ti ni de tu dinero. Confía en mí con todo tu corazón. Dios sabe que no tengo malas intenciones".

Los estafadores intercambiaron cientos de mensajes con Hendricks, quien terminó vaciando sus cuentas bancarias y agotando el límite de sus tarjetas de crédito, enviando casi $37,000 más.

Al no recibir el pago ni el auto, Hendricks presentó una denuncia ante la policía de Leesburg.

Hendricks no está solo. Este año, AARP denunció anuncios que usaban la imagen de Musk para robar los ahorros de las víctimas.

Kieran Human es el responsable de habilitación de seguridad de la empresa de ciberseguridad ThreatLocker.

"Un video deepfake es algo que se genera para simular a alguien, pero no lo es", dijo Human.

Los videos no son nada difíciles de crear y se pueden hacer en minutos, según Human.

"Con un clip de 30 o 60 segundos [de alguien hablando], puedes crear un video", dijo Human.

Human explicó que hay señales a las que prestar atención, como que el cuerpo y el cuello no se muevan en los videos; incluso para respirar, solo se mueve la cara.

Pero a medida que la IA mejore, también lo harán los deepfakes.

"Es solo cuestión de tiempo hasta que la gente empiece a añadir esa respiración a los videos, y tendrán que ser más cautelosos", advirtió Human.

"Sé que ocurre constantemente, pero nunca piensas que te va a pasar a ti", dijo Hendricks.

Leer Más
Enviar URL Rapidamente

Los enlaces enviados se agregan a una cola de revisión para que se resuelvan en un registro de incidente nuevo o existente. Los incidentes enviados con detalles completos se procesan antes que las URL que no poseen los detalles completos.
Acerca de la Base de Datos

La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.

Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

post-image
Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...

Leer Más
La Base de Datos en la Prensa

Lea acerca de la base de datos en PAI Blog, Vice News, Venture Beat, Wired y arXiv entre otros puntos de venta.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Rankings de Reportadores de Incidentes

Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.

Nuevos incidentes aportados
  • 🥇

    Daniel Atherton

    667
  • 🥈

    Anonymous

    154
  • 🥉

    Khoa Lam

    93
Reportes agregados a Incidentes Existentes
  • 🥇

    Daniel Atherton

    758
  • 🥈

    Anonymous

    231
  • 🥉

    Khoa Lam

    230
Informe total de contribuciones
  • 🥇

    Daniel Atherton

    2942
  • 🥈

    Anonymous

    968
  • 🥉

    1

    587
El Informe de Incidentes de IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidentes Aleatorios
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
El Colaborativo de IA Responsable

La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

Vea el Formulario 990 de la Colaborativa de IA Responsable y la solicitud de exención de impuestos.

Patrocinador fundador de la organización
Patrocinador fundador de la base de datos
Patrocinadores y subvenciones
Patrocinadores similares

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • f5f2449