Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 7026

Incidentes Asociados

Incidente 14232 Reportes
KPMG Australia Partner Reportedly Used AI to Cheat on Internal AI Training Test and Was Fined A$10,000

Loading...
Un socio de KPMG fue multado por usar IA para hacer trampa en una prueba de IA. Un socio de KPMG fue multado por usar IA para hacer trampa en una prueba de IA.
afr.com · 2026

Más de dos docenas de empleados de KPMG Australia han utilizado inteligencia artificial para hacer trampa en exámenes internos desde julio, incluyendo un socio que será multado con más de 10.000 dólares por usar esta tecnología en un curso de capacitación sobre IA.

La firma de contabilidad, una de las cuatro grandes del sector, ha mejorado sus procesos para detectar el fraude con IA tras implementar políticas y una mayor vigilancia para combatir el fraude generalizado en exámenes internos entre 2016 y 2020.

La firma detallará los casos de fraude relacionados con IA al presentar sus resultados anuales, una medida que va más allá de sus ya extensas divulgaciones y que establecería un nuevo referente de transparencia en el sector.

KPMG también verificará que el personal cumpla con su obligación de autodenunciar cualquier mala conducta ante sus respectivos organismos profesionales. Ambas medidas presionarán a los cuatro grandes rivales de la firma para que hagan lo mismo.

Los 28 casos de fraude en exámenes relacionados con la IA registrados este año fiscal ponen de manifiesto la compleja cuestión del comportamiento aceptable en el uso de esta tecnología para la formación y la educación, un problema que también afecta a empresas, escuelas y universidades de todo el mundo.

Estos casos surgen en un momento en que KPMG obtiene una parte cada vez mayor de sus 40.000 millones de dólares estadounidenses (57.000 millones de dólares australianos) en ingresos globales de la consultoría en IA y tras el caso de Deloitte Australia, que tuvo que reembolsar al gobierno por errores generados por la IA en un informe del año pasado.

«Como la mayoría de las organizaciones, hemos estado lidiando con el papel y el uso de la IA en relación con la formación y las pruebas internas. Es un tema muy difícil de controlar dada la rapidez con la que la sociedad la ha adoptado», declaró Andrew Yates, director ejecutivo de KPMG Australia, a The Australian Financial Review.

«Tan pronto como implementamos la monitorización de la IA en las pruebas internas en 2024, detectamos casos de personas que utilizaban la IA al margen de nuestra política. Posteriormente, llevamos a cabo una importante campaña de formación en toda la empresa y hemos seguido introduciendo nuevas tecnologías para bloquear el acceso a la IA durante las pruebas».

El socio, auditor de empresas registrado, completó la formación en IA en julio. El material de formación recomendaba descargar un manual de referencia relacionado con la formación como parte del curso. El individuo infringió las políticas de la empresa al subir el documento de referencia a una herramienta de IA para responder a una pregunta de examen.

Las herramientas internas de la empresa detectaron la actividad en agosto. Una investigación interna determinó que el socio debía ser multado con más de 10.000 dólares australianos de sus ingresos futuros. El socio también se autodenunció ante Chartered Accountants ANZ, que mantiene una investigación en curso sobre el caso. Los 27 casos restantes involucran a personal con nivel de gerencia o inferior.

El regulador corporativo impone normas estrictas a los auditores de empresas registradas debido a la importancia de su trabajo para la protección de los mercados.

Exámenes a libro abierto

"Nuestros exámenes son evaluaciones de conocimientos a libro abierto tras cursos de capacitación internos", dijo Yates. "Se permite a los participantes descargar materiales de capacitación para ayudarse con el examen. Sin embargo, está prohibido subir esos materiales a herramientas de IA para realizar el examen".

La firma emplea a unas 10 000 personas, tiene una tasa de rotación del 20 % anual y supervisa más de 20 000 exámenes internos al año.

Los nuevos incidentes se producen tras un informe publicado en diciembre en la columna «Rear Window» del Financial Review, que revelaba que algunos empleados de primer año habían utilizado inteligencia artificial para confabularse en la formación interna.

La normativa vigente del sector de la contabilidad y la auditoría establece que las empresas no están obligadas a informar a la ASIC sobre conductas indebidas, como el fraude en los exámenes, a menos que exista una resolución disciplinaria por parte del organismo profesional correspondiente. En cambio, se espera que los profesionales informen voluntariamente de dichas conductas a su organismo profesional.

KPMG sostiene que informó voluntariamente a la ASIC como parte de sus conversaciones con el regulador. Sin embargo, en respuesta a las preguntas de la senadora de los Verdes, Barbara Pocock, el regulador afirmó que KPMG no había presentado ante la ASIC ningún informe sobre los casos de fraude de auditores mediante IA antes del informe de diciembre de Financial Review.

Dicho artículo llevó a la ASIC a contactar con KPMG, y la firma proporcionó información de forma voluntaria, incluyendo el nuevo detalle de que un socio había estado implicado.

En la sesión de Presupuestos del Senado de la semana pasada, la comisionada de la ASIC, Kate O'Rourke, declaró que el asunto demostraba "las limitaciones asociadas al trabajo y los mecanismos de control regulatorio" que la ASIC ejerce sobre las cuatro grandes firmas.

Pock está indignada por las nuevas acusaciones de fraude y ha pedido que se endurezca la regulación sobre la presentación de informes al regulador corporativo.

"Este es, una vez más, otro ejemplo de comportamiento poco ético por parte de las grandes consultoras", afirmó Pocock. «Autodenunciar conductas poco éticas: ¡qué disparate! El sistema actual de denuncias no solo es inadecuado, sino que es ridículo. Necesitamos mayor transparencia y mecanismos de denuncia más sólidos».

Yates afirmó que la empresa ya recuerda al personal que ha infringido las normas su obligación de notificarlo a cualquier organismo pertinente.

«Ahora estamos ultimando nuevos procesos para reforzar nuestro enfoque y recalcar la necesidad de que se autodenuncien, y comprobaremos que lo hagan».

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2026 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 537d5f5