Incidente 843: El incidente de plagio de IA generativa en la escuela secundaria Hingham está relacionado con citas inexactas de la IA de Grammarly.
Descripción: En diciembre de 2023, dos estudiantes de la escuela secundaria Hingham ("RNH" y sin identificar) supuestamente usaron Grammarly para crear un guion para un proyecto de Historia de Estados Unidos de AP. El texto generado por IA incluía citas falsas de libros inexistentes, que el estudiante copió y pegó sin verificar ni reconocer el uso de IA. Esto violó las políticas de integridad académica de la escuela, lo que resultó en medidas disciplinarias. Los padres de RNH posteriormente demandaron al distrito escolar, pero un tribunal federal falló a favor de la escuela.
Editor Notes: The incident itself occurred sometime in December 2023. The court ruling was published on November 20, 2024. It can be read here: https://fingfx.thomsonreuters.com/gfx/legaldocs/lbvgjjqnkpq/11212024ai_ma.pdf.
Entidades
Ver todas las entidadesAlleged: Grammarly developed an AI system deployed by Hingham High School students y Hingham High School student RNH, which harmed Hingham High School students , Hingham High School student RNH , Hingham High School y Academic integrity.
Estadísticas de incidentes
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
5.1. Overreliance and unsafe use
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Human-Computer Interaction
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Informes del Incidente
Cronología de Informes

Los padres de un estudiante de último año de secundaria de Massachusetts que utilizó inteligencia artificial para un proyecto de estudios sociales presentaron una demanda contra sus maestros y la escuela después de que su hijo fuera castiga…

Un tribunal federal falló ayer en contra de los padres que demandaron a un distrito escolar de Massachusetts por castigar a su hijo que utilizó una herramienta de inteligencia artificial para completar una tarea.
Dale y Jennifer Harris dema…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Defamation via AutoComplete
· 28 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Defamation via AutoComplete
· 28 informes