Incident 1038: Des escrocs utiliseraient des outils d'IA pour se faire passer pour des étudiants et obtenir des aides fédérales
Description: Entre 2021 et 2025, les community colleges californiens ont été confrontés à une forte augmentation des candidatures frauduleuses, estimées désormais à 34 % de l'ensemble des candidatures. Des rapports indiquent que des escrocs ont utilisé des outils d'IA générative, dont ChatGPT, pour générer des réponses de vérification d'identité leur permettant d'usurper l'identité d'étudiants et d'obtenir une aide financière. Cette fraude aurait entraîné plus de 13 millions de dollars de pertes rien que l'année dernière, mettant à rude épreuve les systèmes administratifs et pédagogiques et évinçant des candidats légitimes.
Editor Notes: See also Incident 721: Fake AI-Generated Students Are Reportedly Enrolling in Online College Classes. While no specific link has been established, the incidents appear to reflect similar patterns of AI-assisted enrollment fraud. They are treated as distinct due to lack of direct evidence connecting them.
Outils
Nouveau rapportNouvelle RéponseDécouvrirVoir l'historique
Le Moniteur des incidents et risques liés à l'IA de l'OCDE (AIM) collecte et classe automatiquement les incidents et risques liés à l'IA en temps réel à partir de sources d'information réputées dans le monde entier.
Entités
Voir toutes les entitésAlleged: OpenAI et Unknown generative AI developers developed an AI system deployed by scammers , Fraudsters et Scammers targeting California community colleges, which harmed California community colleges , California community college students , Financial aid recipients , U.S. taxpayers et California community college faculty.
Systèmes d'IA présumés impliqués: ChatGPT et Various generative AI tools
Statistiques d'incidents
ID
1038
Nombre de rapports
2
Date de l'incident
2025-04-22
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
La loi californienne exige que les community colleges acceptent tout étudiant légitime, et les législateurs de l'État ont passé des décennies à faciliter les inscriptions afin que chacun ait une chance de faire des études.
Malheureusement, …
Si vous êtes étudiant dans un community college en Californie, il est possible qu'au moins un de vos camarades soit en réalité un robot IA qui vole les contribuables. Des données récentes du bureau du chancelier des community colleges de Ca…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Selected by our editors
Did our AI mess up? Flag the unrelated incidents

Predictive Policing Biases of PredPol
· 17 rapports

Wikipedia Vandalism Prevention Bot Loop
· 6 rapports
Incidents similaires
Selected by our editors
Did our AI mess up? Flag the unrelated incidents

Predictive Policing Biases of PredPol
· 17 rapports

Wikipedia Vandalism Prevention Bot Loop
· 6 rapports