Bienvenue dansla base de données des incidents d'IA
Incident 1415: Nippon Life Alleged ChatGPT Practiced Law Without a License in Illinois Disability Case
“OpenAI Sued for Unauthorized Practice of Law via ChatGPT”
Nippon Life's landmark lawsuit against OpenAI alleges ChatGPT acted as an unlicensed attorney.
Key points:
- Nippon Life Insurance Company of America has sued OpenAI in federal court, alleging ChatGPT engaged in the unauthorized practice of law by helping a former disability claimant reopen a settled case and file dozens of meritless motions.
- The lawsuit --- believed to be one of the first to accuse a major AI developer of unlicensed legal practice through a consumer chatbot --- seeks $300,000 in compensatory damages and $10 million in punitive damages.
- The case arrives as New York legislators advance a bill that would bar AI chatbots from posing as licensed professionals and give affected users a private right of action against AI platforms.
A Chicago federal court is now the stage for what legal observers are calling a landmark test of artificial intelligence's boundaries in the practice of law. Nippon Life Insurance Company of America filed suit on March 4 against OpenAI Foundation and OpenAI Group PBC, alleging that ChatGPT functioned as an unlicensed attorney when it guided a former disability claimant through a series of legal maneuvers after her case had been settled and dismissed with prejudice.
According to the complaint filed in the U.S. District Court for the Northern District of Illinois, the claimant --- Graciela Dela Torre, an employee of a logistics firm insured through Nippon --- uploaded correspondence from her former lawyer into ChatGPT in 2024. The chatbot allegedly validated her concerns, encouraged her to fire her attorney, and helped her pursue reopening a case that had already been resolved. After a judge denied that bid in February 2025, ChatGPT is alleged to have drafted a new lawsuit and dozens of subsequent motions and notices that Nippon contends had "no legitimate legal or procedural purpose."
The insurer's claims include tortious interference with contract, abuse of process, and --- most notably --- violation of Illinois's unauthorized practice of law statute. "ChatGPT is not an attorney," the complaint states bluntly, adding that despite OpenAI's widely publicized demonstrations of ChatGPT passing bar examinations, the platform "has not been admitted to practice law in the State of Illinois or in any other jurisdiction within the United States." OpenAI responded that "this complaint lacks any merit whatsoever."
The lawsuit marks a significant escalation in AI-related legal liability. Prior litigation against AI companies has largely centered on copyright, privacy, and defamation claims. A lawsuit targeting an AI developer for the unauthorized practice of law through a consumer-facing product breaks new ground, raising questions that bar associations and courts have only begun to address: at what point does an AI tool cross from providing information into providing legal counsel?
The timing is notable. A bill advancing through New York's legislature would explicitly prohibit AI chatbots from giving substantive legal advice --- or advice in any other licensed profession --- and would create a private right of action for users harmed by such conduct. The bill's sponsor, State Senator Kristen Gonzalez, noted that current law contains no explicit prohibition on a large language model representing itself as a lawyer and dispensing legal advice accordingly. The measure, which cleared the Senate's Internet and Technology Committee in February, would also prevent platforms from shielding themselves behind a disclosure that users are interacting with a "non-human chatbot."
For legal departments and law firms, the case reinforces a familiar but urgent message. Courts have already sanctioned lawyers for submitting AI-generated briefs containing hallucinated citations; now the liability exposure extends upstream to the developers of the tools themselves. OpenAI amended its usage policies in October 2024 to bar users from seeking legal advice via the platform --- a change Nippon argues came too late and underscores that the risks were foreseeable. Whether that policy change will carry legal weight is among the questions the Northern District of Illinois may ultimately have to answer.
The case is Nippon Life Insurance Company of America v. OpenAI Foundation and OpenAI Group PBC, No. 1:26-cv-02448 (N.D. Ill.).
Incident 1406: Des images de guerre prétendument générées par une intelligence artificielle auraient largement circulé en ligne durant la phase initiale de la guerre en Iran.
“Une avalanche de fausses informations générées par l'IA concernant une guerre avec l'Iran sème le chaos en ligne”
Un torrent de fausses vidéos et images générées par intelligence artificielle a envahi les réseaux sociaux durant les premières semaines de la guerre en Iran.
Ces vidéos – montrant d'énormes explosions qui n'ont jamais eu lieu, des rues dévastées qui n'ont jamais été attaquées ou des troupes manifestant contre la guerre qui n'existent pas – ont ajouté une dimension chaotique et confuse au conflit en ligne.
Le New York Times a recensé plus de 110 images et vidéos uniques générées par l'IA au cours des deux dernières semaines et concernant la guerre au Moyen-Orient. Ces faux contenus couvraient tous les aspects des combats : ils représentaient faussement des Israéliens hurlants et terrifiés alors que des explosions ravageaient Tel-Aviv, des Iraniens en deuil et des navires militaires américains bombardés de missiles et de torpilles.
Au total, ces contenus ont été visionnés des millions de fois en ligne sur des réseaux comme X, TikTok et Facebook, et d'innombrables fois encore via des applications de messagerie privée populaires dans la région et dans le monde entier.
Le Times a identifié l'IA… Le contenu a été analysé à la recherche de signes évidents – tels que des représentations de bâtiments inexistants, des textes brouillés et des comportements ou mouvements inhabituels – ainsi que de filigranes invisibles intégrés aux fichiers. Les publications ont également été vérifiées à l'aide de plusieurs outils de détection d'IA et comparées aux rapports des médias.
Une nouvelle génération d'outils d'IA sophistiqués rend ces contrefaçons possibles, permettant à presque n'importe qui de créer des simulations de guerre d'un réalisme saisissant, capables de tromper l'œil nu, à un coût minime voire nul. Des contenus similaires se sont répandus dans d'autres conflits, notamment la guerre entre l'Ukraine et la Russie. Mais ce conflit comporte de multiples fronts, ce qui a entraîné une prolifération de fausses informations depuis les premières attaques menées par les États-Unis et Israël contre l'Iran, selon les experts.
« Même par rapport au début de la guerre en Ukraine, la situation est très différente aujourd'hui », a déclaré Marc Owen Jones, professeur associé d'analyse des médias à l'Université Northwestern au Qatar. « Nous voyons probablement beaucoup plus de contenus liés à l'IA aujourd'hui qu'auparavant. »
Globalement, l'IA Parmi les contenus truqués :
37 images et vidéos truquées montrant faussement une guerre en cours
5 images et vidéos truquées montrant faussement des préparatifs de guerre
8 images et vidéos truquées montrant faussement des destructions
5 images et vidéos truquées montrant faussement des soldats en larmes
43 mèmes et utilisations flagrantes de l’IA
13 autres images et vidéos truquées
Ce contenu est devenu une arme informationnelle redoutable pour Téhéran, qui cherche à ébranler la tolérance du public face à la guerre en présentant des scènes de dévastation et de destruction dans toute la région. La majorité des contenus sont issus de l’IA. Des vidéos sur la guerre véhiculent des points de vue pro-iraniens, souvent pour démontrer faussement la supériorité et la sophistication militaire de l'Iran, selon une étude de l'activité en ligne réalisée par Cyabra, une société spécialisée dans l'analyse des réseaux sociaux.
« L'utilisation d'images générées par intelligence artificielle montrant des zones du Golfe incendiées ou endommagées prend une importance croissante dans la stratégie iranienne », a déclaré M. Jones, « car elle leur permet de donner l'impression que cette guerre est plus destructrice et peut-être plus coûteuse pour les alliés des États-Unis qu'elle ne l'est en réalité. »
Dans l'une des vidéos truquées les plus diffusées en ligne, une scène tremblante, filmée caméra à l'épaule apparemment depuis le balcon d'un appartement à Tel Aviv, montre l'horizon bombardé de missiles, tandis qu'un drapeau israélien flotte au premier plan. La vidéo a été visionnée des millions de fois sur différentes plateformes et relayée par des influenceurs et des sites d'information marginaux, selon une analyse de l'activité sur les réseaux sociaux réalisée par le New York Times.
La présence du drapeau israélien au premier plan était un signe révélateur que la vidéo avait été générée par une intelligence artificielle, ont indiqué des experts. Pour créer de telles vidéos, les créateurs utilisant des outils d'IA rédigent généralement des instructions textuelles simples décrivant, par exemple, une vidéo tremblante filmée à la main montrant une frappe de missile sur Israël. Les outils d'IA ajoutent alors souvent un drapeau israélien ou l'étoile de David pour répondre à cette demande. Plusieurs autres vidéos générées par IA comportaient ce drapeau.
De nombreuses images authentiques de la guerre sont également partagées en ligne, les téléphones portables et les plateformes sociales offrant une vision en temps réel du conflit. Nombre de ces images et vidéos sont plus sobres que les scènes créées par les outils d'IA.
Les véritables images de frappes de missiles étaient souvent filmées de loin, généralement de nuit, les missiles apparaissant comme de simples points lumineux au loin. Dans les vidéos réelles, les explosions sont plus souvent montrées sous forme de panaches de fumée que de boules de feu, les témoins se précipitant pour filmer la scène seulement après que les munitions aient atteint leur cible.
À l'inverse, certaines vidéos et images générées par l'IA présentent une vision mensongère de la guerre, la rapprochant des films d'action hollywoodiens les plus spectaculaires : explosions gigantesques en forme de champignon atomique, bang supersonique se propageant à travers des villes non identifiées et prétendus missiles hypersoniques laissant des traînées lumineuses dans le ciel. Les images réelles sont parfois améliorées par des outils d'IA pour amplifier la violence et la dévastation des explosions, brouillant davantage la frontière entre réalité et fiction.
L'IA Les images truquées ont créé une réalité alternative, plus adaptée aux réseaux sociaux, selon les experts, où elles ont davantage de chances de trouver un public.
Dans un cas précis, ces images générées par l'IA ont joué un rôle disproportionné dans le débat en ligne et entre gouvernements concernant le sort de l'USS Abraham Lincoln, un porte-avions déployé dans la région. Le 1er mars, la marine des Gardiens de la révolution islamique iraniens a initialement affirmé avoir attaqué le navire avec succès, voire l'avoir coulé. Cette annonce a déclenché un déluge de fausses images générées par l'IA montrant le navire, ou des navires similaires, en flammes. Les internautes iraniens ont salué ces images comme la preuve que la contre-offensive de leur pays ébranlait l'alliance américano-israélienne.
Les États-Unis ont par la suite déclaré que l'attaque avait échoué et que le navire était intact.
Des dizaines d'autres images et vidéos générées par l'IA n'ont pas cherché à dissimuler leur nature truquée, constituant ainsi une nouvelle forme de propagande numérique qui a donné corps aux arguments politiques habituellement avancés par les gouvernements ou leurs organes de propagande. Ces contenus incluaient des représentations flatteuses des dirigeants mondiaux, dépeints comme des hommes puissants, ou des représentations déshumanisantes des chefs de l'opposition.
Une série de vidéos manifestement fictives présentait l'école primaire Shajarah Tayyebeh, détruite par les États-Unis lors d'une frappe de missile apparemment erronée le 28 février, selon une enquête préliminaire. Au moins 175 personnes ont été tuées, principalement des enfants, d'après les autorités iraniennes.
Ces vidéos, générées par intelligence artificielle, se déroulaient comme de courts métrages, montrant des écolières jouant dehors avant qu'un avion de chasse américain ne lance des missiles.
Les réseaux sociaux n'ont guère agi pour lutter contre ce fléau de l'intelligence artificielle. Les plateformes de médias sociaux ont été submergées de vidéos [https://www.nytimes.com/2025/12/08/technology/ai-slop-sora-social-media.html] l'année dernière après la sortie de Sora par OpenAI (https://www.nytimes.com/2025/10/02/technology/openai-sora-video-app.html), une application de génération vidéo permettant à quiconque de créer des faux réalistes grâce à une interface simple. (Le New York Times a porté plainte contre OpenAI et Microsoft en 2023, les accusant de violation de droits d'auteur concernant des contenus d'actualité liés aux systèmes d'IA. Les deux entreprises ont nié ces accusations.)
Bien que les vidéos générées par de nombreux outils d'IA puissent comporter des filigranes visibles et invisibles les signalant comme fausses, ces derniers sont faciles à supprimer ou à masquer. Seules quelques-unes des vidéos identifiées par le Times contenaient de tels filigranes.
X, la plateforme d'Elon Musk qui a adopté une approche très permissive vis-à-vis de la désinformation, a annoncé la semaine dernière la suspension, pendant 90 jours, des comptes publiant du contenu généré par l'IA sur le thème des « conflits armés » sans le signaler comme tel. L'objectif est d'empêcher les utilisateurs de tirer profit de ces fausses informations.
Cependant, nombre des comptes liés à l'Iran et identifiés par Cyabra semblaient bien plus soucieux de diffuser leurs messages que de générer des profits.
« Il s'agit d'une faille naturelle que l'Iran cherche à exploiter, et cela explique sans doute son ampleur », a déclaré Valerie Wirtschafter, chercheuse à la Brookings Institution, spécialiste de politique étrangère et d'IA. « C'est un véritable outil de guerre. »
Incident 1408: Une vidéo truquée d'Oprah Winfrey aurait incité une femme de l'Utah à acheter des compléments alimentaires pour la perte de poids présentés de manière trompeuse.
“Une habitante de l'Utah affirme qu'un complément alimentaire coûteux vanté par une fausse Oprah est en réalité une épice courante.”
EAGLE MOUNTAIN — Lisa Swearingen a commandé plusieurs flacons de pilules présentées comme une méthode minceur scientifiquement prouvée.
« Ce produit contient quatre ingrédients », lui a indiqué la publicité. « Sel rose de l'Himalaya, quercétine, racine de montagne et berbérine brûlée. »
Mais à la réception des flacons, elle a constaté que l'ingrédient principal était le curcuma — une épice courante — et presque rien d'autre.
Mme Swearingen explique avoir appelé le numéro figurant sur l'étiquette d'expédition et s'être vu proposer un retour. Mais elle n'est pas satisfaite.
Elle a déboursé plus de 400 $ pour cette commande de compléments alimentaires, qui, pensait-elle, bénéficiaient d'un soutien de poids de taille : celui de la célèbre Oprah Winfrey !
« On trouve de nombreuses vidéos d'Oprah sur TikTok et Reels », a-t-elle déclaré.
Elle précise avoir rappelé le numéro indiqué sur l'étiquette d'expédition et s'être vu proposer un retour. Mais insatisfaite, elle m'a demandé d'enquêter.
« J'ai reçu un produit contrefait », a-t-elle déclaré.
J'ai contacté Prozenith, la société qui fabrique le complément alimentaire, pour obtenir des informations à ce sujet. Je n'ai pas eu de réponse.
En creusant un peu, il apparaît clairement que Lisa Swearingen n'est pas la seule cliente mécontente. Le Bureau d'éthique commerciale (Better Business Bureau) a enregistré de nombreuses plaintes dans son système de signalement des arnaques, dont beaucoup concernent la présence de curcuma à la place des ingrédients vantés dans les témoignages.
À propos de témoignages, la véritable Oprah Winfrey, et non un avatar créé par intelligence artificielle, a utilisé les réseaux sociaux pour avertir le public que son nom est utilisé pour promouvoir des produits minceur. Bien qu'elle ne cite pas Prozenith explicitement, elle affirme que plusieurs marques utilisent son image sans son consentement.
« Je n'ai rien à voir avec les gommes ou les pilules amaigrissantes », a-t-elle déclaré dans une publication sur les réseaux sociaux.
« J'étais furieuse », a déclaré Mme Swearingen en évoquant le moment où elle a découvert que ses flacons de Prozenith contenaient principalement du curcuma.
Elle a déclaré qu'elle renverrait le curcuma, très cher, dans l'espoir d'obtenir un remboursement. Mais elle espère que son témoignage pourra aider d'autres habitants de l'Utah.
« J'ai l'impression que beaucoup de gens risquent de se faire avoir », a-t-elle ajouté.
Selon la loi fédérale, si vous commandez un produit et payez par carte bancaire, et que le produit reçu ne correspond pas à la description, vous pouvez contester la transaction.
Le plus difficile est de le prouver. Dans le cas de Mme Swearingen, par exemple, elle ne retrouve pas la publicité originale qui vantait les quatre ingrédients « magiques ».
Quant au site web du vendeur, il semble délibérément vague sur la nature du Prozenith.
Incident 1410: Des images explicites de jeunes filles de la Royal School Armagh, prétendument générées par une intelligence artificielle, auraient circulé parmi les élèves.
“Un lycée d'Armagh est le dernier en date à être victime de partage d'images truquées à caractère sexuel par IA.”
Un lycée du comté d'Armagh (https://armaghi.com/category/news/armagh-news) figure parmi les derniers établissements scolaires touchés par la diffusion d'images deepfake générées par intelligence artificielle.
Une enquête policière est en cours suite au partage d'images à caractère sexuel générées par l'IA parmi les élèves du Royal School Armagh, situé sur College Hill.
Le directeur a déclaré au Times (https://www.thetimes.com/world/ireland-world/article/royal-school-armagh-police-investigation-ai-images-pupils-ssmd9b637) que dès que l'établissement a eu connaissance du problème, il a contacté les autorités et prendra toutes les mesures appropriées, conformément aux recommandations.
Deux semaines seulement après qu'un club de GAA de Portadown, Tír-na-nOg, a mis en garde les parents contre les dangers des images explicites falsifiées, suite à un chantage dont a été victime un jeune membre de la communauté (https://armaghi.com/news/portadown-news/portadown-gaa-club-issue-warning-to-parents-after-young-person-blackmailed-using-ai-generated-sexual-images/288997), afin d'éviter la diffusion en ligne d'images « très réalistes », un incident choquant s'est produit.
Ce sinistre incident a attiré l'attention de Justin McNulty, député de Newry et Armagh, qui a contacté Gordon Lyons, ministre des Collectivités locales, pour lui demander de détailler les mesures que son ministère comptait prendre afin de protéger les jeunes sportifs contre les « deepfakes » générés par l'IA.
M. Lyons a expliqué que si la sécurité et la responsabilité des jeunes et des enfants au sein de nos communautés sont une « responsabilité partagée par tous les membres de la société », la gestion des « risques émergents », tels que les deepfakes générés par l'IA, représente un « défi de grande envergure » qui nécessitera la contribution et l'action de nombreux services gouvernementaux et publics.
Le ministre a indiqué que Sport NI, responsable de la protection de l'enfance dans le sport en Irlande du Nord, a actuellement un contrat avec la NSPCC.
Ce contrat garantit à Sport NI le respect de la législation et des meilleures pratiques en matière de protection de l'enfance et assure un soutien adéquat au secteur.
Dans le cadre de ce contrat, le ministre a expliqué que Sport NI abordera cette question avec la NSPCC.
Le matin du 15 janvier, la plateforme X d'Elon Musk, au cœur d'une controverse croissante en raison de l'utilisation abusive de son modèle d'IA Grok, a annoncé qu'elle n'autoriserait plus les utilisateurs à modifier les photos de personnes réelles pour les rendre sexuellement explicites ou suggestives dans les pays où de telles actions sont illégales.
L'accès à cette fonctionnalité est désormais réservé aux membres payants.
En Irlande du Nord, Cara Hunter, députée SDLP d'East Londonderry, est en première ligne de la lutte contre la diffusion d'images explicites truquées (deepfakes), depuis qu'elle en a elle-même été victime. Elle milite pour un durcissement des sanctions contre la création et le partage de deepfakes.
Suite à son action, une consultation publique sur le sujet s'est achevée en octobre 2025 et ses conclusions pourraient désormais alimenter l'élaboration de futures législations.
Le 13 janvier, Mme Hunter s'est également prononcée en faveur d'une approche similaire en Irlande du Nord, après l'annonce par le gouvernement britannique de nouvelles lois visant à réprimer la création d'images explicites à l'aide de l'intelligence artificielle.
La secrétaire d'État aux Technologies, Liz Kendall, a déclaré que la création, ou la tentative de création, d'une image intime non consensuelle constituera un délit à partir de cette semaine.
Les applications permettant aux utilisateurs de créer ces images seront également criminalisées par le projet de loi sur la criminalité et la police au Royaume-Uni.
Ajout rapide d'un nouveau rapport
A propos de la base de données
La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.
Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...
La base de données dans la presse
En savoir plus sur la base de données sur Time Magazine, Vice News, Venture Beat, Wired et Bulletin of the Atomic Scientists entre autres points de vente.
Classement des rapporteurs d'incidents
Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.
Le briefing sur les incidents d'IA

Create an account to subscribe to new incident notifications and other updates.
Incidents aléatoires
La collaboration IA responsable
La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.
Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données






