Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 793: AllHere's Chatbot 'Ed' Fails and Costs Los Angeles Unified School District $6 Million

Description: The Los Angeles Unified School District invested up to $6 million in developing the AI chatbot "Ed," meant to provide academic and mental health support for students. The chatbot allegedly failed to meet expectations, and the project collapsed when AllHere, the contracted start-up, faced financial difficulties. Prince George's County Public Schools in Maryland was also affected. Founder Joanna Smith-Griffin was removed as CEO in June 2024 and later arrested on fraud charges.
Editor Notes: Reconstructing the reported timeline of events for this incident: (1) 2016: AllHere is founded by Joanna Smith-Griffin to help schools address chronic absenteeism through automated text messaging. (2) 2020: AllHere acquires technology developed by economist Peter Bergman, enabling "nudges" to parents via text messages. (3) 2021: AllHere expands its marketing, claiming to serve 9,100 schools across 36 states, and shifts focus toward "A.I.-powered intuitive chatbots." (4) June 20, 2023: AllHere signs a $6 million dollar contract with Los Angeles Unified School District (LAUSD) to develop the Ed chatbot for student academic and mental health support. (5) Mid-April 2024: LAUSD superintendent Alberto Carvalho promotes Ed at a major tech conference, describing it as a transformative A.I. platform. (6) June 14, 2024: AllHere announces furloughs for most employees, citing financial difficulties. (7) June 18, 2024: Prince George’s County Public Schools in Maryland is informed that AllHere can no longer provide its services. (8) July 2024: AllHere files for Chapter 7 bankruptcy, liquidating its assets. (9) November 19, 2024: Joanna Smith-Griffin is arrested and charged with multiple counts of fraud related to false claims made to investors and school districts.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: AllHere developed an AI system deployed by Los Angeles Unified School District (LAUSD) , AllHere et Alberto Carvalho, which harmed Los Angeles Unified School District (LAUSD) , Taxpayers , Prince George's County students , Prince George’s County Public Schools , Prince George's County parents , Los Angeles students et Los Angeles parents.
Système d'IA présumé impliqué: AllHere's Ed chatbot

Statistiques d'incidents

ID
793
Nombre de rapports
5
Date de l'incident
2024-07-01
Editeurs
Daniel Atherton
Applied Taxonomies
MIT

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

4.3. Fraud, scams, and targeted manipulation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Malicious Actors & Misuse

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

Rapports d'incidents

Chronologie du rapport

+2
L’intelligence artificielle, un « ami » pour les élèves des écoles publiques, tombe à plat
Le PDG d'une start-up spécialisée dans l'intelligence artificielle accusé d'avoir escroqué des investisseurs+1
Le fondateur d'une start-up qui a vendu un chatbot à des écoles est accusé de fraude
L’intelligence artificielle, un « ami » pour les élèves des écoles publiques, tombe à plat

L’intelligence artificielle, un « ami » pour les élèves des écoles publiques, tombe à plat

nytimes.com

Le LAUSD abandonne son chatbot IA très médiatisé pour aider les étudiants après l'effondrement de l'entreprise qui l'a fabriqué

Le LAUSD abandonne son chatbot IA très médiatisé pour aider les étudiants après l'effondrement de l'entreprise qui l'a fabriqué

latimes.com

Le PDG d'une start-up spécialisée dans l'intelligence artificielle accusé d'avoir escroqué des investisseurs

Le PDG d'une start-up spécialisée dans l'intelligence artificielle accusé d'avoir escroqué des investisseurs

justice.gov

Le fondateur d'une start-up qui a vendu un chatbot à des écoles est accusé de fraude

Le fondateur d'une start-up qui a vendu un chatbot à des écoles est accusé de fraude

nytimes.com

Le fondateur d'un chatbot éducatif basé sur l'IA accusé d'avoir escroqué des investisseurs de 10 millions de dollars

Le fondateur d'un chatbot éducatif basé sur l'IA accusé d'avoir escroqué des investisseurs de 10 millions de dollars

usatoday.com

L’intelligence artificielle, un « ami » pour les élèves des écoles publiques, tombe à plat
nytimes.com · 2024
Traduit par IA

Une plateforme d'intelligence artificielle appelée Ed était censée être un « ami éducatif » pour un demi-million d'élèves des écoles publiques de Los Angeles. Dans des conversations écrites, Ed orienterait les élèves vers des ressources aca…

Le LAUSD abandonne son chatbot IA très médiatisé pour aider les étudiants après l'effondrement de l'entreprise qui l'a fabriqué
latimes.com · 2024
Traduit par IA

Un chatbot IA très vanté --- conçu sur mesure pour aider les étudiants à réussir sur le plan scolaire et les parents à naviguer dans les complexités des écoles publiques de Los Angeles --- a été désactivé après que l'entreprise qui l'a créé…

Le PDG d'une start-up spécialisée dans l'intelligence artificielle accusé d'avoir escroqué des investisseurs
justice.gov · 2024
Traduit par IA

Damian Williams, procureur des États-Unis pour le district sud de New York, et James E. Dennehy, directeur adjoint en charge du bureau extérieur de New York du Federal Bureau of Investigation (« FBI »), ont annoncé aujourd'hui la levée des …

Le fondateur d'une start-up qui a vendu un chatbot à des écoles est accusé de fraude
nytimes.com · 2024
Traduit par IA

La fondatrice d'une start-up d'intelligence artificielle axée sur l'éducation a été arrêtée et accusée d'avoir escroqué ses investisseurs, d'avoir menti sur les bénéfices de l'entreprise et d'avoir faussement prétendu que certains des plus …

Le fondateur d'un chatbot éducatif basé sur l'IA accusé d'avoir escroqué des investisseurs de 10 millions de dollars
usatoday.com · 2024
Traduit par IA

Le fondateur d'une start-up d'intelligence artificielle, promue pour renforcer la communication entre les districts scolaires et les familles, a été arrêté pour avoir escroqué des investisseurs.

Joanna Smith-Griffin, fondatrice et PDG de Al…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Predictive Policing Biases of PredPol

Policing the Future

Nov 2015 · 17 rapports
NY City School Teacher Evaluation Algorithm Contested

Analyzing Released NYC Value-Added Data Part 2

Feb 2012 · 7 rapports
Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Working Anything but 9 to 5

Aug 2014 · 10 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Predictive Policing Biases of PredPol

Policing the Future

Nov 2015 · 17 rapports
NY City School Teacher Evaluation Algorithm Contested

Analyzing Released NYC Value-Added Data Part 2

Feb 2012 · 7 rapports
Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Working Anything but 9 to 5

Aug 2014 · 10 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df