Description: Google's AI Overview feature mistakenly advised parents to use human feces in a potty training exercise, misinterpreting a method that uses shaving cream or peanut butter as a substitute. This incident is another example of an AI failure in grasping contextual nuances that can lead to potentially harmful, and in this case unsanitary, recommendations. Google has acknowledged the error.
Entidades
Ver todas las entidadesAlleged: Google developed an AI system deployed by Google y AI Overview, which harmed Google , Parents y Google users.
Estadísticas de incidentes
ID
791
Cantidad de informes
1
Fecha del Incidente
2024-09-09
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
futurism.com · 2024
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
¿Los padres deberían untar heces humanas en globos para enseñarles una lección a sus hijos? La descripción general de la IA de Google dice que sí.
Las búsquedas en Google sobre tácticas de entrenamiento para ir al baño para niños arrojaron …
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents