Description: Google's AI Overview feature mistakenly advised parents to use human feces in a potty training exercise, misinterpreting a method that uses shaving cream or peanut butter as a substitute. This incident is another example of an AI failure in grasping contextual nuances that can lead to potentially harmful, and in this case unsanitary, recommendations. Google has acknowledged the error.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado por Google e implementado por Google y AI Overview, perjudicó a Google , Parents y Google users.
Estadísticas de incidentes
ID
791
Cantidad de informes
1
Fecha del Incidente
2024-09-09
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
futurism.com · 2024
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
translated-es-Should parents smear human feces on balloons to teach their kids a lesson? Google's AI Overview says yes.
Google searches regarding toilet training tactics for children repeatedly returned suggestions from the company's "AI Ov…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents