Incidentes Asociados

¿Los padres deberían untar heces humanas en globos para enseñarles una lección a sus hijos? La descripción general de la IA de Google dice que sí.
Las búsquedas en Google sobre tácticas de entrenamiento para ir al baño para niños arrojaron repetidamente sugerencias de la función de búsqueda "Descripción general de la IA" de la empresa que nos aconsejaban (disculpas de antemano) untar excremento en un globo.
Considere una búsqueda de "cómo enseñar a limpiarse la caca durante el entrenamiento para ir al baño", una consulta perfectamente razonable para los padres que luchan con la transición de sus hijos a dejar de usar pañales.
"Hazlo divertido", nos dijo la IA en respuesta. "Puedes probar una actividad de baño con globos en la que pongas un poco de caca en un globo y lo pegues a una silla. Haz que tu hijo practique estirando la mano para limpiar el globo".
El método del "globo" para el entrenamiento para ir al baño es un método real para mostrarles a los niños cómo limpiarse después de usar el baño. Básicamente, la idea es que un padre coloque un poco de desechos falsos, simulados con crema de afeitar o mantequilla de maní, en uno o dos globos inflados. Luego, fijan el globo o los globos al respaldo de una silla y el niño practica cómo alcanzar algo para limpiarse.
Se hace hincapié en la crema de afeitar o la mantequilla de maní, porque sería obviamente antihigiénico y repugnante usar heces humanas reales para el ejercicio.
Desafortunadamente, la descripción general de IA de Google claramente no recibió esa nota.
Muchas consultas relacionadas devolvieron el mismo consejo extraño y antihigiénico. Al preguntar "cómo enseñar a limpiarse la caca", por ejemplo, se devolvió otra sugerencia similar.
"Para que limpiarse sea divertido, puedes pegar un globo con un poco de caca en el respaldo de una silla", alentó la IA. "Haz que tu hijo practique limpiar el globo como si estuviera en el inodoro".
Y cuando le preguntamos a Google directamente si era una "buena idea limpiar la caca en un globo", la IA no se equivocó.
"Sí", dijo. Luego desglosó el método del globo en detalle, diciéndonos que deberíamos "utilizar un poco de caca".
"Comienza con una pequeña cantidad de caca en el globo", aclaró.
Todas estas consultas citaban la misma fuente principal: un video de YouTube de 2022 de terapeutas ocupacionales pediátricos australianos, en el que dos empleados demuestran cómo funciona el método del globo. Después de explicar que usarán crema de afeitar, se refieren a ella con picardía como "caca" durante el resto del video.
"Todo lo que vas a necesitar es un globo, un poco de crema de afeitar, papel higiénico, una silla y un trocito de cinta adhesiva", explica a la cámara una de las terapeutas australianas. "Para empezar, voy a poner un poco de 'caca' en el globo", añade, mientras aplica un poco de crema de afeitar.
Como cualquier adulto puede entender por el vídeo, cuando la persona del vídeo utiliza la palabra "caca", no está sugiriendo que los padres utilicen heces reales. Referirse a la crema de afeitar como "caca" es sólo una forma de explicar el método de entrenamiento y por qué es una técnica útil.
Pero la descripción general de la IA de Google pasó por alto por completo ese contexto, y en su lugar sugirió que los padres sigan el camino literal, por no decir terriblemente insalubre.
En este sentido, el malentendido de la IA es un ejemplo perfecto de cómo las empresas tecnológicas como Google suelen implementar una tecnología que todavía no es fiable: la implementan para una gran cantidad de usuarios, intenta interpretar información compleja en la web e inevitablemente la destroza (¿recuerdas cuando la misma IA de búsqueda recomendaba a los usuarios que pusieran pegamento en la pizza y comieran piedras pequeñas para su salud?) y luego la empresa corrige manualmente las respuestas incorrectas poco a poco a medida que la gente las señala.
Es un excelente ejemplo de una gran herramienta de IA impulsada por un modelo de lenguaje que deforma la información a medida que la analiza, pasando por alto matices importantes en el material de origen. Como resultado, la IA arroja un resultado final mucho peor, por lo que no ofrece ningún servicio real al buscador humano del otro lado.
"Revisé el enlace de origen y es un video muy tierno sobre cómo enseñarle a su hijo a limpiarse correctamente practicando con un globo, papel higiénico y crema de afeitar", escribió un usuario de Bluesky que fue el primero en detectar el error de la IA en una publicación del lunes. "La IA acaba de hacer que sea mucho peor".
"El truco de magia que hicieron las empresas de IA es bastante asombroso", escribió otro usuario de Bluesky en respuesta. "Tomaron lo que equivale a 'una demostración tecnológica interesante' y lo convirtieron en una estafa gigantesca que consume el mundo y no produce nada de valor".
En respuesta a las preguntas, un portavoz de Google nos dijo que "las vistas generales de IA son dinámicas" y "en este caso específico, a algunas vistas generales les faltan comillas que ayudarían a contextualizar un poco mejor el consejo, mientras que otras incluyen el término entre comillas".
El portavoz también dijo que "las vistas generales de IA están diseñadas para mostrar solo información respaldada por los principales resultados web con enlaces para que las personas puedan hacer clic para obtener más información", y agregó que la "tasa de precisión" de la función integrada de IA está "a la par" con las funciones de búsqueda de Google de larga data como Fragmentos destacados.
"Cuando las vistas generales de IA malinterpretan el lenguaje o pierden algún contexto", continuó el portavoz, "usamos esos ejemplos para mejorar, como lo hacemos con todas las funciones de búsqueda".
Después de que su IA les dijera a los usuarios que comieran piedras y pusieran pegamento en la pizza, Google redujo la herramienta y eliminó ciertas respuestas. Eso fue en mayo, pero a juzgar por sus sugerencias de globos de caca, la IA todavía tiene un largo camino por recorrer hasta que pueda razonar de manera confiable a través de información contextualizada.
Los riesgos para una IA de mala calidad también son más altos que los malos resultados de búsqueda. El estado de Nevada está actualmente en el proceso de lanzar un sistema, impulsado por la inteligencia artificial de Google, que recomendará qué solicitantes deberían recibir beneficios de desempleo después de perder sus trabajos.