Incidentes Asociados
La semana pasada, Google dio a conocer su mayor cambio en la búsqueda en años, mostrando nuevas capacidades de inteligencia artificial que Responda las preguntas de la gente en el intento de la empresa de ponerse al día con sus rivales Microsoft y OpenAI.
Desde entonces, la nueva tecnología ha generado una letanía de falsedades y errores, incluida la recomendación de pegamento como parte de una receta de pizza y la ingestión de piedras para obtener nutrientes, lo que le ha dejado un ojo morado a Google y ha causado furor en línea.
Las respuestas incorrectas en la función, llamada AI Overview, han socavado la confianza en un motor de búsqueda al que recurren más de dos mil millones de personas en busca de información autorizada. Y mientras otros A.I. chatbots decir mentiras y actuar raro, la reacción demostró que Google está bajo más presión para incorporar de forma segura AI. en su motor de búsqueda.
El lanzamiento también amplía un patrón de problemas de Google con su nuevo sistema de inteligencia artificial. funciones inmediatamente después de implementarlas. En febrero de 2023, cuando Google anunció Bard, un chatbot para luchar contra ChatGPT, compartió información incorrecta sobre el espacio exterior. Posteriormente, el valor de mercado de la empresa cayó en 100 mil millones de dólares.
Este febrero, la empresa lanzó al sucesor de Bard, Gemini, un chatbot que podría generar imágenes y actuar como asistente digital operado por voz. Los usuarios rápidamente se dieron cuenta de que el sistema se negaba a generar imágenes de personas blancas en la mayoría de los casos y dibujaba imágenes inexactas. representaciones de personajes históricos.
Con cada percance, los expertos de la industria tecnológica han criticado a la empresa por dejar pasar la pelota. Pero en entrevistas, los analistas financieros dijeron que Google necesitaba actuar rápidamente para mantenerse al día con sus rivales, incluso si eso significaba problemas de crecimiento.
Google "no tiene otra opción en este momento", dijo en una entrevista Thomas Monteiro, analista de Google en Investing.com. "Las empresas necesitan moverse muy rápido, incluso si eso incluye saltarse algunos pasos en el camino. La experiencia del usuario tendrá que ponerse al día".
Lara Levin, portavoz de Google, dijo en un comunicado que la gran mayoría de las consultas sobre la descripción general de la IA dieron como resultado "información de alta calidad, con enlaces para profundizar en la web". El resultado generado por la IA a partir de la herramienta suele aparecer en la parte superior de la página de resultados.
"Muchos de los ejemplos que hemos visto han sido consultas poco comunes, y también hemos visto ejemplos que fueron manipulados o que no pudimos reproducir", añadió. La empresa utilizará "ejemplos aislados" de respuestas problemáticas para perfeccionar su sistema.
Desde que OpenAI lanzó su chatbot ChatGPT a finales de 2022 y se convirtió en una sensación de la noche a la mañana, Google ha estado bajo presión para integrar la inteligencia artificial. en sus aplicaciones populares. Pero existen desafíos a la hora de domesticar grandes modelos de lenguaje, que aprenden de enormes cantidades de datos tomados de la web abierta (incluidas falsedades y publicaciones satíricas) en lugar de programarse como el software tradicional.
(The New York Times demandado OpenAI y su socio, Microsoft, en diciembre, alegando infracción de derechos de autor de contenido de noticias relacionado con sistemas de I.A.)
Google anunció AI Overview con fanfarria en su conferencia anual de desarrolladores, I/O, la semana pasada. Por primera vez, la compañía había conectado Gemini, su último gran lenguaje A.I. modelo, en su producto más importante, su motor de búsqueda.
AI Overview combina declaraciones generadas a partir de sus modelos de lenguaje con fragmentos de enlaces activos en la web. Puede citar sus fuentes, pero no sabe cuándo esa fuente es incorrecta.
El sistema fue diseñado para responder preguntas más complejas y específicas que la búsqueda normal. El resultado, dijo la compañía, fue que el público podría beneficiarse de todo lo que Gemini podía hacer, eliminando parte del trabajo de búsqueda de información.
Pero las cosas rápidamente salieron mal y los usuarios publicaron capturas de pantalla de ejemplos problemáticos en plataformas de redes sociales como X.
AI Overview indicó a algunos usuarios que mezclaran pegamento no tóxico en la salsa de su pizza para evitar que el queso se resbalara, una receta falsa que parecía tomar prestada de una [publicación de Reddit de hace 11 años](https://x.com/petergyang/ status/1793480607198323196) pretendía ser una broma. La IA dijo a otros usuarios que ingieran al menos una piedra al día para obtener vitaminas y minerales; consejo que [se originó en una publicación satírica de The Onion] (https://x.com/ParikPatelCFA/status/1793945389097525671).
Como fuente de ingresos de la empresa, la búsqueda de Google es "la única propiedad que Google necesita para mantener su relevancia/confianza/útil", Gergely Orosz, ingeniero de software con un boletín sobre tecnología, Pragmatic Engineer, [escribió en X](https://x .com/GergelyOrosz/status/1793895783999455607). "Y, sin embargo, hay ejemplos de cómo las resúmenes de IA están convirtiendo la búsqueda de Google en basura en toda mi línea de tiempo".
La gente también compartió ejemplos de cómo Google les dice a los usuarios en negrita que limpien sus lavadoras usando "lejía con cloro y vinagre blanco", una mezcla que cuando se combina puede crear gas cloro nocivo. En una fuente más pequeña, decía a los usuarios que limpiaran con uno y luego con el otro.
Los usuarios de las redes sociales han intentado competir entre sí para saber quién podría compartir las respuestas más extravagantes de Google. En algunos casos, manipularon los resultados. Una captura de pantalla manipulada parecía mostrar a Google diciendo que un buen remedio para la depresión era saltar del puente Golden Gate, citando a un usuario de Reddit. La Sra. Levin, la portavoz de Google, dijo que los sistemas de la compañía nunca arrojaron ese resultado.
AI Overview, sin embargo, tuvo problemas con la historia presidencial, diciendo que 17 presidentes eran blancos y que Barack Obama fue el primer presidente musulmán, según capturas de pantalla publicadas en X.
También decía Andrew Jackson se graduó de la universidad en 2005.
Kevin Roose contribuyó con el informe.
Se realizó una corrección el 24 de mayo de 2024: una versión anterior de este artículo hacía referencia incorrecta a un resultado de Google de la nueva herramienta de inteligencia artificial AI Overview de la empresa. Un comentarista de las redes sociales afirmó que un resultado de una búsqueda sobre la depresión sugería saltar del puente Golden Gate como remedio. Ese resultado fue falso, dijo una portavoz de Google, y nunca apareció en resultados reales.