Registro de citas para el Incidente 693

Respondido
Description: Google's AI search engine has reportedly been providing users with confidently incorrect and often harmful information. Reports highlight numerous inaccuracies, including misleading health advice and dangerous cooking suggestions. For example, it has falsely claimed Barack Obama as the first Muslim U.S. President, reflecting fringe conspiracy theories, or recommending that glue can be an ingredient in pizza.
Editor Notes: Reports about Incident 693 occasionally reference reports associated with Incident 609.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por Google, perjudicó a Google users y General public.

Estadísticas de incidentes

ID
693
Cantidad de informes
7
Fecha del Incidente
2024-05-14
Editores
Daniel Atherton
Applied Taxonomies
La búsqueda de vídeos Gemini de Google comete un error fáctico en una demostración
theverge.com · 2024

Google hizo mucho ruido acerca de que Gemini AI se hará cargo de las búsquedas en su Conferencia I/O hoy, pero una de sus demostraciones más llamativas volvió a estar marcada por la siempre -presente defecto fatal de todo modelo de lenguaje…

translated-es-Google promised a better search experience — now it’s telling us to put glue on our pizza
theverge.com · 2024

translated-es-Imagine this: you've carved out an evening to unwind and decide to make a homemade pizza. You assemble your pie, throw it in the oven, and are excited to start eating. But once you get ready to take a bite of your oily creatio…

La función de búsqueda de inteligencia artificial de Google sugirió usar pegamento para mantener el queso pegado a la pizza
businessinsider.com · 2024

La nueva función de búsqueda de Google, AI Overviews, parece estar funcionando mal.

La herramienta, que proporciona resúmenes de resultados de búsqueda generados por IA, parecía indicarle a un usuario que pusiera pegamento en la pizza cuand…

translated-es-Google’s AI Is Churning Out a Deluge of Completely Inaccurate, Totally Confident Garbage
futurism.com · 2024

translated-es-Google's AI search, which swallows up web results and delivers them to users in a regurgitated package, delivers each of its AI-paraphrased answers to user queries in a concise, coolly confident tone. Just one tiny problem: it…

Por qué la IA de Google podría recomendarte mezclar pegamento en tu pizza
washingtonpost.com · 2024

Probablemente tengas la sensación de que las nuevas formas de inteligencia artificial pueden ser tontas como piedras.

La información hilarantemente errónea de la nueva IA de Google te muestra cuán tonta es.

En los resultados de búsqueda, la…

La IA de Google Los errores de búsqueda causan furor en línea
nytimes.com · 2024

La semana pasada, Google dio a conocer su mayor cambio en la búsqueda en años, mostrando nuevas capacidades de inteligencia artificial que Responda las preguntas de la gente en el intento de la empresa de ponerse al día con sus rivales Micr…

translated-es-Google Rolls Back A.I. Search Feature After Flubs and Flaws
nytimes.com · 2024
Respuesta post-incidente de Nico Grant

translated-es-When Sundar Pichai, Google's chief executive, introduced a generative artificial intelligence feature for the company's search engine last month, he and his colleagues demonstrated the new capability with six text-based querie…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.