Incidentes Asociados
Probablemente tengas la sensación de que las nuevas formas de inteligencia artificial pueden ser tontas como piedras.
La información hilarantemente errónea de la nueva IA de Google te muestra cuán tonta es.
En los resultados de búsqueda, la IA de Google sugirió recientemente mezclar pegamento con los ingredientes de la pizza para que el queso no se resbale. (No hagas esto). Anteriormente se ha dicho que beber mucha orina puede ayudarle a eliminar un cálculo renal. (No hagas esto. Y Google dijo que solucionó este problema).
La IA de Google dijo que John F. Kennedy se graduó de la Universidad de Wisconsin en Madison en seis años diferentes, incluido 1993. Decía ningún país africano comienza con la letra "K." (No, Kenia).
Estos son en su mayoría ejemplos tontos que en algunos casos provienen de personas que intentaron convencer a la IA de Google para que dijera algo incorrecto.
Pero hay una lección seria: deberías tener expectativas relativamente bajas para la IA. Con la IA generativa de Google, ChatGPT de OpenAI y Copilot de Microsoft, debes asumir que están equivocados hasta que se demuestre lo contrario.
Estos chatbots aún pueden resultar increíblemente útiles. Pero asumir que están equivocados es un modelo mental diferente al de la mayoría de las tecnologías que se utilizan habitualmente. Cuando escribe direcciones en Waze, envía un correo electrónico o hace clic en un enlace en Google, tiene una expectativa razonable de que las tecnologías funcionen de manera adecuada y precisa.
"La gran mayoría de las descripciones generales de IA proporcionan información de alta calidad, con enlaces para profundizar en la web", dijo Google en un comunicado. La compañía dijo que realizó pruebas exhaustivas antes de que se lanzaran los resultados de la búsqueda de IA y que está utilizando ejemplos de errores para "desarrollar mejoras más amplias en nuestros sistemas, algunas de las cuales ya han comenzado a implementarse".
Explicaré por qué la IA de Google (y otros chatbots) podrían indicarle que coma pegamento y las lecciones que debe aprender de esos errores.
Cómo la IA puede estar tan equivocada
La tecnología detrás de ChatGPT y las "Descripciones generales de IA" en las búsquedas de Google, que [se lanzó a todos los estadounidenses la semana pasada](https://www.washingtonpost.com/technology/2024/05/14/google-io-announcements-2024 /?itid=lk_inline_manual_16), se denomina modelo de lenguaje grande.
La tecnología ha recibido gran cantidad de información de Internet --- podrían ser artículos de noticias, Wikipedia, recetas en línea, exámenes de práctica de admisión a la facultad de derecho, foros de Reddit y más. Basándose en patrones de datos de Internet, las computadoras generan palabras matemáticamente probables para sus solicitudes.
El programador informático Simon Willison dijo que la IA de Google funciona procesando los términos que escribes en el cuadro de búsqueda y pegando la búsqueda y los resultados en un modelo de lenguaje grande. Luego extrae información útil de sitios web relevantes en los resultados de búsqueda de Google.
A veces, la IA de Google aísla información correcta y útil. A veces, especialmente si no hay mucha información en línea relacionada con su búsqueda, arroja algo incorrecto.
El ejemplo del pegamento para pizza, dijo Willison, parecía provenir de la relativamente escasa información en línea relacionada con una búsqueda en Google probablemente poco común sobre cómo hacer que el queso se pegue a la pizza. La IA de búsqueda de Google pareció obtener su respuesta de una publicación de Reddit de hace 11 años aparentemente en broma.
La IA no puede distinguir entre un chiste y un hecho. O si la IA no tiene suficiente información para darte una respuesta precisa, podría inventar una ficción que parezca segura, incluyendo que los perros han jugado baloncesto y hockey profesionalmente.
"Es difícil crear una versión de esto que no tenga todo tipo de errores extraños", dijo Willison.
La mayoría de los ejemplos que circulan por las redes sociales fueron errores ridículos de la IA de Google. Sin embargo, confirmamos que la IA de Google proporcionó información errónea habitual de que el ex presidente Barack Obama es musulmán. Eso es una mentira.
Google dijo que eliminó la información falsa generada por IA.
Las empresas no revelan mucho sobre de qué información "aprenden" sus modelos de IA o con qué frecuencia sus chatbots se equivocan.
OpenAI dijo su tasa de precisión ha mejorado. Microsoft dijo que su chatbot Copilot incluye enlaces en sus respuestas, como lo hace Google, para que la gente pueda explorar más. Microsoft también dijo que recibe comentarios de la gente y está mejorando Copilot.
'Desconfía y verifica'
Willison sugirió un giro en el estribillo de la era Reagan de "confiar pero verificar" para los chatbots. Pongámoslo en pegatinas para los parachoques.
La mayoría de la gente no comería pegamento sólo porque Google lo sugiriera. Pero los chatbots ya son difíciles de utilizar de forma eficaz. El riesgo es que una IA que esté muy equivocada le haga perder el tiempo y erosione su confianza en una tecnología emergente.
Redactor de tecnología Molly White dijo que las empresas deberían hacer más para reducir sus expectativas.
Dijo que Google, OpenAI y Microsoft deben tener más cuidado de no mostrarle información generada por IA para preguntas de alto riesgo como las relacionadas con su salud o la ley.
Representantes de Google y OpenAI dijeron que las empresas ponen límites al uso de información generada por IA para temas de mayor importancia, incluidas cuestiones legales y de salud. Microsoft dijo que muchas respuestas de Copilot, incluso para información legal y de salud, pueden remitir a las personas a los resultados de búsqueda web de Bing.
White también dijo que las empresas no deberían hacer demostraciones poco realistas de chatbots ingeniosos que hagan que parezca que estás interactuando con un humano que tiene conocimientos infinitos.
"No es una persona la que está al otro lado de la línea razonando", dijo White. "Se trata de adivinar lo que puede sonar bien".
Es particularmente complicado establecer expectativas para las respuestas de la IA en las búsquedas de Google. Google ahora está mezclando resultados de búsqueda familiares con información nueva generada por IA que probablemente sea menos confiable. ChatGPT no está haciendo eso.
Con expectativas apropiadamente bajas, todavía tengo una cautelosa curiosidad acerca de la IA de Google. Esta semana hice una búsqueda en Google sobre el editor principal de Wired. La información generada por la IA de Google entrelazó sus detalles biográficos, además de una cita de su jefe cuando la contrataron.
Sin la respuesta de inteligencia artificial de Google, habría tenido que buscar en varios enlaces para encontrar la información. Esa es la promesa que ha hecho Google: su IA buscará en Google por usted .
Esa vez la promesa se cumplió. Y la IA de Google no me dijo que comiera pegamento.