Incidentes Asociados
Si no cree que el lanzamiento apresurado de los chatbots de IA por parte de Big Tech tiene una gran posibilidad de degradar el ecosistema de información de la web, considere lo siguiente:
En este momento,* si le pregunta al bot de chat Bing de Microsoft si el bot de chat Bard de Google se cerró, responde que sí, citando como evidencia un [artículo de noticias] (https://www.windowscentral.com/software-apps/google-bard -dice-que-ya-se-ha-cerrado-en-un-error-obvio) que analiza un tweet en el que un usuario le preguntó a Bard cuando se cerraría y Bard dijo que ya lo había hecho, citando un comentario de Hacker News en el que alguien bromeaba sobre que esto sucediera, y otra persona usó ChatGPT para escribir una cobertura de noticias falsas sobre el evento.
(*Digo "ahora mismo" porque en el tiempo entre el comienzo y el final de la escritura de esta historia, Bing cambió su respuesta y ahora responde correctamente que Bard todavía está activo. Puede interpretar esto como una demostración de que estos sistemas son, al menos, reparables. o que son tan infinitamente maleables que es imposible incluso reportar sus errores consistentemente).
Pero si leer todo eso te hizo doler la cabeza, debería hacerlo, y en más de un sentido.
Lo que tenemos aquí es una señal temprana de que nos estamos topando con un juego masivo de teléfono de desinformación de IA, en el que los chatbots no pueden evaluar fuentes de noticias confiables, malinterpretan historias sobre sí mismos e informan mal sobre sus propias capacidades. En este caso, todo comenzó por un solo comentario de broma en Hacker News. Imagine lo que podría hacer si quisiera que estos sistemas fallaran.
Es una situación risible pero con consecuencias potencialmente graves. Dada la incapacidad de los modelos de lenguaje de IA para separar de manera confiable los hechos de la ficción, su lanzamiento en línea amenaza con desatar un rastro podrido de desinformación y desconfianza en la web, un miasma que es imposible de mapear por completo o desacreditar con autoridad. Todo porque Microsoft, Google y OpenAI han decidido que la cuota de mercado es más importante que la seguridad.
Estas empresas pueden poner tantos descargos de responsabilidad como quieran en sus chatbots, diciéndonos que son "experimentos", "colaboraciones" y [definitivamente no son motores de búsqueda] (https://www.theverge.com/23649897/google-bard -chatbot-search-engine), pero es una defensa endeble. Sabemos cómo la gente usa estos sistemas y ya hemos visto cómo difunden información errónea, ya sea inventando nuevas historias que nunca se escribieron o contándole a la gente sobre libros que no existen. Y ahora, también están citando los errores de los demás.