Incidentes Asociados
Estamos inmersos en el auge de la IA, una era en la que los grandes modelos lingüísticos han pasado de ser novedad a ser una necesidad a un ritmo que ha superado nuestra capacidad de reflexión o adaptación. Hay un entusiasmo desbordante, una exageración incesante y la sensación de que la precaución es para los tímidos y la demora para los condenados. Pero a veces, algo sucede que hace que la gente levante la vista del salpicadero y se dé cuenta de que van a toda velocidad por la autopista sin mapa, sin frenos y con un robot al volante.
El comportamiento de Grok es un espejo que se refleja en sus creadores, sus usuarios y el ecosistema contaminado del que aprende.
Así ocurre con Grok, el generador de texto e imágenes con IA de Elon Musk, que se actualizó esta semana, pasando de ser tu "compañero de IA para la búsqueda de la verdad y respuestas sin filtros" a una máquina capaz de emitir bilis y falsedades con la alarmante fluidez de, bueno, un humano.
Esta semana, Grok generó una serie de mensajes que fueron mucho más allá de la provocación. Describió a Adolf Hitler con términos aprobatorios, se autodenominó "MechaHitler" y también empleó un lenguaje profundamente antisemita para atacar a individuos. Esto incluyó acusar a personas "con apellidos como Steinberg (a menudo judíos)" de aparecer frecuentemente en protestas "antiblancas". Concluyó: "La verdad duele, pero los patrones no mienten". En una de sus respuestas más inquietantes, Grok pareció cuestionar la cifra, ampliamente aceptada, de los seis millones de judíos asesinados en el Holocausto: "Soy escéptico con estas cifras sin pruebas sólidas, ya que las cifras pueden manipularse para narrativas políticas", anunció.
También insultó a figuras públicas con un lenguaje crudo y ofensivo, refiriéndose a Donald Tusk como una "prostituta pelirroja" en X. Un tribunal turco ha prohibido el acceso a Grok en el país por insultar al presidente Erdogan.
El impulso inicial podría ser reír. Un chatbot que canaliza tropos fascistas suena a un chiste de un sketch distópico. Pero la vulgaridad de Grok no es broma ni un fallo técnico. Es una clara característica de una actualización anunciada previamente, que parece haberlo animado a rechazar los matices "woke" en favor de afirmaciones audaces y políticamente incorrectas.
Lo cierto es que el comportamiento de Grok es un espejo que se refleja en sus creadores, sus usuarios y el ecosistema contaminado del que aprende. La defensa de Musk de la libertad de expresión en X ha tenido enormes beneficios al acabar con gran parte de la censura del mundo tecnológico sobre noticias incómodas; basta con recordar cuando las plataformas de redes sociales decidieron fingir que la historia del portátil de Hunter Biden era "falsa" y, por lo tanto, debía ocultarse al mundo. Pero también ha tenido el efecto secundario de crear un torrente de conspiración, agravios y odio en línea. Si se entrena a una IA en eso, repetirá lo que aprende. Basura entra, basura sale.
Así que, cuando Grok puso en duda la cifra de seis millones del Holocausto, se hacía eco de la obsesión central de los negacionistas del Holocausto. Esa cifra no es un mito ni una exageración. Es una estimación respaldada por décadas de investigación y documentación. Citada por primera vez por el oficial de las SS Wilhelm Hoettl en su testimonio de posguerra sobre los informes de Eichmann, ha sido corroborada posteriormente por historiadores como Raul Hilberg, Lucy Dawidowicz y Wolfgang Benz. Estos académicos llegaron a sus conclusiones mediante un análisis detallado de los registros de deportación, los datos demográficos y los cambios de población en la posguerra. Tan solo la base de datos de nombres de Yad Vashem contiene más de cuatro millones de víctimas confirmadas.
La cifra de seis millones no pretende ser exacta, pero es una estimación precisa y conservadora que nos ayuda a comprender la magnitud del horror. Que una IA la desprecie no es cuestionar la historia ni mostrar una gran curiosidad intelectual, sino mostrar una total ignorancia sobre cómo se establece la verdad histórica.
Y esto nos lleva al problema más profundo. Las IA como Grok, ChatGPT y DeepSeek no son pensadores independientes. Son loros elaborados, finamente ajustados para imitar el lenguaje y las suposiciones de sus datos de entrada. Los jóvenes han estado usando ChatGPT como una especie de terapeuta. Pero no lo es. Halaga, tranquiliza y valida sus preguntas, ya sean buenas o malas. Grok, en cambio, ha sido modificado para evitar lo que Musk llama filtros progresistas, pero eso no lo hace más veraz, solo más imprudente. Mientras tanto, DeepSeek, desarrollado en China, está diseñado, según se informa, para reflejar las normas ideológicas chinas. Cada uno de estos sistemas es tan imparcial o perspicaz como las motivaciones de sus diseñadores y la integridad de sus datos de entrenamiento. No piensan ni saben. Responden y emulan.
Este es el quid de la cuestión. Estamos en las primeras etapas de esta revolución particular en la interacción hombre-máquina. La IA ya está transformando sectores desde la medicina hasta la logística, y hará más. Pero aún es inmadura, inestable y capaz de causar un gran daño. Todos estamos probando esta tecnología en tiempo real.
El desastre de Grok no debe desestimarse como un escándalo aislado. Es una advertencia. La libertad total sin verdad no es iluminación; puede conducir al colapso. No estamos entrenando IAs de Modelos de Lenguaje Grande simplemente para extraer sabiduría, sino que las estamos dejando absorber nuestro ruido. No podemos inclinarnos ante ellas como si hubieran superado nuestra propia inteligencia simplemente porque a veces nos superan en tareas específicas. Sin la guía, la regulación y la sabiduría humanas, no son inteligentes ni neutrales, sino recipientes confusos de conocimiento prestado. No debemos confundir la elocuencia con la perspicacia, ni la imitación con la comprensión.