Incidentes Asociados
En los más de dos años transcurridos desde que la inteligencia artificial generativa arrasó en el mundo tras el lanzamiento de ChatGPT, la confianza ha sido un problema constante.
Alucinaciones, los cálculos erróneos y los sesgos culturales han afectado los resultados, recordando a los usuarios que hay un límite a cuánto podemos confiar en la IA, al menos por ahora.
El chatbot Grok de Elon Musk, creado por su startup xAI, demostró esta semana que existe un motivo de preocupación más profundo: la IA puede ser fácilmente manipulada por humanos.
El miércoles, Grok comenzó a responder a las consultas de los usuarios con afirmaciones falsas sobre "genocidio blanco" en Sudáfrica. Al final del día, se publicaron capturas de pantalla de respuestas similares en X, incluso cuando las preguntas no tenían nada que ver con el tema.
Tras guardar silencio sobre el asunto durante más de 24 horas, xAI declaró el jueves por la noche que el extraño comportamiento de Grok se debió a una "modificación no autorizada" de las llamadas indicaciones del sistema de la aplicación de chat, que ayudan a determinar su comportamiento e interacción con los usuarios. En otras palabras, los humanos dictaban la respuesta de la IA.
La naturaleza de la respuesta, en este caso, está directamente relacionada con Musk, quien nació y creció en Sudáfrica. Musk, propietario de xAI además de sus cargos de director ejecutivo en Tesla y SpaceX, ha estado promoviendo la falsa afirmación de que la violencia contra algunos agricultores sudafricanos constituye un "genocidio blanco", una opinión que también ha expresado el presidente Donald Trump.
"Creo que es increíblemente importante por el contenido y por quién dirige esta empresa, y por cómo sugiere o arroja luz sobre el poder que estas herramientas tienen para moldear el pensamiento y la comprensión del mundo de las personas", declaró Deirdre Mulligan, profesora de la Universidad de California en Berkeley y experta en gobernanza de la IA.
Mulligan calificó el error de Grok como una "falla algorítmica" que "destroza por completo" la supuesta naturaleza neutral de los grandes modelos lingüísticos. Afirmó que no hay razón para considerar el fallo de Grok como una mera "excepción".
Los chatbots con IA creados por Meta, Google y OpenAI no están "empaquetando" la información de forma neutral, sino que la pasan a través de un "conjunto de filtros y valores integrados en el sistema", explicó Mulligan. La falla de Grok ofrece una perspectiva de la facilidad con la que cualquiera de estos sistemas puede alterarse para satisfacer los intereses de un individuo o grupo.
Representantes de xAI, Google y OpenAI no respondieron a las solicitudes de comentarios. Meta declinó hacer comentarios.
Diferente a problemas anteriores
xAI afirmó en su declaración que la alteración no autorizada de Grok violó "políticas internas y valores fundamentales". La compañía afirmó que tomaría medidas para prevenir desastres similares y publicaría las indicaciones del sistema de la aplicación para "fortalecer la confianza en Grok como una IA que busca la verdad".
No es el primer error de IA que se viraliza en línea. Hace una década, la aplicación Fotos de Google etiquetó erróneamente a los afroamericanos como gorilas. El año pasado, Google suspendió temporalmente su función de generación de imágenes con IA Gemini tras admitir que presentaba "inexactitudes" en imágenes históricas. En 2022, algunos usuarios acusaron al generador de imágenes DALL-E de OpenAI de mostrar indicios de sesgo, lo que llevó a la compañía a anunciar que estaba implementando una nueva técnica para que las imágenes "reflejen con precisión la diversidad de la población mundial".
En 2023, el 58 % de los responsables de la toma de decisiones en IA en empresas de Australia, el Reino Unido y Estados Unidos expresaron su preocupación por el riesgo de alucinaciones en una implementación de IA generativa, según Forrester. La encuesta de septiembre de ese año incluyó a 258 participantes.
La ambición de Musk con Grok 3 tiene motivaciones políticas y financieras, según un experto.
Expertos declararon a la CNBC que el incidente de Grok recuerda al DeepSeek chino, que se convirtió en un fenómeno repentino en EE. UU. a principios de este año debido a la calidad de su nuevo modelo y a que, según se informa, se construyó a un costo mucho menor que el de sus rivales estadounidenses.
Los críticos han afirmado que DeepSeek censura temas se considera sensible para el gobierno chino. Al igual que China con DeepSeek, Musk parece estar influyendo en los resultados con base en sus opiniones políticas, afirman.
Cuando xAI debutó Grok en noviembre de 2023, Musk afirmó que su objetivo era tener "un poco de ingenio", "una vena rebelde" y responder a las "preguntas picantes" que los competidores podrían eludir. En febrero, xAI culpó a un ingeniero por los cambios que suprimieron las respuestas de Grok a las preguntas de los usuarios sobre desinformación, excluyendo los nombres de Musk y Trump de las respuestas.
Pero la reciente obsesión de Grok con el "genocidio blanco" en Sudáfrica es más extrema.
Petar Tsankov, director ejecutivo de LatticeFlow AI, empresa de auditoría de modelos de IA, afirmó que el estallido de Grok es más sorprendente que lo observado con DeepSeek, ya que "en cierto modo cabría esperar algún tipo de manipulación por parte de China".
Tsankov, cuya empresa tiene su sede en Suiza, afirmó que la industria necesita mayor transparencia para que los usuarios puedan comprender mejor cómo las empresas construyen y entrenan sus modelos y cómo esto influye en el comportamiento. Destacó los esfuerzos de la UE para exigir a más empresas tecnológicas que ofrezcan transparencia como parte de una normativa más amplia en la región.
Sin una protesta pública, "nunca podremos implementar modelos más seguros", afirmó Tsankov, y serán las personas las que pagarán las consecuencias por confiar en las empresas que los desarrollan.
Mike Gualtieri, analista de Forrester, afirmó que no es probable que el desastre de Grok frene el crecimiento de usuarios de chatbots ni disminuya las inversiones que las empresas están realizando en esta tecnología. Añadió que los usuarios tienen cierto nivel de aceptación ante este tipo de situaciones.
"Ya sea Grok, ChatGPT o Gemini, todo el mundo lo espera ahora", afirmó Gualtieri. "Les han contado cómo los modelos alucinan. Se espera que esto suceda".
Olivia Gambelin, experta en ética de IA y autora del libro "Responsible AI", publicado el año pasado, afirmó que, si bien este tipo de actividad de Grok puede no ser sorprendente, subraya una falla fundamental en los modelos de IA.
Gambelin dijo que "demuestra que es posible, al menos con los modelos Grok, ajustar estos modelos fundamentales de propósito general a voluntad".