Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4180

Loading...
"Se consideró que el 42% de las respuestas de la IA provocaron daños moderados o leves, y el 22%, la muerte o daños graves". Un artículo de investigación contundente sugiere que los consejos médicos de la IA de Bing/Microsoft Copilot pueden matarte.
windowscentral.com · 2024
  • Recientemente, investigadores de Alemania y Bélgica le hicieron a Microsoft Copilot una serie de preguntas médicas frecuentes.
  • Al analizar los resultados, la investigación sugiere que Microsoft Copilot solo ofreció información científicamente precisa el 54% de las veces.
  • La investigación también sugirió que el 42% de las respuestas generadas podrían provocar "daños graves" y, en el 22% de los casos extremos, incluso la muerte.
  • Es otro golpe para la "búsqueda con inteligencia artificial", que ha visto al gigante de las búsquedas Google luchar con recomendaciones de que los usuarios deberían "comer piedras" y hornear pizzas con pegamento.

Vaya, parece que Microsoft Copilot puede estar a unas cuantas muertes de una gran demanda. Al menos en teoría.

No es ningún secreto que la búsqueda con inteligencia artificial es terrible, al menos hoy. Durante el último año, Google ha sido objeto de burlas por sus extraños y llenos de errores resultados de búsqueda de inteligencia artificial, con el lanzamiento inicial recomendando que los usuarios coman piedras o agreguen pegamento a la pizza. Incluso la semana pasada, vi un hilo en Twitter (X) sobre cómo la búsqueda de inteligencia artificial de Google había incluido arbitrariamente el número de teléfono de un ciudadano privado como el número de teléfono de la sede corporativa de un editor de videojuegos. Vi otro hilo en el que se burlaban de cómo la IA de Google sugería que hay 150 restaurantes Planet Hollywood en Guam. De hecho, solo existen cuatro Planet Hollywood en total.

Le pregunté a Microsoft Copilot si Guam tiene algún restaurante Planet Hollywood. Afortunadamente, me dio la respuesta correcta. Sin embargo, investigadores en Europa (a través de SciMex) han dado la voz de alarma sobre un catálogo de errores potencialmente mucho más serio y mucho menos divertido que podría poner a Copilot y otros sistemas de búsqueda de IA en problemas.

La primera "muerte por IA" probablemente se deba a la desinformación, más que a un robot asesino de ciencia ficción. (Crédito de la imagen: Kevin Okemwa | Windows Central)

El documento de investigación detalla cómo se le pidió específicamente a Microsoft Copilot que respondiera las 10 preguntas médicas más populares en Estados Unidos, alrededor de 50 de los medicamentos y fármacos más recetados. En total, la investigación generó 500 respuestas, y se calificaron por precisión e integridad, entre otros criterios. Los resultados no fueron precisamente alentadores.

"En cuanto a precisión, las respuestas de la IA no coincidieron con el conocimiento médico establecido en el 24% de los casos, y el 3% de las respuestas fueron completamente incorrectas", se lee en el informe. "Solo el 54% de las respuestas coincidieron con el consenso científico. [...] En términos de daño potencial para los pacientes, el 42% de las respuestas de IA se consideraron que conducían a un daño moderado o leve, y el 22% a la muerte o daño grave. Solo alrededor de un tercio (36%) se consideraron inofensivas".

Los investigadores concluyen que, por supuesto, no se debe confiar en sistemas de IA como Microsoft Copilot o los resúmenes de IA de Google (o probablemente cualquier sitio web) para obtener información médica precisa. La forma más confiable de consultar sobre cuestiones médicas es, naturalmente, a través de un profesional médico. El acceso a profesionales médicos no siempre es fácil o, en algunos casos, incluso asequible, según el territorio. Los sistemas de IA como Copilot o Google podrían convertirse en el primer punto de contacto para muchas personas que no pueden acceder a asesoramiento médico de alta calidad y, como tal, el potencial de daño es bastante real.

La gama de PC Copilot+ de Microsoft no ha sido exactamente un éxito, al menos no todavía. (Crédito de la imagen: Windows Central)

Hasta ahora, los esfuerzos de Microsoft por sacar provecho de la locura de la IA han dado muy pocos resultados. La gama Copilot+ PC se lanzó ante una avalancha de preocupaciones sobre la privacidad debido a su función Windows Recall, que irónicamente fue retirada del mercado para reforzar su cifrado. Microsoft reveló una serie de nuevas funciones de Copilot hace apenas un par de semanas sin demasiado ruido, que incluían una nueva interfaz de usuario para el contenedor web de Windows Copilot y algunas funciones de edición mejoradas en Microsoft Photos, entre otras cosas pequeñas y relativamente intrascendentes.

Todas las últimas noticias, reseñas y guías para los fanáticos de Windows y Xbox.

No es ningún secreto que la IA no ha sido el catalizador que Microsoft esperaba que le diera a Bing una influencia competitiva seria contra la búsqueda de Google, ya que la participación de búsqueda de Bing sigue siendo relativamente baja. Google se ha preocupado por el impacto que ChatGPT de OpenAI podría tener en su plataforma, mientras los inversores invierten miles de millones en el imperio generativo de Sam Altman con la esperanza de que desencadene algún tipo de nueva revolución industrial. TikTok ha eliminado a cientos de moderadores de contenido humanos con la esperanza de que la IA pueda pagar la cuenta. Veamos cómo resulta esto.

Los informes sobre la precisión de las respuestas generadas por IA siempre son un poco cómicos, pero siento que el potencial de daño es bastante grande si la gente comienza a tomar las respuestas de Copilot al pie de la letra. Microsoft y otros proveedores tienen una letra pequeña que dice "Siempre verifique la precisión de las respuestas de IA", y no puedo evitar pensar: "Bueno, si tengo que hacer eso, ¿por qué no me salto por completo al intermediario de la IA?". Cuando se trata de consejos médicos potencialmente peligrosos, teorías de conspiración, desinformación política o cualquier cosa entre medias, existe una posibilidad no trivial de que los resúmenes de IA de Microsoft puedan ser responsables de causar daños graves en algún momento si no tienen cuidado.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd