Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 484

Incidentes Asociados

Incidente 3221 Reportes
Identical Twins Can Open Apple FaceID Protected Devices

Loading...
Las 5 principales fallas de IA de 2017 que prueban que la 'IA perfecta' sigue siendo un sueño
analyticsindiamag.com · 2018

En el pasado, hemos visto casos como el fracaso del bot Tay de Microsoft, cuando desarrolló una tendencia a hacer comentarios racistas. Dentro de las 24 horas de su existencia e interacción con las personas, comenzó a enviar comentarios ofensivos y pasó de "los humanos son súper geniales" a ser casi un nazi.

Si bien, por un lado, los chatbots, los robots y las plataformas conversacionales están encontrando su nicho en muchas empresas, estos avances tecnológicos también se están convirtiendo en la corriente principal para convertirse en la cara de la empresa. Pero muchas veces terminan fallando y decepcionándonos. Si bien la mayoría de las veces estas tecnologías fallan porque las empresas no definen claramente su propósito, otras pueden ser puras fallas técnicas.

Aquí enumeramos algunas de las fallas tecnológicas del año pasado que insinúan que las empresas deben trabajar más duro y seguir presentando versiones mejores y mejoradas de sus innovaciones.

  1. Cuando los chatbots de Facebook desarrollaron su propio lenguaje

Por aterrador que parezca, "Bob" y "Alice", los chatbots creados por Facebook tuvieron que cerrarse cuando el dúo comenzó a comunicarse en su propio idioma, desafiando los algoritmos generados por humanos.

Los bots se desarrollaron originalmente para aprender a negociar, imitando el comercio y el trueque humanos, pero cuando se emparejaron para comerciar entre sí, comenzaron a aprender su propia forma extraña de comunicación. Aunque fueron diseñados para comunicarse en inglés, desarrollaron su propio lenguaje misterioso que los humanos no pudieron descifrar.

Bob: puedo yo todo lo demás. . . . . . . . . .

Alice: las pelotas tienen cero a mí a mí a mí a mí a mí a mí a mí a

Así es como se veía su conversación. Los investigadores detuvieron el funcionamiento de los bots de chat alegando que estaban buscando bots que pudieran comportarse de manera diferente.

  1. Cuando Mitra, el robot, no pudo saludar al primer ministro

El robot construido localmente llamado Mitra, desarrollado por Invento Robotics, con sede en Bangalore, se acercó para dar la bienvenida al primer ministro indio Narendra Modi e Ivanka Trump en la inauguración de la Cumbre Global de Emprendimiento (GES) en Hyderabad. Si bien el robot estaba programado para dar la bienvenida a cada uno de ellos con su nombre al presionar las banderas respectivas, no lo hizo.

Cuando se le pidió por primera vez a Modi que presionara la bandera india, Ivanka también terminó presionando la bandera de EE. UU. simultáneamente y debido a la confusión debido a la superposición, Mitra no pudo funcionar correctamente.

Esta falla podría atribuirse a una codificación deficiente, donde no se dieron instrucciones específicas al robot para completar la tarea actual antes de comenzar una nueva. Por ejemplo, seguía diciendo: "Bienvenida, señorita Iván, bienvenida, señorita Iván, bienvenido, Shri Narendra Modi". El robot no pudo decir el nombre completo de Ivanka Trump porque antes de que pudiera completar la oración, recibió una nueva entrada y dio preferencia a las solicitudes más nuevas.

  1. Cuando los vehículos autónomos y sin conductor se volvieron desastrosos

En un trágico incidente que involucró a un automóvil autónomo de Uber, una mujer murió durante un juicio, lo que detuvo las operaciones de vehículos autónomos en todo el mundo. El automóvil circulaba por una vía parcialmente iluminada, cuando una mujer apareció de la nada en la oscuridad. El Volvo autónomo de Uber que conducía a una velocidad de 61 km/h, no logró detenerlo y resultó en un fatídico accidente.

De vuelta en India, el primer metro sin conductor de Delhi sufrió un accidente durante su prueba, y se promocionó que se trataba de un error humano y negligencia. Según se informa, el tren de prueba fue trasladado a la prueba desde el taller sin probar el freno, como resultado de lo cual el tren en movimiento golpeó la pared limítrofe adyacente, sin causar daños a las vidas.

  1. Cuando el reconocimiento facial del iPhone X no pudo diferenciar a los gemelos idénticos

Cuando Apple lanzó su iPhone X con mucho aplomo, quedó asombrado por su inteligencia artificial y sus capacidades de aprendizaje automático. El reconocimiento facial era una de las capacidades clave de las que se jactaba, pero se descubrió que tenía debilidad por los gemelos idénticos.

Cuando Apple presentó Face ID en septiembre, advirtió que su tasa de aceptación podría ser un poco más baja si se presentaban dos personas con un ADN muy similar, es decir, gemelos idénticos, se podría especular que Face ID no era perfecto. Face ID, una tecnología de mapeo facial que puede desbloquear teléfonos, verificar Apple Pay y reemplazar los escáneres de huellas dactilares, podría ser engañada en algún nivel, especialmente cuando se hace que los gemelos idénticos usen Face ID.

Eso no es todo, una semana después del lanzamiento del teléfono, la empresa de seguridad vietnamita Bkav, utilizando una máscara con una base impresa en 3D, convenció al teléfono de que era humano e hizo que se desbloqueara solo. La firma dijo que solo costó $ 150 crear la máscara e insinuó un posible ataque de piratas informáticos en el futuro.

  1. Cuando Alexa y Amazon Echo se equivocaron

El popular Amazon Echo le costó a uno de sus propietarios una enorme factura de cerrajería, cuando la policía tuvo que derribar la casa debido a las quejas de los vecinos por la música alta temprano en la mañana. Amazon Echo, que viene con parlantes robustos e inteligentes, se activó accidentalmente y puso música a todo volumen cuando los residentes estaban fuera.

yo

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd