Incidentes Asociados
Los desarrollos recientes en automóviles sin conductor, reconocimiento de voz y aprendizaje profundo muestran cuánto pueden hacer las máquinas. Pero la IA también nos falló en 2016, y estos son algunos de los ejemplos más importantes.
Video: Chatbots desmitificados: la verdad detrás de la exageración Si usa tecnología moderna, probablemente haya usado un chatbot y probablemente haya encontrado sus deficiencias. ¿Cuál es la realidad detrás de la tendencia de los chatbots?
La IA ha experimentado un renacimiento durante el último año, con desarrollos en tecnología de vehículos sin conductor, reconocimiento de voz y el dominio del juego "Go", que revelan de lo que son capaces las máquinas.
Pero con todos los éxitos de la IA, también es importante prestar atención a cuándo y cómo puede salir mal, para evitar errores futuros. Un artículo reciente de Roman Yampolskiy, director del Laboratorio de Ciberseguridad de la Universidad de Louisville, describe una historia de fallas de IA que están "directamente relacionadas con los errores producidos por la inteligencia que tales sistemas están diseñados para exhibir". Según Yampolskiy, este tipo de fallas pueden atribuirse a errores durante la fase de aprendizaje o errores en la fase de desempeño del sistema de IA.
Aquí están las 10 principales fallas de IA de TechRepublic de 2016, extraídas de la lista de Yampolskiy, así como de los aportes de varios otros expertos en IA.
- La IA creada para predecir futuros delitos era racista
La empresa Northpointe construyó un sistema de inteligencia artificial diseñado para predecir las posibilidades de que un presunto delincuente vuelva a cometer un delito. El algoritmo, llamado "Minority Report-esque" por Gawker (una referencia al cuento distópico y la película basada en el trabajo de Philip K. Dick), fue acusado de participar en prejuicios raciales, ya que era más probable que los delincuentes negros fueran marcados. como en mayor riesgo de cometer un crimen futuro que los de otras razas. Otro medio de comunicación, ProPublica, descubrió que el software de Northpointe no era un "predictor eficaz en general, independientemente de la raza".
- Los personajes que no son jugadores en un videojuego fabrican armas más allá de los planes del creador.
En junio, un videojuego impulsado por IA llamado Elite: Dangerous exhibió algo que los creadores nunca pretendieron: la IA tenía la capacidad de crear superarmas que estaban más allá del alcance del diseño del juego. Según un sitio web de juegos, "[p] los jugadores se verían envueltos en peleas contra barcos armados con armas ridículas que los harían pedazos". Posteriormente, las armas fueron retiradas de los desarrolladores del juego.
- Robot hirió a un niño
El llamado "robot de lucha contra el crimen", creado por la plataforma Knightscope, se estrelló contra un niño en un centro comercial de Silicon Valley en julio, hiriendo al niño de 16 meses. Los Angeles Times citó a la compañía diciendo que el incidente fue un "accidente extraño".
- Fatalidad en el modo de piloto automático de Tesla
Como informó anteriormente TechRepublic, Joshua Brown conducía un Tesla en modo de piloto automático cuando su vehículo chocó con un camión con remolque en una carretera de Florida, en la primera fatalidad reportada de la función. Desde el accidente, Telsa ha anunciado importantes actualizaciones en su software Autopilot, que según Elon Musk habrían evitado esa colisión. Ha habido otras muertes relacionadas con el piloto automático, incluida una en China, aunque ninguna puede vincularse directamente con una falla del sistema de inteligencia artificial.
- El chatbot de Microsoft, Tay, pronuncia insultos racistas, sexistas y homofóbicos.
En un intento por entablar relaciones con clientes más jóvenes, Microsoft lanzó un chatbot impulsado por IA llamado "Tay.ai" en Twitter la primavera pasada. "Tay", inspirada en una adolescente, se transformó en, bueno, un "troll que ama a Hitler y ataca a las feministas", solo un día después de su debut en línea. Microsoft sacó a Tay de la plataforma de redes sociales y anunció que planeaba hacer "ajustes" a su algoritmo.
VER: Big data puede revelar estereotipos inexactos en Twitter, según estudio UPenn (TechRepublic)
- El concurso de belleza juzgado por IA es racista
En "El primer concurso internacional de belleza juzgado por inteligencia artificial", un panel de robots juzgó rostros, basándose en "algoritmos que pueden evaluar con precisión los criterios relacionados con la percepción de la belleza y la salud humanas", según el sitio del concurso. Pero al no proporcionar a la IA un conjunto de entrenamiento diverso, los ganadores del concurso fueron todos blancos. Como dijo Yampolskiy, "La belleza está en el reconocedor de patrones".
- Pokémon Go mantiene a los jugadores en barrios blancos
Después del lanzamiento del popular Pokémon Go en julio, varios usuarios notaron que había menos ubicaciones de Pokémon en vecindarios principalmente negros. Según Anu Tewary, director de datos de Mint en Intuit, se debe a que los creadores de los algoritmos no proporcionaron un conjunto de capacitación diverso y no pasaron tiempo en estos vecindarios.
- La IA de Google, AlphaGo, pierde el juego 4 de Go contra Lee Sedol
En marzo de 2016, la IA de Google, AlphaGo, fue derrotada en el cuarto juego de una serie de cinco rondas del juego Go por Lee Sedol, 18 veces campeón mundial del juego. Y aunque el programa AI ganó la serie, la victoria de Sedol demostró que los algoritmos de AI aún no son perfectos.
"Lee Sedol encontró una debilidad, al parecer, en la búsqueda de árboles de Monte Carlo", dijo Toby.