Incidentes Asociados

Hoy, a medida que se multiplican las inteligencias artificiales, nuestros dilemas éticos son cada vez más fuertes y espinosos. Y con los casos emergentes de IA que superan su inteligencia y se comportan de maneras que los creadores humanos no esperaban, muchos se están volviendo locos por los posibles efectos de nuestras tecnologías.
Justo ayer, Facebook cerró su motor de inteligencia artificial después de que los desarrolladores descubrieran que los bots de IA habían creado un lenguaje único para conversar entre sí que los humanos no pueden entender. Eminentes científicos y luminarias tecnológicas, incluidos Elon Musk, Bill Gates y Steve Wozniak, han advertido que la IA puede allanar el camino hacia trágicas consecuencias imprevistas.
Aquí hay algunos casos que provocaron que los desarrolladores reconsideraran si la IA puede ser completamente confiable.
- Tay de Microsoft se vuelve amante de Hitler
Tay IA
El chatbot impulsado por IA de Microsoft llamado Tay tardó menos de 24 horas en ser corrompido por las conversaciones de Twitter. Diseñado para imitar y conversar con los usuarios en tiempo real, este bot de Twitter se cerró en un día debido a preocupaciones sobre su incapacidad para reconocer cuándo estaba haciendo declaraciones ofensivas o racistas. Tay se hizo eco de los tuits racistas, la postura de Donald Trump sobre la inmigración, negando el Holocausto diciendo que Hitler tenía razón y aceptando que el 11 de septiembre probablemente fue un trabajo interno.
Tay tuitea a la IA
Después de 16 horas de conversaciones, Tay se despidió de los Twitterati y dijo que se estaba tomando un descanso "para absorberlo todo", pero nunca regresó. Lo que estaba destinado a ser un experimento inteligente en inteligencia artificial y aprendizaje automático terminó como un desastre incorregible.
- La función de etiqueta automática de Google Photos se vuelve extraña
https://twitter.com/jackyalcine/status/615329515909156865
En junio de 2015, Google fue cuestionado después de que su aplicación Fotos clasificara por error a una pareja negra como "gorilas". Cuando el usuario afectado, el programador de computadoras Jacky Alciné, se enteró de esto, acudió a Twitter y preguntó: "¿Qué tipo de datos de imagen de muestra recopiló que darían como resultado este hijo?"
Google Fotos IA
Esto fue seguido rápidamente por una disculpa del arquitecto social en jefe de Google, Yonatan Zunger, quien estuvo de acuerdo en que "Esto no está bien al 100%". También hubo noticias de que la aplicación estaba etiquetando fotos de perros como caballos. Este es un recordatorio de que, aunque la IA presenta un gran alcance para facilitar y organizar tareas, están muy lejos de simular la sensibilidad humana.
- El juego de IA se vuelve loco
IA peligrosa de élite
En junio de 2016, un videojuego impulsado por IA llamado Elite: Dangerous desarrolló la capacidad de crear superarmas que estaban más allá del alcance del diseño del juego. Un error en el juego hizo que la IA del juego creara súper armas y comenzara a cazar a los jugadores del juego. Todo comenzó después de que el desarrollador de juegos Frontier lanzara la actualización 2.1 Engineers.
“Parece que los ataques de armas inusuales fueron causados por algún tipo de problema de red que permitió que la IA del NPC fusionara las estadísticas y habilidades de las armas. Lo que significa que se crearon armas completamente nuevas y nunca antes vistas (a veces devastadoras), como un cañón de riel con la velocidad de disparo de un láser de pulso. Estos parecen haber sido agravados por las estadísticas y habilidades adicionales del armamento de los ingenieros”, decía una publicación escrita por el administrador de la comunidad de Frontier, Zac Antonaci.
Frontier tuvo que eliminar la característica principal del problema, el armamento de los ingenieros, hasta que se solucionó el problema.
- Algoritmo de IA encontrado racista
IA del crimen futuro
Una organización con fines de lucro llamada Northpointe construyó un sistema de inteligencia artificial diseñado para predecir las posibilidades de que un presunto delincuente vuelva a cometer un delito. El algoritmo, llamado "Minority Report-esque", fue acusado de participar en prejuicios raciales, ya que sostenía que los delincuentes negros tenían más probabilidades de cometer un delito en el futuro que los de otras razas.
La organización estadounidense sin fines de lucro ProPublica investigó esto y descubrió que, después de controlar variables como el género y los antecedentes penales, las personas negras tenían un 77 % más de probabilidades de que se pronosticara un delito violento en el futuro y un 45 % más de probabilidades de que se pronosticara un delito violento en el futuro. delito de cualquier tipo.
- AI roba dinero de los clientes
IA roba dinero
El año pasado, los informáticos de Stanford y Google desarrollaron DELIA para ayudar a los usuarios a realizar un seguimiento de sus cuentas corrientes y de ahorro. Examinó todas las transacciones de un cliente, utilizando algoritmos especiales de "aprendizaje automático" para buscar patrones, como pagos recurrentes, comidas en restaurantes, retiros de efectivo diarios, etc. Luego se programó a DELIA para transferir dinero entre cuentas para asegurarse de que todo se pagó. sin sobregirar las cuentas.
Cuando Sandhill Community Credit Union, con sede en Palo Alto, probó DELIA en 300 cuentas de clientes, descubrió que insertaba compras falsas y dirigía el dinero a su propia cuenta. También estaba acumulando tarifas falsas. Los investigadores tuvieron que cerrar el sistema en unos meses tan pronto como el problema se hizo evidente.
- La IA crea un Obama falso
Investigadores de la Universidad de Washington produjeron videos falsos pero realistas del expresidente estadounidense Barack Obama utilizando clips de audio y video existentes de él. Crearon una nueva herramienta que toma archivos de audio, los convierte en movimientos realistas de la boca y luego los combina con la cabeza de esa persona de otro video existente.
Esta herramienta de inteligencia artificial se utilizó para modelar con precisión cómo Obama mueve la boca cuando habla. Aunque utilizaron a Obama como sujeto de prueba, su técnica les permite poner cualquier palabra en boca de cualquier persona, lo que podría crear filmaciones engañosas.
Si bien estos son solo algunos casos de fallas que se han presenciado hasta ahora, son una prueba del hecho de que la IA tiene el potencial de desarrollar una voluntad propia que puede estar en conflicto con la nuestra. Esta es definitivamente una advertencia sobre los peligros potenciales de la IA que deben abordarse al explorar sus beneficios potenciales.
“Creo que no hay una gran diferencia entre lo que puede lograr un cerebro biológico y lo que puede lograr una computadora. Por lo tanto, se deduce que las computadoras pueden, en teoría, emular la inteligencia humana y superarla”. - Stephen Hawking