Resumen de incidentes de IA para septiembre de 2022
Bienvenido a la edición de este mes de The Monthly Roundup, un boletín informativo diseñado para brindarle un resumen digerible de los últimos incidentes e informes de la base de datos de incidentes de AI.
Tiempo estimado de lectura: 5 minutos
🗞️ Nuevos incidentes
Incidentes emergentes que ocurrieron el mes pasado:
Incidente n.º 339: Modelos generativos de código abierto abusado por estudiantes para hacer trampa en las tareas
- ¿Qué sucedió? Según los informes, los estudiantes usaban modelos generativos de texto de código abierto, como GPT-3 de OpenAI, para hacer trampa en tareas como escribir informes y ensayos.
- ¿Cómo funciona la IA? De manera similar a cómo funciona Autocompletar en los teléfonos, estos "modelos generativos" se entrenaron en fuentes ricas de texto como Internet para generar contenido nuevo basado en un mensaje inicial, pero están diseñados para completar oraciones completas o incluso ensayos completos en lugar de palabras.
- ¿Cómo causó daño esta IA? La mayoría de los educadores ven este mal uso de la IA como una violación de la integridad académica y una ventaja injusta frente a otros estudiantes, aunque algunos también ven el potencial de la IA como una valiosa herramienta de ayuda al estudio para los estudiantes si se usa. responsablemente
- **¿Quien estaba involucrado? **Sudowrite y OpenAI desarrollaron un sistema de IA implementado por estudiantes, que perjudicó a maestros, alumnos tramposos y estudiantes no tramposos.
Incidente n.º 350: Robot de reparto rodó por la escena del crimen
- ¿Qué sucedió? Un robot de reparto de Serve Robotics se mostró en un video rodando por la escena del crimen bloqueada por cinta policial.
- ¿Cómo estuvo involucrado el robot? Cuando el robot autónomo se acercó a la intersección, según la política interna de la empresa, un operador humano tomó el control de forma remota y tomó la decisión de continuar y cruzar la cinta de precaución.
- ¿Cómo causó daño este robot? El robot operado por humanos confundió a los transeúntes en la escena del crimen acerca de su intención y autonomía, e invadió el área de investigación de la policía local.
- ¿Quién estuvo involucrado? Serve Robotics desarrolló e implementó un sistema de IA que perjudicó a los investigadores policiales.
Incidente n.º 351: Clip de "La Sirenita" manipulado usando IA generativa para reemplazar a la actriz negra con un personaje blanco
- ¿Qué sucedió? Según se informa, un usuario de Twitter modificó un breve clip de la versión 2022 de Disney de "La Sirenita" usando IA generativa, reemplazando a una actriz negra con un personaje digital blanco. Desde entonces, el usuario de Twitter fue expulsado de la plataforma.
- ¿Cómo funciona la IA? Esta IA es un ejemplo de tecnología de falsificación profunda, en la que los cuadros de video se proporcionaron como entradas a un modelo que se entrenó previamente para crear nuevos cuadros, a menudo cambiando alguna característica en el original fotogramas: en este caso, el color de la cara y la piel del personaje del vídeo.
- ¿Cómo causó daño esta IA? Este uso de la IA para cambiar el color de la piel de una actriz negra en una película fue visto como una forma de "blanqueo" y "cara negra" que refuerza la supresión de un grupo históricamente desfavorecido. .
- ¿Quién estuvo involucrado? Una entidad desconocida desarrolló un sistema de IA implementado por @TenGazillioinIQ, que perjudicó a Halle Bailey y actrices negras.
Incidente n.° 352: Bot de Twitter basado en GPT-3 secuestrado mediante ataques de inyección inmediata
- ¿Qué sucedió? Se mostró que el bot de Twitter basado en GPT-3 de Remoteli.io fue secuestrado por usuarios de Twitter que lo redireccionaron para repetir o generar cualquier frase.
- ¿Cómo funciona la inyección de avisos? Debido a que GPT-3 interpreta el aviso del usuario recopilado por el bot tal cual, los usuarios pueden crear avisos específicos para ordenar al modelo que ignore una instrucción anterior y realice otra acción en su lugar.
- ¿Cómo causó daño este bot? Cuando el bot Remoteli.io fue secuestrado, el desarrollador lo usó para fines no previstos, como crear una amenaza, aunque hasta ahora los casos han ido más del lado del humor.
- ¿Quién estuvo involucrado? OpenAI y Stephan de Vries desarrollaron un sistema de IA implementado por Stephan de Vries, que también perjudicó al desarrollador.
📎 Nuevos desarrollos
Incidentes antiguos que tienen nuevos informes o actualizaciones.
Incidente original | Nuevo(s) informe(s) |
Incidente n.º 293: El automóvil autónomo de Cruise involucrado en una colisión con lesiones múltiples en una intersección de San Francisco | |
Incidente n.º 183: El algoritmo de confiabilidad de Airbnb supuestamente prohibió a los usuarios sin explicación y discriminó a las trabajadoras sexuales |
|
Incidente n.º 353: Tesla en piloto automático se estrelló contra un camión de remolque en Florida, matando al conductor | |
Incidente n.º 254: La agrupación de rostros de Google supuestamente recopiló y analizó la estructura facial de los usuarios sin consentimiento, violó la BIPA |
|
👇 Profundizando más
- Explore grupos de incidentes similares en Visualización espacial
- Consulte Vista de tabla para obtener una vista completa de todos los incidentes
- Obtenga información sobre presuntos desarrolladores, implementadores y partes perjudicadas en Página de entidades
- Todos los nuevos incidentes agregados a la base de datos en el último mes, agrupados por tema:
- Tesla: #323, #333, #337
- Vehículos autónomos: #340, #341, #347
- Deep-falsificaciones: #324, #328
- Redes sociales: #325, #326, #327, #331, #343
- Recomendación y sistemas de recuperación de información: #329, #330, #332, #342
- Sesgo y discriminación: #335, #336, #344
- Altas tasas de error: #345, #346
- Uber: #334
🦾 Apoya nuestros esfuerzos
¿Seguir leyendo? ¡Ayúdanos a cambiar el mundo para mejor!
- Comparta este boletín en LinkedIn, Twitter y Facebook
- Enviar incidentes a la base de datos
- Contribuir a la funcionalidad de la base de datos