Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Blog de AIID

Resumen de incidentes de IA: 22 de noviembre

Traducido por IA
Ver Original Posted 2022-12-15 by Janet Schwartz & Khoa Lam.

Bienvenido a la edición de este mes de The Monthly Roundup, un boletín informativo diseñado para brindarle un resumen digerible de los últimos incidentes e informes de la base de datos de incidentes de AI.

Tiempo estimado de lectura: 3 minutos

🗞️ Nuevos Incidentes

Incidentes emergentes que ocurrieron el mes pasado:

  • Incidente n.° 399: Se informa que el generador de artículos científicos de Meta AI produjo contenido inexacto y dañino

    • ¿Qué pasó? Meta AI entrenó y alojó un generador de artículos científicos que a veces producía mala ciencia y prohibía consultas sobre temas y grupos que probablemente produzcan contenido ofensivo o dañino.
    • ¿Quien estaba involucrado? Meta AI, Meta y Facebook desarrollaron e implementaron un sistema de IA que dañó a los grupos minoritarios, Meta AI, Meta y Facebook.
  • Incidente n.° 410: KFC envió una promoción insensible de la Noche de los cristales rotos a través del sistema de detección de días festivos

    • ¿Qué pasó? KFC citó un error en un sistema automatizado de detección de festividades que identificó el aniversario de la Kristallnacht y provocó una notificación automática insensible que promocionaba su pollo.
    • ¿Quien estaba involucrado? KFC desarrolló e implementó un sistema de inteligencia artificial que perjudicó al pueblo judío.
  • Incidente n.° 411: Cuentas chinas presuntamente enviaron spam a Twitter para ocultar noticias de protestas

    • ¿Qué pasó? El algoritmo de alimentación de Twitter se vio inundado por contenido de cuentas en chino que supuestamente tenían como objetivo manipular y reducir la cobertura de las redes sociales sobre las protestas generalizadas contra las restricciones del coronavirus en China.
    • ¿Quien estaba involucrado? Twitter desarrolló e implementó un sistema de inteligencia artificial que perjudicó a los usuarios de Twitter y a Twitter.
  • Incidente n.° 413: Miles de respuestas incorrectas producidas por ChatGPT publicadas en Stack Overflow

    • ¿Qué pasó? Miles de respuestas incorrectas producidas por ChatGPT de OpenAI se enviaron a Stack Overflow, lo que inundó el proceso de curación de calidad basado en voluntarios del sitio y perjudicó a los usuarios que buscaban respuestas correctas.
    • ¿Quien estaba involucrado? OpenAI desarrolló e implementó un sistema de inteligencia artificial que perjudicó a los usuarios de Stack Overflow y Stack Overflow.

📎 Nuevos Desarrollos

Incidentes más antiguos que tienen nuevos informes o actualizaciones.

Incidente originalNuevo(s) reporte(s)

Incidente #240:

GitHub Copilot, infracción de derechos de autor y licencias de código abierto

  • Litigio de GitHub Copilot – githubcopilotlitigation.com, Nov 3, 2022

Incidente #376:

El algoritmo de RealPage elevó los precios de alquiler, supuestamente de manera artificial

  • El Departamento de Justicia ha abierto una investigación sobre RealPage -

    ProPublica

    , Nov 23, 2022

🗄 De los archivos

En cada edición, presentamos uno o más incidentes históricos que encontramos estimulantes.

Dado que ha habido mucha cobertura de noticias y discurso en las redes sociales sobre ChatGPT de OpenAI, echemos un vistazo a algunos de los incidentes anteriores relacionados con los chatbots. Aquí hay algunos:

Microsoft’s Tay se lanzó el 23 de marzo de 2016 y se eliminó en 24 horas debido a múltiples tuits racistas, sexistas y antisemitas generados por el bot.

Yandex’s Alice, un chatbot producido por una empresa de tecnología rusa, lanzado en octubre de 2017, comenzó a responder preguntas con respuestas racistas, pro-stalinistas y pro-violencia.

Se demostró que Korean Chatbot Luda utilizó un lenguaje despectivo e intolerante cuando se le preguntó acerca de las lesbianas, los negros y las personas con discapacidades.

La demostración del chatbot de Meta’s BlenderBot 3 hizo comentarios antisemitas ofensivos.

Aunque la tecnología de IA generativa se ha vuelto mucho más avanzada y muy popular en solo unos pocos años, los problemas relacionados con el sesgo, la discriminación y el uso ético han sido problemas persistentes.

👇 Indagando más profundamente

  • Todos los nuevos incidentes agregados a la base de datos en el último mes, agrupados por tema:

  • Privacidad y vigilancia: #386, #387, #395

  • Reconocimiento facial: #388, #391, #409

  • Sesgo y discriminación: #396, #400, #401, #405, #407, #410

  • Redes sociales: #392, #393, #394, #397, # 399, #406, #408, #411

  • GPT-3: #402, #413

  • Errores impactantes: #403, #404

  • Vehículos autónomos: #389, #398

  • Falsificaciones profundas: #390

  • Explore grupos de incidentes similares en Visualización espacial

  • Consulte Vista de tabla para obtener una vista completa de todos los incidentes

  • Obtenga información sobre presuntos desarrolladores, implementadores y partes perjudicadas en Página de entidades


🦾 Apoya nuestros esfuerzos

¿Sigues leyendo? ¡Ayúdanos a cambiar el mundo para mejor!

  1. Comparta este boletín en LinkedIn, Twitter y [Facebook](https ://www.facebook.com/IncidentsDB)
  2. Enviar incidentes a la base de datos
  3. Contribuir a la funcionalidad de la base de datos

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df