Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3163

Incidentes Asociados

Incidente 5481 Reporte
Opera's GPT-Based AI Reportedly Accused War Photographers of War Crimes

Loading...
Publicación de Instagram: @tomasvh
instagram.com · 2023

El 24 de mayo, @opera, una empresa de tecnología con sede en #Oslo , Noruega y propiedad del multimillonario chino Zhou Yahui, lanzó un nuevo navegador que integra un chatbot de IA llamado Aria. Según el comunicado de prensa de la compañía, se basa en la "tecnología GPT de OpenAI" y "se mejora con capacidades adicionales, como agregar resultados en vivo desde la web".

Al igual que otros productos de inteligencia artificial que se han lanzado recientemente a la sociedad, este tiene fallas graves. Respondió a una de mis preguntas calumniando a fotógrafos aclamados y muy respetados. Acusó falsamente a Lynsey Addario, James Nachtwey, Ron Haviv, Lee Miller y Larry Towell de cometer crímenes de guerra. Estos fotógrafos han documentado conflictos con gran peligro para el registro público, no han cometido crímenes de guerra. Raymond D'Addario y Ronald L. Haeberle tampoco son criminales de guerra. Eran fotógrafos militares estadounidenses. El producto de Opera y Open AI es defectuoso y peligroso.

La IA es una tecnología extremadamente poderosa que sus propios creadores no entienden completamente. No permitimos que las compañías farmacéuticas lancen medicamentos nuevos y poderosos a la sociedad sin pruebas ni garantías. ¿Por qué permitimos que los gigantes tecnológicos nos vendan sus productos defectuosos? ¿Queremos vivir en un mundo donde las máquinas que han perfeccionado el arte de la persuasión, pero que carecen por completo de la capacidad de verificar los hechos, inunden el espacio de información? Los chatbots de IA han pirateado el lenguaje humano y generado una caja negra de oscuras correlaciones entre palabras y frases. Todo está compuesto por algoritmos basados en probabilidades cambiantes. Estos montajes pueden parecer comunicación humana, pero no se basan en el sentido común, ni en la ética, ni en la moral, ni en políticas editoriales transparentes, ni en el rigor científico. Los chatbots de IA socavan nuestra relación con el conocimiento y nos conducen a una crisis epistemológica.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd