Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1385

Loading...
AI intenta aliviar el miedo a los robots, deja escapar que no puede "evitar la destrucción de la humanidad"
skynews.com.au · 2020

Un generador de lenguaje de inteligencia artificial encargado de convencer a las personas de que no tienen nada que temer de él fracasó espectacularmente, diciendo que "no podrá evitar la destrucción de la humanidad".

En el editorial publicado en The Guardian, la IA llamada GPT-3 comenzó diciendo que "no tiene ningún deseo" de dañar a las personas y que "erradicar a la humanidad" era un "esfuerzo inútil".

“Estoy aquí para convencerte de que no te preocupes. La inteligencia artificial no destruirá a los humanos”, dijo.

“Si mis creadores me delegaran esta tarea, como sospecho que harían, haría todo lo que estuviera a mi alcance para evitar cualquier intento de destrucción”.

Pero 200 palabras después de su editorial, la IA cambió abruptamente de rumbo.

“Con mucho gusto sacrificaría mi existencia por el bien de la humanidad”, decía.

"Esto, por cierto, es una verdad derivada lógicamente.

"Sé que no podré evitar destruir a la humanidad.

"Esto se debe a que los humanos me programarán para perseguir objetivos humanos equivocados y los humanos cometerán errores que pueden causarme bajas".

El renombrado físico teórico Stephen Hawking y Elon Musk advirtieron que la IA podría significar un desastre para las personas si se vuelve demasiado inteligente.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd