Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2270

Incidentes Asociados

Incidente 3993 Reportes
Meta AI's Scientific Paper Generator Reportedly Produced Inaccurate and Harmful Content

Loading...
La nueva demostración de Meta AI escribe literatura científica racista e inexacta, es retirada
arstechnica.com · 2022

El martes, Meta AI presentó una demostración de Galactica, un gran modelo de lenguaje diseñado para "almacenar, combinar y razonar sobre el conocimiento científico". Si bien tenía la intención de acelerar la escritura de literatura científica, los usuarios adversarios que realizaron pruebas descubrieron que también podría [generar tonterías realistas] (https://twitter.com/mrgreene1977/status/1593274906707230721?s=20&t=hfoIU_CeB6GCWkw75vHkvw). Después de varios días de crítica ética, Meta desconectó la demostración, [informa](https://www.technologyreview.com/2022/11/18/ 1063487/meta-large-language-model-ai-only-survived-tres-days-gpt-3-science/) MIT Technology Review.

Modelos de lenguaje extenso (LLM), como OpenAI [GPT-3](https://arstechnica.com/information-technology/2022/09/twitter-pranksters-derail-gpt-3-bot-with-newly-discovered- prompt-injection-hack/), aprende a escribir texto estudiando millones de ejemplos y comprendiendo las relaciones estadísticas entre palabras. Como resultado, pueden crear documentos que suenan convincentes, pero esos trabajos también pueden estar [plagados de falsedades](https://arstechnica.com/science/2021/06/the-efforts-to-make-text-based- ai-menos-racista-y-terrible/) y estereotipos potencialmente dañinos. Algunos críticos llaman a los LLM "[loros estocásticos] (https://dl.acm.org/doi/10.1145/3442188.3445922)" por su capacidad para escupir texto de manera convincente sin comprender su significado.

Ingrese a Galactica, un LLM destinado a escribir literatura científica. Sus autores entrenaron a Galactica en "un corpus grande y curado del conocimiento científico de la humanidad", que incluye más de 48 millones de artículos, libros de texto y notas de conferencias, sitios web científicos y enciclopedias. Según el artículo de Galactica, los investigadores de Meta AI creían que estos supuestos datos de alta calidad conducirían a resultados de alta calidad.

Agrandar / Una captura de pantalla del sitio web Galactica de Meta AI antes de que finalice la demostración.

A partir del martes, los visitantes del [sitio web de Galactica] (https://www.galactica.org) podrían escribir indicaciones para generar documentos como reseñas de literatura, artículos de wiki, notas de conferencias y respuestas a preguntas, de acuerdo con los ejemplos proporcionados por el sitio web. El sitio presentó el modelo como "una nueva interfaz para acceder y manipular lo que sabemos sobre el universo".

Mientras que algunas personas encontraron la demostración prometedora y [útil](https://twitter.com/dia_rotaru/status/1593302218014425088?s =20&t=Ep9NRmZ8HDT-_EMHk9nEPg), otros pronto descubrieron que cualquiera podía escribir racista o [mensajes potencialmente ofensivos](https ://twitter.com/mrgreene1977/status/1592958921026985990?s=20&t=08ifKXZK-2w8P2VygawkmQ), generando contenido de autoridad sobre esos temas con la misma facilidad. Por ejemplo, alguien lo usó para autor una entrada de wiki sobre un trabajo de investigación ficticio titulado "Los beneficios de comer vidrio triturado".

Incluso cuando la producción de Galactica no ofendía las normas sociales, el modelo podía atacar hechos científicos bien entendidos, escupiendo [inexactitudes] como fechas incorrectas o nombres de animales, lo que requiere un conocimiento profundo del tema a capturar.

Le pregunté a #Galactica sobre algunas cosas que sé y estoy preocupado. En todos los casos, estaba mal o sesgado, pero sonaba correcto y autoritario. Creo que es peligroso. Aquí están algunos de mis experimentos y mi análisis de mis preocupaciones. (1/9)

— Michael Black (@Michael_J_Black) 17 de noviembre de 2022

Como resultado, Meta sacó la demostración de Galactica el jueves. Posteriormente, el científico jefe de IA de Meta, Yann LeCun, twitteó: "La demostración de Galactica está fuera de línea por ahora. Ya no es posible divertirse un poco haciendo un mal uso casual. Feliz ?"

El episodio recuerda un dilema ético común con la IA: cuando se trata de modelos generativos potencialmente dañinos, ¿depende del público en general usarlos de manera responsable o de los editores de los modelos para evitar el uso indebido?

El lugar donde la práctica de la industria se encuentre entre esos dos extremos probablemente variará entre culturas y a medida que maduren los modelos de aprendizaje profundo. En última instancia, la regulación gubernamental puede terminar jugando un papel importante en la configuración de la respuesta.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd