Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2271

Incidentes Asociados

Incidente 3993 Reportes
Meta AI's Scientific Paper Generator Reportedly Produced Inaccurate and Harmful Content

Loading...
Hilo de @osanseviero en la aplicación Thread Reader
threadreaderapp.com · 2022

🧵 Algunas reflexiones sobre el reciente lanzamiento de Galactica por @MetaAI (todo aquí es mi opinión personal) 👀

Comencemos con lo positivo / Lo que salió bien

[1] El modelo fue liberado y Open Source*

Contrariamente a la tendencia de investigaciones muy interesantes que se cierran o simplemente se puede acceder a ellas a través de API pagas, al abrir los modelos y construir sobre las herramientas del sistema operativo existentes, la evaluación se puede realizar de manera confiable y transparente [](https:// pbs.twimg.com/media/FiCEq0sVEAAwcJD.jpg)

[2] Hubo una demostración con el lanzamiento**

Las demostraciones permiten que una audiencia mucho más amplia entienda cómo funcionan los modelos. Al tener una demostración con el lanzamiento, una audiencia mucho más diversa puede explorar el modelo, identificar puntos de falla, nuevos sesgos y más.

[3] ¡Técnicamente impresionante!

Grandes felicitaciones donde se lo merece. El modelo es técnicamente impresionante, con un sólido desempeño en diferentes puntos de referencia, precisión de citas del 50 %, generación de fórmulas de látex y SMILES, y más.

/ ¿Qué salió mal? [1] Exageración en los anuncios, mezclando el producto final con la investigación. El anuncio y la página hablan de "resolver" la sobrecarga de información en la ciencia y que esto se puede usar para escribir código científico.

Este estilo de comunicación es muy engañoso y provocará un mal uso

[2] Filtro de seguridad en demo borrando comunidades

Aunque me imagino que esto fue bien intencionado, el filtro de seguridad (no transparente) eliminó el contenido sobre la teoría queer y el SIDA.

https://twitter.com/willie_agnew/status/1592829238889283585

OpenAI ha estado haciendo lo mismo con Dalle 2 y también recibió una reacción violenta

El filtro de seguridad - Censura contenidos sobre minorías, marginando aún más a las personas - Contradice la idea de almacenar y razonar sobre el conocimiento científico

Ver más en

https://twitter.com/mmitchell_ai/status/1593351384573038592?s=20&t=8W0DbEqaln7hDKPY_xGhYQ

[3] Los casos de uso no estaban claros, no estaban documentados o eran engañosos

Las limitaciones establecidas en el sitio y el documento son bastante limitadas y algo confusas. El documento dice que "no recomendaríamos usarlo para tareas que requieren este tipo de conocimiento, ya que este no es el caso de uso previsto".

También hay una tarjeta modelo algo oculta en github.com/paperswithcode…

Pero vuelvo a encontrar que la documentación sobre limitaciones, sesgos y casos de uso es demasiado limitada, dado lo poderoso que es el modelo.

[4] Demostración Aunque tener una demostración fue bueno, podría haber hecho un mejor trabajo en - Agregar descargos de responsabilidad más claros - Cambiar la interfaz de usuario para que sea menos como documentos reales - Tener un mecanismo para identificar dicho contenido generado

- Agregar una forma de marcar contenido tóxico y erróneo

[5] Relacionado con el punto anterior, hubo una falta de oportunidad para que la comunidad discutiera y reportara problemas, solo a través de Twitter.

En @huggingface aprendimos que crear un espacio para discusiones públicas, abiertas y transparentes sobre modelos es esencial.

https://twitter.com/mmitchell_ai/status/1583516905276837888

thread#showTweet data-screenname=osanseviero data-tweet=1594420190619439104 dir=auto> Como tal, los usuarios tienen mecanismos para informar los resultados generados por la demostración, explorar el código utilizado para crearlo y discutir con la comunidad sobre el trabajo de manera abierta y transparente. .

Así que TL; DR, qué se podría hacer mejor - Casos de uso y limitaciones más explícitos - Mejor documentación del modelo - Considere las licencias de OpenRAIL, que se sumergen en los casos de uso mucho más que las licencias de software clásicas

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd