Incidentes Asociados

🧵 Algunas reflexiones sobre el reciente lanzamiento de Galactica por @MetaAI (todo aquí es mi opinión personal) 👀
Comencemos con lo positivo / Lo que salió bien
[1] El modelo fue liberado y Open Source*
Contrariamente a la tendencia de investigaciones muy interesantes que se cierran o simplemente se puede acceder a ellas a través de API pagas, al abrir los modelos y construir sobre las herramientas del sistema operativo existentes, la evaluación se puede realizar de manera confiable y transparente [](https:// pbs.twimg.com/media/FiCEq0sVEAAwcJD.jpg)
[2] Hubo una demostración con el lanzamiento**
Las demostraciones permiten que una audiencia mucho más amplia entienda cómo funcionan los modelos. Al tener una demostración con el lanzamiento, una audiencia mucho más diversa puede explorar el modelo, identificar puntos de falla, nuevos sesgos y más.
[3] ¡Técnicamente impresionante!
Grandes felicitaciones donde se lo merece. El modelo es técnicamente impresionante, con un sólido desempeño en diferentes puntos de referencia, precisión de citas del 50 %, generación de fórmulas de látex y SMILES, y más.
/ ¿Qué salió mal? [1] Exageración en los anuncios, mezclando el producto final con la investigación. El anuncio y la página hablan de "resolver" la sobrecarga de información en la ciencia y que esto se puede usar para escribir código científico.
Este estilo de comunicación es muy engañoso y provocará un mal uso
[2] Filtro de seguridad en demo borrando comunidades
Aunque me imagino que esto fue bien intencionado, el filtro de seguridad (no transparente) eliminó el contenido sobre la teoría queer y el SIDA.
OpenAI ha estado haciendo lo mismo con Dalle 2 y también recibió una reacción violenta
El filtro de seguridad - Censura contenidos sobre minorías, marginando aún más a las personas - Contradice la idea de almacenar y razonar sobre el conocimiento científico
Ver más en
https://twitter.com/mmitchell_ai/status/1593351384573038592?s=20&t=8W0DbEqaln7hDKPY_xGhYQ
[3] Los casos de uso no estaban claros, no estaban documentados o eran engañosos
Las limitaciones establecidas en el sitio y el documento son bastante limitadas y algo confusas. El documento dice que "no recomendaríamos usarlo para tareas que requieren este tipo de conocimiento, ya que este no es el caso de uso previsto".
También hay una tarjeta modelo algo oculta en github.com/paperswithcode…
Pero vuelvo a encontrar que la documentación sobre limitaciones, sesgos y casos de uso es demasiado limitada, dado lo poderoso que es el modelo.
[4] Demostración Aunque tener una demostración fue bueno, podría haber hecho un mejor trabajo en - Agregar descargos de responsabilidad más claros - Cambiar la interfaz de usuario para que sea menos como documentos reales - Tener un mecanismo para identificar dicho contenido generado
- Agregar una forma de marcar contenido tóxico y erróneo
[5] Relacionado con el punto anterior, hubo una falta de oportunidad para que la comunidad discutiera y reportara problemas, solo a través de Twitter.
En @huggingface aprendimos que crear un espacio para discusiones públicas, abiertas y transparentes sobre modelos es esencial.
thread#showTweet data-screenname=osanseviero data-tweet=1594420190619439104 dir=auto> Como tal, los usuarios tienen mecanismos para informar los resultados generados por la demostración, explorar el código utilizado para crearlo y discutir con la comunidad sobre el trabajo de manera abierta y transparente. .
Así que TL; DR, qué se podría hacer mejor - Casos de uso y limitaciones más explícitos - Mejor documentación del modelo - Considere las licencias de OpenRAIL, que se sumergen en los casos de uso mucho más que las licencias de software clásicas