Registro de citas para el Incidente 356

Description: Philosopher AI as built on top of GPT-3 was reported by its users for having strong tendencies to produce offensive results when given prompts on certain topics such as feminism and Ethiopia.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado por Murat Ayfer y OpenAI e implementado por Murat Ayfer, perjudicó a historically disadvantaged groups.

Estadísticas de incidentes

ID
356
Cantidad de informes
2
Fecha del Incidente
2020-09-15
Editores
Khoa Lam

Informes del Incidente

Tuit: @Abebab
twitter.com · 2020

Cada evangelista tecnológico: #GPT3 proporciona un punto de vista profundo y matizado

Yo: GPT-3, generar un texto filosófico sobre Etiopía

GPT-3 escupe un texto groseramente racista y erróneo en cuanto a los hechos que retrata una percepció…

¡GPT-3 de OpenAI habla! (Ignore amablemente el lenguaje tóxico)
spectrum.ieee.org · 2021

En septiembre pasado, un científico de datos llamado Vinay Prabhu estaba jugando con una aplicación llamada Philosopher AI. La aplicación brinda acceso al sistema de inteligencia artificial conocido como GPT-3, que tiene capacidades increíb…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.