Problema 2917

Un grupo de investigación de IA sin fines de lucro quiere que la Comisión Federal de Comercio investigue OpenAI, Inc. y detenga los lanzamientos de GPT-4.
OpenAI "ha lanzado un producto GPT-4 para el mercado de consumo que es sesgado, engañoso y un riesgo para la privacidad y la seguridad pública. Los resultados no se pueden probar ni replicar. No se realizó una evaluación independiente antes de la implementación", dijo una queja a la FTC presentado hoy por el Centro de Inteligencia Artificial y Digital Política (CAIDP).
Al pedir "supervisión y evaluación independientes de los productos comerciales de IA que se ofrecen en los Estados Unidos", el CAIDP solicitó a la FTC que "abra una investigación sobre OpenAI, prohíba más lanzamientos comerciales de GPT-4 y garantice el establecimiento de las medidas de seguridad necesarias para proteger a los consumidores". las empresas y el mercado comercial".
Al señalar que la FTC "ha declarado que el uso de la IA debe ser 'transparente, explicable, justo y empíricamente sólido al tiempo que fomenta la responsabilidad'", el grupo sin fines de lucro argumentó que "el producto GPT-4 de OpenAI no satisface ninguno de estos requisitos".
GPT-4 fue presentado por OpenAI el 14 de marzo y está disponible para suscriptores de ChatGPT Plus. Bing de Microsoft [ya usa GPT-4] (https://blogs.bing.com/search/march_2023/Confirmed-the-new-Bing-runs-on-OpenAI%E2%80%99s-GPT-4). OpenAI calificó a GPT-4 como un gran avance, diciendo que "aprueba un examen de barra simulado con una puntuación alrededor del 10 por ciento superior de los examinados", en comparación con el 10 por ciento inferior de los examinados para GPT-3.5.
Aunque OpenAI dijo tenía Los expertos evalúan los riesgos potenciales que plantea GPT-4, CAIDP no es el primer grupo que plantea preocupaciones sobre el avance demasiado rápido del campo de la IA. Como [informamos ayer](https://arstechnica.com/information-technology/2023/03/fearing-loss-of-control-ai-critics-call-for-6-month-pause-in-ai-development /), el Future of Life Institute publicó una carta abierta instando a los laboratorios de IA a "pausar inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4". La larga lista de firmantes de la carta incluía a muchos profesores junto con algunos nombres notables de la industria tecnológica como Elon Musk y Steve Wozniak.
El grupo afirma que GPT-4 viola la Ley FTC
CAIDP dijo que la FTC debería investigar a OpenAI usando su autoridad bajo la Sección 5 de la Ley de la Comisión Federal de Comercio para investigar, enjuiciar y prohibir "actos o prácticas desleales o engañosas en el comercio o que lo afecten". El grupo afirma que "el lanzamiento comercial de GPT-4 viola la Sección 5 de la Ley de la FTC, la guía bien establecida de la FTC para las empresas sobre el uso y la publicidad de productos de IA, así como las normas emergentes para la gobernanza de la IA que el El gobierno de los Estados Unidos ha respaldado formalmente las Pautas universales para la IA que los principales expertos y sociedades científicas han recomendado".
La FTC debe "detener la implementación comercial adicional de GPT por parte de OpenAI", exigir una evaluación independiente de los productos GPT antes de la implementación y "a lo largo del ciclo de vida de la IA de GPT", "requerir el cumplimiento de la guía de IA de la FTC" antes de implementaciones futuras y "establecer un mecanismo de reporte de incidentes para GPT-4 similar a los mecanismos de la FTC para reportar fraude al consumidor", dijo el grupo.
En términos más generales, CAIDP instó a la FTC a emitir reglas que requieran "estándares de referencia para productos en el sector del mercado de IA generativa".
Nos comunicamos con OpenAI y actualizaremos este artículo si recibimos una respuesta.
“OpenAI no ha revelado detalles”
El presidente y fundador de CAIDP es Marc Rotenberg, quien previamente cofundó y dirigió el Centro de información de privacidad electrónica. Rotenberg es profesor adjunto en Georgetown Law y formó parte del Grupo de Expertos en IA dirigido por la Organización internacional para la Cooperación y el Desarrollo Económicos. Rotenberg también firmó la carta abierta del Future of Life Institute, que se cita en la demanda de CAIDP.
El presidente y director de investigación de CAIDP es Merve Hickok, quien también es profesor de ética de datos en la Universidad de Michigan. Ella testificó en una audiencia en el Congreso sobre la IA el 8 de marzo. CAIDP's [ lista de miembros del equipo] (https://www.caidp.org/about-2/team/) incluye muchas otras personas involucradas en los campos de la tecnología, la academia, la privacidad, el derecho y la investigación.
El mes pasado, la FTC advirtió a las empresas para analizar "los riesgos y el impacto razonablemente previsibles de su producto de IA antes de ponerlo en el mercado". La agencia también planteó varias inquietudes sobre los "daños de la IA, como la inexactitud, el sesgo, la discriminación y el avance de la vigilancia comercial" en un [informe al Congreso] (https://www.ftc.gov/news-events/news/press-releases /2022/06/ftc-report-warns-about-using-artificial-intelligence-combat-online-problems) el año pasado.
GPT-4 presenta muchos tipos de riesgos, y su tecnología subyacente no se ha explicado adecuadamente, dijo CAIDP a la FTC. "OpenAI no ha revelado detalles sobre la arquitectura, el tamaño del modelo, el hardware, los recursos informáticos, las técnicas de capacitación, la construcción de conjuntos de datos o los métodos de capacitación", dice la denuncia de CAIDP. "La práctica de la comunidad de investigación ha sido documentar los datos de entrenamiento y las técnicas de entrenamiento para modelos de lenguaje grande, pero OpenAI decidió no hacer esto para GPT-4".
"Los modelos de IA generativa son productos de consumo inusuales porque exhiben comportamientos que pueden no haber sido identificados previamente por la compañía que los lanzó a la venta", dijo también el grupo.
La queja de CAIDP apuntaba a algunas de las propias declaraciones de OpenAI sobre los riesgos de GPT-4. "OpenAI ha reconocido específicamente el riesgo de sesgo y, más precisamente, 'asociaciones estereotipadas y degradantes dañinas para ciertos grupos marginados'", dice la denuncia.
Por ejemplo, OpenAI dijo en la Tarjeta del sistema GPT-4 que "el modelo tiene el potencial de reforzar y reproducir sesgos específicos y visiones del mundo, incluidas asociaciones estereotipadas y degradantes perjudiciales para ciertos grupos marginados". CAIDP también citó una publicación de blog de la compañía OpenAI que decía que ChatGPT "a veces responderá a instrucciones dañinas o exhibirá un comportamiento sesgado".
"OpenAI lanzó GPT-4 al público para uso comercial con pleno conocimiento de estos riesgos", dice la denuncia ante la FTC. Al plantear preocupaciones sobre los niños que usan GPT-4, la denuncia decía que la "tarjeta del sistema GPT-4 no proporciona detalles de las comprobaciones de seguridad realizadas por OpenAI durante su período de prueba, ni detalla ninguna medida implementada por OpenAI para proteger a los niños".
CAIDP señaló las preocupaciones planteadas por el grupo europeo de consumidores BEUC. "Si ChatGPT se utiliza para el crédito al consumo o la calificación de seguros, ¿hay algo que evite que genere resultados injustos y sesgados, impidiendo el acceso al crédito o aumentando el precio de los seguros de salud o de vida para ciertos tipos de consumidores?" Preguntó BEUC en un tuit citado por la denuncia CAIDP.
Preocupaciones de seguridad y privacidad
En cuanto a la ciberseguridad, el CAIDP señaló una [advertencia de Europol](https://www.europol.europa.eu/media-press/newsroom/news/criminal-use-of-chatgpt-cautionary-tale-about-large-language -modelos) que ChatGPT podría usarse para "redactar texto muy realista" con fines de phishing, para producir texto para propaganda y desinformación, o para producir código malicioso debido a la competencia de ChatGPT en diferentes lenguajes de programación.
En cuanto a la privacidad, el CAIDP dijo que hubo un incidente informado este mes en el que OpenAI mostró historiales de chat privados a otros usuarios, un problema que "requirió que la empresa suspender la visualización de Historiales, una característica esencial para que los usuarios del sistema puedan navegar entre sesiones y distinguir sesiones específicas".
En otro caso, un investigador de IA "describió cómo era posible 'apoderarse de la cuenta de alguien, ver su historial de chat y acceder a su información de facturación sin que se dieran cuenta'", dice la denuncia. El investigador dijo la semana pasada que OpenAI arregló la vulnerabilidad después de informarla.
La capacidad de GPT-4 para proporcionar respuestas de texto a partir de entradas de fotos "tiene implicaciones asombrosas para la privacidad personal y la autonomía personal", ya que permite a los usuarios "vincular una imagen de una persona a datos personales detallados", dijo CAIDP. También podría usarse para "GPT-4 para hacer recomendaciones y evaluaciones, de manera conversacional, con respecto a la persona".
"Según los informes, OpenAI había suspendido el lanzamiento de la capacidad de conversión de imagen a texto, conocida como Visual GPT-4, aunque el estado actual es difícil de determinar", dice la denuncia.