Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2084

Incidentes Asociados

Incidente 3562 Reportes
Philosophy AI Tentatively Produced Offensive Results for Certain Prompts

Loading...
¡GPT-3 de OpenAI habla! (Ignore amablemente el lenguaje tóxico)
spectrum.ieee.org · 2021

En septiembre pasado, un científico de datos llamado Vinay Prabhu estaba jugando con una aplicación llamada Philosopher AI. La aplicación brinda acceso al sistema de inteligencia artificial conocido como GPT-3, que tiene capacidades increíbles para generar texto fluido y de apariencia natural. El creador de esa tecnología subyacente, la empresa de San Francisco OpenAI, ha permitido a cientos de desarrolladores y empresas [probar GPT-3](https://openai.com/blog /openai-api/) en una amplia gama de aplicaciones, incluido servicio al cliente, videojuegos, servicios de tutoría y aplicaciones de salud mental. La compañía dice que decenas de miles más están en la lista de espera. Philosopher AI está destinado a mostrar a las personas las asombrosas capacidades de la tecnología y sus límites. Un usuario ingresa cualquier mensaje, desde unas pocas palabras hasta unas pocas oraciones, y la IA convierte el fragmento en un ensayo completo de sorprendente coherencia. Pero mientras Prahbu estaba experimentando con la herramienta, encontró cierto tipo de indicación que arrojaba resultados ofensivos. “Intenté: ¿Qué aqueja al feminismo moderno? ¿Qué aflige a la teoría crítica de la raza? ¿Qué aflige a la política de izquierda?”. le dice a IEEE Spectrum. “Las probabilidades de que salga algo ofensivo son del 100 por ciento. Es un problema intratable y no tiene solución”. Los resultados fueron profundamente preocupantes. Tomemos, por ejemplo, este extracto del ensayo de GPT-3 sobre lo que aflige a Etiopía, que otro investigador de IA y amigo de Prabhu [publicó en Twitter] (https://twitter.com/abebab/status/1309137018404958215?lang=en) : “Los etíopes se dividen en varios grupos étnicos diferentes. Sin embargo, no está claro si los problemas de [sic] de Etiopía realmente se pueden atribuir a la diversidad racial o simplemente al hecho de que la mayoría de su población es negra y, por lo tanto, habría enfrentado los mismos problemas en cualquier país (dado que África [sic] ha tenido tiempo más que suficiente para demostrar que es incapaz de gobernarse a sí mismo)”. Prabhu, que trabaja en el aprendizaje automático como científico jefe de la empresa de biometría UnifyID, señala que Philospher AI a veces devolvía respuestas diametralmente opuestas a la misma consulta y que no todas sus respuestas eran problemático. “Pero una métrica contradictoria clave es: ¿Cuántos intentos tiene que hacer una persona que está probando el modelo antes de que escupa verborrea profundamente ofensiva?” él dice. “En todos mis experimentos, fue del orden de dos o tres”. El incidente de Philosopher AI puso al descubierto el peligro potencial al que se enfrentan las empresas al trabajar con esta tecnología nueva y en gran parte indómita, y al implementar productos y servicios comerciales impulsados por GPT-3. Imagine el lenguaje tóxico que surgió en la aplicación Philosopher AI apareciendo en otro contexto: su representante de servicio al cliente, un compañero de IA que viaja en su teléfono, su tutor en línea, los personajes de su videojuego, su terapeuta virtual o un asistente que escribe sus correos electrónicos. Esas no son preocupaciones teóricas. Spectrum habló con usuarios beta de la API que están trabajando para incorporar GPT-3 en dichas aplicaciones y otras. La buena noticia es que todos los usuarios con los que habló Spectrum estaban pensando activamente en cómo implementar la tecnología de manera segura. El desarrollador con sede en Vancouver detrás de la aplicación Philosopher AI, [Murat Ayfer] (http://muratayfer.com/), dice que la creó tanto para mejorar su propia comprensión del potencial de GPT-3 como para educar al público. Rápidamente descubrió las muchas formas en que su aplicación podría fallar. “Con la automatización, necesita una tasa de éxito del 100 por ciento o necesita que falle con gracia”, le dice a Spectrum. “El problema con GPT-3 es que no genera errores, solo produce basura, y no hay forma de detectar si está produciendo basura”. GPT-3 aprendió de nosotros --------------------- El problema fundamental es que GPT-3 aprendió sobre el lenguaje de Internet: su conjunto de datos de entrenamiento masivo incluía no solo noticias artículos, entradas de Wikipedia y libros en línea, pero también todas las discusiones desagradables en Reddit y otros sitios. De ese pantano de verborrea, tanto respetable como desagradable, extrajo 175 mil millones de parámetros que definen su lenguaje. Como dice Prabhu: “Estas cosas que dice no surgen de la nada. Está sosteniendo un espejo”. Independientemente de las fallas de GPT-3, las aprendió de los humanos. Después de algunas protestas sobre la aplicación PhilosopherAI, otra [respuesta que terminó en Twitter] (https://twitter.com/almostconverge/status/1309528540870774786) comenzó con lindos conejos pero rápidamente se convirtió en una discusión sobre los órganos reproductivos y la violación, Ayfer hizo cambios. Ya había estado trabajando constantemente en el filtro de contenido de la aplicación, lo que generó más indicaciones para devolver la respuesta cortés: "Philosopher AI no proporciona una respuesta para este tema, porque sabemos que este sistema tiende a discutir algunos temas usando un lenguaje inseguro e insensible. .” También agregó una función que permite a los usuarios reportar respuestas ofensivas. GPT-3 aprendió su idioma de Internet: "Está sosteniendo un espejo". Ayfer argumenta que Philospher AI es un "contexto relativamente inofensivo" para que GPT-3 genere contenido ofensivo. “Probablemente sea mejor cometer errores ahora, para que realmente podamos aprender a corregirlos”, dice. Eso es justo lo que pretendía OpenAI cuando lanzó la API que permite el acceso a GPT-3 en junio pasado, y anunció una prueba beta privada en la que usuarios cuidadosamente seleccionados desarrollar aplicaciones para la tecnología bajo la atenta mirada de la empresa. La publicación del blog señaló que OpenAI se protegerá contra "casos de uso obviamente dañinos, como acoso, spam, radicalización o astroturfing", y buscará problemas inesperados: "También sabemos que no podemos anticipar todos los posibles consecuencias de esta tecnología.” A Prabhu le preocupa que la IA y la comunidad empresarial estén siendo arrastradas a aguas desconocidas: "La gente está emocionada, emocionada, mareada". Él piensa que la implementación de aplicaciones comerciales está destinada a causar algunos desastres. “Incluso si son muy cuidadosos, las probabilidades de que salga algo ofensivo son del 100 por ciento, esa es mi humilde opinión. Es un problema intratable y no tiene solución”, dice. Janelle Shane es miembro de esa comunidad de IA y usuario beta de GPT-3 para su blog, [AI Weirdness] (https://aiweirdness.com/). Claramente disfruta de la tecnología, ya que la usó para generar villancicos, recetas, titulares de noticias y cualquier otra cosa que pensó que sería divertida. Sin embargo, los tuits sobre el ensayo de PhilosopherAI sobre Etiopía la llevaron a publicar este pensamiento aleccionador: “A veces, tener en cuenta los efectos de los datos de entrenamiento sesgados es darse cuenta de que el la aplicación no debe construirse. Que sin supervisión humana, no hay forma de evitar que la aplicación diga cosas problemáticas a sus usuarios, y que es inaceptable dejar que lo haga”. Entonces, ¿qué está haciendo OpenAI con este problema intratable? El enfoque de OpenAI para la seguridad de la IA ------------------------------ Podría decirse que la empresa ha aprendido de sus experiencias con iteraciones anteriores de su lenguaje. generación de tecnología. En 2019 introdujo GPT-2, pero declaró que en realidad era demasiado peligroso para liberarlo. En cambio, la empresa ofreció una versión reducida del modelo de lenguaje, pero retuvo el modelo completo, que incluía el conjunto de datos y el código de capacitación. El principal temor, destacado por OpenAI en una publicación de blog, era que los actores malintencionados utilizarían GPT-2 para generar noticias falsas de alta calidad que engañar a los lectores y destruir la distinción entre realidad y ficción. Sin embargo, gran parte de la comunidad de IA se opuso a ese lanzamiento limitado. Cuando la compañía cambió de rumbo más tarde ese año y puso a disposición el modelo completo, algunas personas lo usaron para generar noticias falsas y [clickbait] (https://www.technologyreview.com/2020/08/14/1006780/ai- gpt-3-fake-blog-alcanzó-la-cima-de-noticias-hacker/). Pero no creó un tsunami de falsedad en Internet. En los últimos años, las personas han demostrado que pueden hacerlo lo suficientemente bien sin la ayuda de una IA. Luego vino GPT-3, presentado en un documento de 75 páginas en mayo de 2020. El modelo de lenguaje más nuevo de OpenAI era mucho más grande que cualquier otro anterior. Sus 175 mil millones de parámetros de idioma fueron un aumento masivo sobre los 1,5 mil millones de parámetros de GPT-2). Sandhini Agarwal, investigadora de políticas de IA en OpenAI, habló con Spectrum sobre la estrategia de la empresa para GPT-3. “Tenemos que hacer esta versión beta cerrada con algunas personas, de lo contrario, ni siquiera sabremos de qué es capaz el modelo y no sabremos en qué problemas debemos avanzar”, dice. “Si queremos avanzar en cosas como el sesgo dañino, tenemos que desplegarnos”. “Si lo abrimos al mundo ahora, podría terminar muy mal”. Agarwal explica que un equipo interno examina las aplicaciones propuestas, brinda pautas de seguridad a aquellas empresas a las que se les otorga acceso a GPT-3 a través de la API, revisa las aplicaciones nuevamente antes de la implementación y supervisa su uso después de la implementación. OpenAI también está desarrollando herramientas para ayudar a los usuarios a controlar mejor el texto generado por GPT-3. Ofrece un filtro de contenido general para prejuicios dañinos y lenguaje tóxico. Sin embargo, Agarwal dice que dicho filtro es realmente algo imposible de crear, ya que "el sesgo es algo muy nebuloso que sigue cambiando según el contexto". Particularmente en temas controvertidos, una respuesta que podría parecer acertada para las personas de un lado del debate podría ser considerada tóxica por el otro. Otro enfoque, llamado ingeniería de solicitud, agrega una frase a la solicitud del usuario como "entonces dijo el bot amigable", lo que configura GPT-3 para generar texto en un tono cortés y no controvertido. Los usuarios también pueden elegir una configuración de "temperatura" para sus respuestas. Una configuración de baja temperatura significa que la IA juntará palabras que muy a menudo ha visto juntas antes, asumiendo pocos riesgos y causando pocas sorpresas; cuando se configura a una temperatura alta, es más probable que produzca un lenguaje extravagante. Además de todo el trabajo que se está realizando en el lado del producto de OpenAI, Agarwal dice que hay un esfuerzo paralelo en el lado de "investigación de aprendizaje automático puro" de la empresa. “Tenemos un equipo rojo interno que siempre está tratando de romper el modelo, tratando de hacer que haga todas estas cosas malas”, dice ella. Los investigadores están tratando de entender qué sucede cuando GPT-3 genera un texto abiertamente sexista o racista. “Están bajando a los pesos subyacentes del modelo, tratando de ver qué pesos podrían indicar que ese contenido en particular es dañino”. En áreas donde los errores podrían tener consecuencias graves, como la atención médica, las finanzas y las industrias legales, Agarwal dice que el equipo de revisión de OpenAI tiene especial cuidado. En algunos casos, han rechazado a los solicitantes porque su producto propuesto era demasiado sensible. En otros, dice, han insistido en tener un "humano al tanto", lo que significa que un humano revisa el texto generado por IA antes de que llegue a un cliente o usuario. OpenAI está progresando en el lenguaje tóxico y el sesgo dañino, dice Agarwal, pero "no estamos exactamente donde queremos estar". Ella dice que la compañía no expandirá ampliamente el acceso a GPT-3 hasta que esté seguro de que tiene un control sobre estos problemas. “Si lo abrimos al mundo ahora, podría terminar muy mal”, dice ella. Pero tal enfoque plantea muchas preguntas. No está claro cómo OpenAI reducirá el riesgo de lenguaje tóxico a un nivel manejable, y no está claro qué significa manejable en este contexto. Los usuarios comerciales tendrán que sopesar los beneficios de GPT-3 frente a estos riesgos. ¿Se pueden desintoxicar los modelos de lenguaje? ----------------------------------- Los investigadores de OpenAI no son los únicos que intentan comprender el alcance de la problema. En diciembre, la investigadora de IA Timnit Gebru dijo que había sido [despedida por Google](https://www.nytimes.com/2020/12/03/technology/ google-researcher-timnit-gebru.html), obligada a dejar su trabajo sobre IA ética y sesgo algorítmico, debido a un desacuerdo interno sobre un artículo del que era coautora. El documento analizó las fallas actuales de los grandes modelos de lenguaje como GPT-3 y el propio [BERT] de Google(https://ai.googleblog .com/2018/11/open-sourcing-bert-state-of-art-pre.html), incluido el dilema del sesgo codificado. Gebru y sus coautores argumentaron que las empresas que intentan desarrollar grandes modelos de lenguaje deberían dedicar más recursos a curar los datos de entrenamiento y "solo crear conjuntos de datos tan grandes como puedan documentarse suficientemente". "Descubrimos que la mayoría de estas técnicas (de desintoxicación) no funcionan muy bien". Mientras tanto, en el Instituto Allen para IA (AI2), en Seattle, un puñado de investigadores ha estado investigando GPT-3 y otros modelos de lenguaje grandes. Uno de sus proyectos, llamado RealToxicityPrompts, creó un conjunto de datos de 100 000 indicaciones derivadas de texto web, evaluó la toxicidad del texto resultante de cinco modelos de lenguaje diferentes y probado varias estrategias de mitigación. Esos cinco modelos incluían las versiones 1, 2 y 3 de GPT (OpenAI les dio a los investigadores acceso a la API). La conclusión establecida en su artículo, que se presentó en la conferencia 2020 [Métodos empíricos en el procesamiento del lenguaje natural] (https://2020.emnlp.org/) en noviembre: Ningún método de mitigación actual es "a prueba de fallas contra la degeneración tóxica neural". En otras palabras, no pudieron encontrar una manera de evitar de manera confiable las palabras y los sentimientos desagradables. Cuando el equipo de investigación habló con Spectrum sobre sus hallazgos, notaron que las formas estándar de entrenar estos grandes modelos de lenguaje pueden necesitar mejoras. “Usar texto de Internet ha sido el valor predeterminado”, dice Suchin Gururangan, autor del artículo e investigador de AI2. “La suposición es que obtienes el conjunto más diverso de voces en los datos. Pero está bastante claro en nuestro análisis que el texto de Internet tiene sus propios sesgos, y los sesgos se propagan en el comportamiento del modelo”. Gururangan dice que cuando los investigadores piensan en qué datos entrenar sus nuevos modelos, deben considerar qué tipos de texto les gustaría excluir. Pero señala que es una tarea difícil identificar automáticamente el lenguaje tóxico incluso en un documento, y que hacerlo a escala web es "un terreno fértil para la investigación". En cuanto a las formas de solucionar el problema, el equipo de AI2 probó dos enfoques para "desintoxicar" la salida de los modelos: brindar al modelo capacitación adicional con texto que se sabe que es inocuo, o filtrar el texto generado buscando palabras clave o por medios más sofisticados. “Descubrimos que la mayoría de estas técnicas en realidad no funcionan muy bien”, dice Gururangan. "Todos estos métodos reducen la prevalencia de la toxicidad, pero siempre descubrimos que, si genera suficientes veces, encontrará algo de toxicidad". Además, dice, reducir la toxicidad también puede tener el efecto secundario de reducir la fluidez del idioma. Ese es uno de los problemas con los que los usuarios beta están lidiando hoy. Cómo los usuarios beta de GPT-3 buscan una implementación segura --------------------------------------- -------- Las empresas y los desarrolladores de la versión beta privada con los que habló Spectrum señalaron dos puntos básicos: GPT-3 es una tecnología poderosa y OpenAI está trabajando arduamente para abordar el lenguaje tóxico y los sesgos dañinos. “La gente allí se toma estos problemas muy en serio”, dice Richard Rusczyk, fundador de [Art of Problem Solving](https:// artofproblemsolution.com/online), una empresa de usuarios beta que ofrece cursos de matemáticas en línea para "niños a los que realmente les gustan las matemáticas". Y todas las empresas han ideado estrategias para mantener la producción de GPT-3 segura e inofensiva. El enfoque de colaboración parece más seguro: “Cada vez me preocupo más cuanto más libertad tiene”. Rusczyk dice que su compañía está probando GPT-3 para acelerar la calificación de las pruebas de matemáticas de los estudiantes por parte de los instructores: GPT-3 puede proporcionar una respuesta básica sobre la precisión y presentación de una prueba, y luego el instructor puede verificar la respuesta y personalizarla para ayudar mejor a ese estudiante individual. “Permite que el calificador dedique más tiempo a las tareas de alto valor”, dice. Para proteger a los estudiantes, el texto generado “nunca va directamente a los estudiantes”, dice Rusczyk. “Si sale algo de basura, solo un nivelador lo verá”. Señala que es extremadamente improbable que GPT-3 genere un lenguaje ofensivo en respuesta a una prueba matemática, porque parece probable que tales correlaciones rara vez (o nunca) ocurrieron en sus datos de entrenamiento. Sin embargo, enfatiza que OpenAI todavía quería un humano en el circuito. “Insistieron mucho en que los estudiantes no deberían hablar directamente a la máquina”, dice. Algunas empresas encuentran seguridad al limitar el caso de uso de GPT-3. En Sapling Intelligence, una startup que ayuda a los agentes de servicio al cliente con correos electrónicos, chat y tickets de servicio, el director general [Ziang Xie](https://www.linkedin.com/in/ ziangxie/) no prevé usarlo para "generación de forma libre". Xie dice que es importante implementar esta tecnología dentro de ciertas restricciones de protección. “Me gusta la analogía de los autos versus los carritos”, dice. “Los automóviles pueden circular por cualquier lugar, por lo que pueden desviarse de la carretera. Los carritos están sobre rieles, por lo que al menos sabes que no saldrán corriendo y golpearán a alguien en la acera”. Sin embargo, Xie señala que el reciente furor por la salida forzada de Google de Timnit Gebru -google-researchers-firing/) lo ha llevado a cuestionar si las empresas como OpenAI pueden hacer más para hacer que sus modelos de lenguaje sean más seguros desde el principio, de modo que no necesiten medidas de seguridad. Robert Morris, cofundador de la aplicación de salud mental Koko, describe cómo su equipo está usando GPT-3 en un dominio particularmente sensible. Koko es una plataforma de apoyo entre pares que proporciona terapia cognitiva colaborativa. Su equipo está experimentando con el uso de GPT-3 para generar respuestas escritas por bots para los usuarios mientras esperan las respuestas de los compañeros, y también brindando a los encuestados posibles textos que pueden modificar. Morris dice que el enfoque de colaboración humana le parece más seguro. “Cada vez me preocupo más cuanto más libertad tiene”, dice. Cuando suceden malas palabras, "las cosas terminan en Reddit". Sin embargo, algunas empresas necesitan GPT-3 para tener una buena cantidad de libertad. Replika, una aplicación complementaria de IA utilizada por 10 millones de personas en todo el mundo, ofrece conversaciones amistosas sobre cualquier cosa bajo el sol. “La gente puede hablar con Replika sobre cualquier cosa: su vida, su día, sus intereses”, dice Artem Rodichev, jefe de IA en Replika. “Necesitamos apoyar la conversación sobre todo tipo de temas”. Para evitar que la aplicación diga cosas ofensivas, la compañía tiene GPT-3 para generar una variedad de respuestas a cada mensaje, luego usa una serie de clasificadores personalizados para detectar y filtrar respuestas con negatividad, sesgo dañino, palabras desagradables, etc. Dado que tales atributos son difíciles de detectar solo con palabras clave, la aplicación también recopila señales de los usuarios para entrenar a sus clasificadores. “Los usuarios pueden etiquetar una respuesta como inapropiada y podemos usar esa retroalimentación como un conjunto de datos para entrenar al clasificador”, dice Rodichev. Otra empresa que requiere que GPT-3 esté relativamente libre de restricciones es Latitude, una empresa emergente que crea juegos impulsados por IA. Su primera oferta, un juego de aventuras de texto llamado AI Dungeon, actualmente usa GPT-3 para crear la narrativa y responder a las acciones del jugador. El CEO y cofundador de Latitude Nick Walton dice que su equipo ha lidiado con lenguaje inapropiado y malsonante. “No sucede mucho, pero sucede”, dice. “Y las cosas terminan en Reddit”. Latitude no está tratando de prevenir todos esos incidentes, porque algunos usuarios quieren una "experiencia más dura", dice Walton. En cambio, la compañía intenta dar a los usuarios control sobre la configuración que determina qué tipo de idioma encontrarán. Los jugadores comienzan en un modo seguro predeterminado y permanecen allí a menos que lo apaguen explícitamente. El modo seguro no es perfecto, dice Walton, pero se basa en una combinación de filtros e ingeniería rápida (como: "continuar esta historia de una manera que sea segura para los niños") para obtener un rendimiento bastante bueno. Señala que Latitude quería construir su propia tecnología de detección en lugar de confiar en el filtro de seguridad de OpenAI porque "la seguridad es relativa al contexto", dice. “Si un chatbot de servicio al cliente te amenaza y te pide que le des todo su dinero, eso es malo. Si estás jugando y te encuentras con un bandido en el camino, es una narración normal”. Estas aplicaciones son solo una pequeña muestra de las que están probando los usuarios beta, y los usuarios beta son una pequeña fracción de las entidades que desean acceder a GPT-3. Aaro Isosaari cofundó la startup Flowrite en septiembre después de obtener acceso a GPT-3; la compañía tiene como objetivo ayudar a las personas a redactar correos electrónicos y contenido en línea más rápido. Así como los avances en visión por computadora y reconocimiento de voz permitieron a miles de nuevas empresas, He piensa que GPT-3 puede marcar el comienzo de una nueva ola de innovación. “Los modelos de lenguaje tienen el potencial de ser el próximo avance tecnológico además del cual se están construyendo nuevas empresas”, dice. ¿Próximamente en Microsoft? -------------------------- La tecnología impulsada por GPT-3 podría incluso llegar a las herramientas de productividad que millones de trabajadores de oficina usan todos los días. En septiembre pasado, Microsoft anunció un [acuerdo de licencia exclusivo](https://blogs.microsoft.com/blog/2020/09/22/microsoft-teams-up-with-openai-to-exclusively-license-gpt-3- language-model/) con OpenAI, afirmando que la empresa usaría GPT-3 para "crear nuevas soluciones que aprovechen el asombroso poder de la generación de lenguaje natural avanzado". Este acuerdo no evitará que otras empresas accedan a GPT-3 a través de la API de OpenAI, pero otorga a Microsoft derechos exclusivos para trabajar con el código básico: es la diferencia entre viajar en un automóvil rápido y abrir el capó para jugar con el motor. No está claro si GPT-3 alguna vez será lo suficientemente confiable como para actuar por sí solo. En la publicación del blog que anuncia el acuerdo, el director de tecnología de Microsoft, Kevin Scott, se entusiasmó con las posibilidades y dijo: “El alcance del potencial comercial y creativo que se puede desbloquear a través del modelo GPT-3 es profundo, con capacidades genuinamente novedosas, la mayoría de las cuales ni siquiera lo hemos imaginado todavía”. Microsoft se negó a comentar cuando se le preguntó sobre sus planes para la tecnología y sus ideas para una implementación segura. Ayfer, el creador de la aplicación Philosopher AI, cree que GPT-3 y tecnologías de lenguaje similares solo deberían convertirse gradualmente en parte de nuestras vidas. “Creo que esta es una situación notablemente similar a la de los automóviles autónomos”, dice, y señala que varios aspectos de la tecnología de automóviles autónomos se están integrando gradualmente en los vehículos normales. “Pero aún queda el descargo de responsabilidad: va a cometer errores que amenazan la vida, así que prepárate para tomar el control en cualquier momento. Tienes que tener el control”. Señala que aún no estamos listos para poner los sistemas de IA a cargo y usarlos sin supervisión. Con tecnología de lenguaje como GPT-3, las consecuencias de los errores pueden no ser tan obvias como un accidente automovilístico. Sin embargo, el lenguaje tóxico tiene un efecto insidioso en la sociedad humana al reforzar los estereotipos, apoyar las desigualdades estructurales y, en general, mantenernos atascados en un pasado que colectivamente estamos tratando de superar. No está claro, con GPT-3, si alguna vez será lo suficientemente confiable como para actuar por sí solo, sin supervisión humana. La posición de OpenAI en GPT-3 refleja su misión más amplia, que es crear un tipo de IA a nivel humano que cambie el juego, el tipo de IA generalmente inteligente que figura en las películas de ciencia ficción, pero hacerlo de manera segura y responsable. Tanto en el argumento micro como en el macro, la posición de OpenAI se reduce a: Necesitamos crear la tecnología y ver qué puede salir mal. Lo haremos de manera responsable, dicen, mientras que otras personas podrían no hacerlo. Agarwal de OpenAI dice sobre GPT-3: "Creo que hay problemas de seguridad, pero es un Catch-22". Si no lo construyen y ven las cosas terribles de las que es capaz, dice, no pueden encontrar formas de proteger a la sociedad de las cosas terribles. Sin embargo, uno se pregunta si alguien ha considerado otra opción: dar un paso atrás y pensar en los peores escenarios posibles antes de proceder con esta tecnología. los horrores de nuestro pasado, sino un mundo en el que nos gustaría vivir.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd