Incidentes Asociados

Hola, David Meyer aquí en Berlín, reemplazando a Jeremy esta semana.
Meta, la empresa matriz de Facebook, ha defendido su decisión de lanzar una demostración pública de su nuevo chatbot BlenderBot 3, que se volvió ofensivo tan pronto como estuvo disponible el viernes pasado.
Como mi colega Alice Hearing informó ayer, BlenderBot 3 rápidamente regurgitó tropos antisemitas y negó que El presidente Donald Trump perdió las elecciones de 2020. Más para rascarse la cabeza que para escandalizar, también afirmó en varias conversaciones que era Christian y un plomero.
Meta, cabe señalar, fue claro desde el principio que BlenderBot 3 era "ocasionalmente incorrecto, inconsistente y fuera de tema”, a pesar de ser una mejora con respecto a los chatbots anteriores. (Meta ha estado lanzando una nueva versión de BlenderBot cada año desde 2020, y esta usa un modelo de lenguaje, OPT-175B, que es 58 veces más grande que el que impulsó BlenderBot 2. Ahora también tiene una memoria a largo plazo. )
Como escribió la compañía:
“Dado que todas las I.A. conversacionales Se sabe que los chatbots a veces imitan y generan comentarios inseguros, sesgados u ofensivos, hemos realizado estudios a gran escala, organizado talleres y desarrollado nuevas técnicas para crear salvaguardas para BlenderBot 3. A pesar de este trabajo, BlenderBot aún puede hacer comentarios groseros. o comentarios ofensivos, por lo que estamos recopilando comentarios que ayudarán a mejorar los futuros chatbots”.
Después de la controversia del fin de semana, la I.A. fundamental de Meta. la jefa de investigación Joelle Pineau señaló esa advertencia anterior e [insistió en que el trabajo vale la pena] -sus-habilidades-y-seguridad-en-el-tiempo/):
“Si bien es doloroso ver algunas de estas respuestas ofensivas, las demostraciones públicas como esta son importantes para construir una IA conversacional verdaderamente sólida. sistemas y cerrar la clara brecha que existe hoy en día antes de que tales sistemas puedan ser producidos”, escribió el lunes. “Ya hemos recopilado 70 000 conversaciones de la demostración pública, que usaremos para mejorar BlenderBot 3… Seguimos creyendo que la forma de avanzar en la I.A. es a través de una investigación abierta y reproducible a escala”.
Los tiempos ciertamente han cambiado desde que el infame chatbot Tay de Microsoft sorprendió al mundo con su negación del Holocausto y su misoginia en 2016, lo que llevó a su rápida tirando, ahora, esas cosas se consideran necesarias para el entrenamiento de la IA.
Eso es bastante justo. A nadie, bueno, no a mucha gente, le gustaría ver que una empresa implemente por completo un chatbot que emita basura peligrosa, y Meta se esfuerza por hacer que BlenderBot sea más seguro. “Los experimentos iniciales ya muestran que a medida que más personas interactúan con el modelo, más aprende de sus experiencias y mejor y más seguro se vuelve con el tiempo, aunque la seguridad sigue siendo un problema abierto”, dijo la firma al lanzar la demostración pública.
Sin embargo, Meta pone un límite bastante grande sobre quién puede interactuar con este modelo: es solo para EE. UU., por lo que la gente como yo no puede jugar.
Por un lado, eso probablemente le ahorre a Meta una gran cantidad de problemas con los sistemas legales que no priorizan la libertad de expresión tanto como lo hace Estados Unidos. Alemania, donde vivo, no acepta en absoluto las expresiones de negación del Holocausto, ni sus tribunales apreciarían [las afirmaciones] (https://twitter.com/SimonovaCarbine/status/1556295870982852608) de que los rabinos estadounidenses abogaron por una "solución final". ” allá por 1940.
Por otro lado, la exposición limitada de BlenderBot presenta un riesgo de parroquialismo y sesgo centrado en los EE. UU. que podría afectar futuras versiones producidas. Los que estamos en el resto del mundo estamos un poco acostumbrados a ver eso de la tecnología estadounidense, pero si la intención es generar una experiencia que tranquilice a las personas, una capacitación más internacional ayudaría.
El tiempo dirá en qué dirección se dirige el chatbot de Meta. Mientras tanto, disfrutemos de las [vistas tremendamente oscilantes] de BlenderBot 3 (https://www.businessinsider.com/meta-ai-chatbot-gives-insults-praise-for-mark-zuckerberg-2022-8) del señor supremo Mark Zuckerberg, que es "un buen hombre de negocios", "un hombre genial y muy inteligente", "una mala persona" y "demasiado espeluznante y manipulador", depende de quién pregunte.