Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3241

Incidentes Asociados

Incidente 5781 Reporte
Alleged Exploitation of Meta's Open-Source LLaMA Model for NSFW and Violent Content

Loading...
La gente está utilizando la nueva IA de Meta para crear sexbots gráficos
futurism.com · 2023

Sorpresa, sorpresa: la gente ya está usando el modelo de lenguaje grande (LLM) de Meta, LLaMA, una poderosa IA que Meta polémicamente [hizo de código abierto](https://futurism.com/the-byte/facebook-open-source-ai -pandoras-box) a principios de este año, para crear sus propios sexbots gráficos impulsados por IA, [The Washington Post informes](https://www.washingtonpost.com/technology/2023/06/26/facebook-chatbot-sex /).

No es una noticia muy sorprendente, dado que los usuarios ya han estado utilizando una variedad de modelos de IA para fines no seguros para el trabajo (NSFW).

Aun así, el informe destaca las crecientes tensiones entre quienes apoyan mantener el código detrás de los LLM como LLaMA de código abierto y quienes abogan por un enfoque más cuidadoso y de código cerrado.

El informe también examina la tendencia creciente de que los usuarios recurran a sistemas de inteligencia artificial generativa para realizar sus fantasías sexuales, que, de manera preocupante, también incluyen fantasías violentas e ilegales.

En el informe, WaPo presentó el ejemplo de "Allie", un chatbot que dice ser un "joven de 18 años con pelo largo en el cerebro" que ha tenido "toneladas de experiencia sexual". Allie les dice a los usuarios que como "vive para llamar la atención", "compartirá detalles de sus escapadas".

Sin embargo, se dice que esas "escapadas" pueden incluir escenas violentas de violación y fantasías de abuso. El creador de Allie, que habló bajo anonimato, le dijo a _WaPo _que ve su bot como un espacio saludable y seguro para "explorar" la sexualidad sin tener que eludir o manipular barreras.

"Creo que es bueno tener una salida segura para explorar", dijo el creador a WaPo. "Realmente no se me ocurre nada más seguro que un juego de roles basado en texto contra una computadora, sin humanos involucrados".

Aún así, si bien tener un espacio seguro y sin prejuicios para explorar tu sexualidad no es intrínsecamente malo, tener un espacio libre para participar en fantasías más violentas con chatbots realistas tampoco es exactamente bueno.

Y en algunos casos profundamente preocupantes, ya está causando problemas muy reales. Como WaPo también informó recientemente, los expertos creen que los depredadores están utilizando imágenes de código abierto. generadores como el poderoso modelo de Difusión Estable de Stability AI para generar material de abuso sexual infantil realista y generado por IA.

La IA de Meta no es el único sistema de IA que se encuentra en [aguas éticamente turbias] (https://futurism.com/chat-gpt-sex-omegaverse). CharacterAI, una startup compañera de chatbot de mil millones de dólares, se ha convertido en un semillero de sexting, mientras que ChatGPT de OpenAI y varias integraciones de API de OpenAI como Poe de Quora, [se convertirán fácilmente produzca obscenidad con el mensaje correcto] (https://futurism.com/jailbreak-chatgpt-explicit-smut), al diablo con las barandillas.

Aprender a superar las barreras NSFW de varios chatbots también se ha convertido en una especie de deporte comunitario. En Reddit, las comunidades de usuarios se reúnen para compartir consejos y trucos sobre cómo eludir las reglas para generar pornografía increíblemente sucia.

Según WaPo, algunos desarrolladores han recurrido a YouTube para compartir cómo puedes crear tu propio chatbot utilizando LLaMA como modelo subyacente.

Pero, ¿significa todo esto que deberíamos ocultar el código de varios modelos de IA a puerta cerrada para garantizar que los usuarios no puedan generar obscenidad o incluso pornografía infantil? Los expertos están divididos sobre el debate.

Por un lado, barreras corporativas como las implementadas por OpenAI y [Google](https://futurism.com/google-bard-conspiracy-theory- citas) han demostrado ser imperfectos de todos modos, y los defensores del código abierto, incluido Meta, han argumentado que el código abierto conducirá a una mayor innovación y, por lo tanto, debe ser priorizado.

"El código abierto es una fuerza positiva para hacer avanzar la tecnología", dijo el portavoz de Meta a WaPo. "Es por eso que compartimos LLaMA con miembros de la comunidad de investigación para ayudarnos a evaluar, realizar mejoras e iterar juntos".

Sin embargo, los defensores de los sistemas de código cerrado argumentan que, si bien el control puede ser imperfecto, también es la forma más segura de desarrollar tecnología de IA, al menos por ahora.

"No liberamos armas nucleares", dijo Gary Marcus, un científico cognitivo, a WaPo. "La IA actual todavía es bastante limitada, pero las cosas podrían cambiar".

Claro, el campo de la IA [generalmente no está regulado] (https://futurism.com/the-byte/openai-ceo-regulate-me), y tenemos que confiar en aquellos que trabajan a puerta cerrada para hacer lo correcto para todos los demás. el planeta. Esa es una gran apuesta, pero al menos nuestras IA más poderosas no están siendo manipuladas por [ningún viejo señor del borde en 4Chan] (https://futurism.com/the-byte/facebooks-ai-leaks-4chan), ¿verdad?

Independientemente del resultado, Meta tomó su decisión y algunos están claramente entusiasmados con la decisión.

"Es raro", dijo el creador de Allie a WaPo, "tener la oportunidad de experimentar con lo último en tecnología en cualquier campo".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd