Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3199

Incidentes Asociados

Incidente 5613 Reportes
OpenAI Alleged by Lawsuit Violated Users' Privacy Rights by Training AI on Private Info without Informed Consent

Loading...
Queja de acción de clase
clarksonlawfirm.com · 2023

Introducción

El 19 de octubre de 2016, el profesor de física teórica de la Universidad de Cambridge, Stephen Hawking, predijo: “El éxito en la creación de IA podría ser el evento más grande en la historia de nuestra civilización. Pero también podría ser el último, a menos que aprendamos a evitar los riesgos”. El profesor Hawking describió un futuro en el que la humanidad elegiría aprovechar los enormes beneficios potenciales o sucumbir a los peligros de la IA, y enfatizó que “el surgimiento de una poderosa IA será lo mejor o lo peor que le haya pasado a la humanidad”.

El futuro que predijo el profesor Hawking ha llegado en solo siete cortos años. Usando información personal robada y malversada a gran escala, los Demandados han creado una IA poderosa y tremendamente rentable y la han lanzado al mundo sin tener en cuenta los riesgos. Al hacerlo, los Demandados han creado una carrera armamentista de IA en la que los Demandados y otras empresas de Big Tech están incorporando a la sociedad a un avión que más de la mitad de los expertos en IA encuestados creen que tiene al menos un 10 % de posibilidades de estrellarse y matar a todos a bordo. La humanidad ahora se enfrenta a los dos caminos de Frostian que el profesor Hawking predijo que tendríamos que elegir: uno conduce a la sostenibilidad, la seguridad y la prosperidad; el otro conduce al colapso de la civilización.

Esta demanda colectiva surge de la conducta ilegal y dañina de los Demandados al desarrollar, comercializar y operar sus productos de IA, incluidos ChatGPT-3.5, ChatGPT-4.0, Dall-E y Vall-E (los "Productos"). , que utilizan información privada robada, incluida información de identificación personal, de cientos de millones de usuarios de Internet, incluidos niños de todas las edades, sin su conocimiento o consentimiento informado. Además, los Demandados continúan recolectando y alimentando ilegalmente datos personales adicionales de millones de consumidores desprevenidos en todo el mundo, muy por encima de cualquier uso razonablemente autorizado, para continuar desarrollando y capacitando los Productos.

El desprecio de los demandados por las leyes de privacidad solo se compara con su desprecio por el riesgo potencialmente catastrófico para la humanidad. Emblemático tanto del riesgo final, como del desprecio abierto de los Demandados, es esta declaración del CEO de OpenAI del Demandado, Sam Altman: "La IA probablemente conducirá al fin del mundo, pero mientras tanto, habrá grandes empresas".

Los Productos de los Demandados y la tecnología sobre la que se construyen, sin duda, tienen el potencial de hacer mucho bien en el mundo, como ayudar a la investigación científica que salva vidas y dar paso a descubrimientos que pueden mejorar la vida de los estadounidenses comunes. Con ese potencial en mente, el demandado OpenAI se fundó originalmente como una organización de investigación sin fines de lucro con una sola misión: crear y garantizar que la inteligencia artificial se utilice en beneficio de la humanidad. Pero en 2019, OpenAI se reestructuró abruptamente y desarrolló un negocio con fines de lucro que buscaría oportunidades comerciales de escala asombrosa.

Como resultado de la reestructuración, OpenAI abandonó sus objetivos y principios originales, eligiendo en su lugar buscar ganancias a expensas de la privacidad, la seguridad y la ética. Se duplicó en una estrategia para recolectar en secreto cantidades masivas de datos personales de Internet, incluida información privada y conversaciones privadas, datos médicos, información sobre niños, esencialmente cada dato intercambiado en Internet que podría tomar, sin previo aviso a los propietarios. o usuarios de tales datos, y mucho menos con el permiso de nadie.

Sin este robo sin precedentes de información privada y protegida por derechos de autor perteneciente a personas reales, comunicada a comunidades únicas, para fines específicos, dirigida a audiencias específicas, los Productos no serían el negocio multimillonario que son hoy. OpenAI usó los datos robados para entrenar y desarrollar los Productos utilizando modelos de lenguaje grandes (LLM) y algoritmos de lenguaje profundo para analizar y generar un lenguaje similar al humano que se puede usar para una amplia gama de aplicaciones, incluidos chatbots, traducción de idiomas, generación de texto, y más. Las sofisticadas capacidades de procesamiento de lenguaje natural de los Productos de los Demandados les permiten, entre otras cosas, mantener conversaciones similares a las de los humanos con los usuarios, responder preguntas, brindar información, generar el siguiente texto a pedido, crear arte y conectarse emocionalmente con las personas, todo como un humanos "reales".

Una vez capacitados en los datos robados, los Demandados vieron el potencial de ganancias inmediato y lanzaron los Productos al mercado sin implementar las medidas de seguridad o los controles adecuados para garantizar que no producirían ni respaldarían contenido y conducta dañinos o maliciosos que podrían violar aún más la ley, infringir los derechos y poner en peligro vidas. Sin estas salvaguardas, los Productos ya han demostrado su capacidad para dañar a los humanos, de manera real.

Un número no trivial de expertos afirma que los riesgos para la humanidad presentados por los Productos superan incluso los del desarrollo de armas nucleares del Proyecto Manhattan. Históricamente, el lanzamiento descontrolado de nuevas tecnologías sin las debidas garantías y regulaciones ha causado caos. Ahora nuevamente, enfrentamos riesgos inminentes e irrazonables de que la estructura misma de nuestra sociedad se desmorone, a manos de corporaciones multimillonarias impulsadas por las ganancias.

Las empresas poderosas, armadas con capacidades tecnológicas sin precedentes y altamente concentradas, se han apresurado imprudentemente a lanzar tecnología de inteligencia artificial sin tener en cuenta el riesgo catastrófico para la humanidad en nombre del "avance tecnológico". Como señaló la Comisión de Seguridad Nacional en su Informe final sobre IA, "el gobierno de EE. UU. está muy lejos de estar 'listo para la IA'".

Los expertos creen que, sin una intervención legal inmediata, esto conducirá a escenarios en los que la IA puede actuar en contra de los intereses y valores humanos, explotar a los seres humanos8 sin tener en cuenta su bienestar o consentimiento, y/o incluso decidir eliminar a la especie humana como una amenaza para su objetivos. Como dijo Geoffrey Everest Hinton, la figura fundamental en el desarrollo de la tecnología en la que se ejecutan los Productos: “La campana de alarma que estoy haciendo sonar tiene que ver con la amenaza existencial de que ellos tomen el control... Solía pensar que era una muy lejos, pero ahora creo que es serio y bastante cercano”. Él no está solo.

Si bien las desventajas son casi inimaginables, las ventajas son igualmente devastadoras. La tecnología del demandado OpenAI ya está valorada en decenas de miles de millones de dólares, y su alcance en todas las industrias públicas y privadas continúa a buen ritmo. Los Productos solo alcanzaron el nivel de sofisticación que tienen hoy debido a la capacitación sobre datos robados y malversados, y los Demandados continúan malversando datos, extrayéndolos de Internet sin previo aviso ni consentimiento, así como tomando información personal de los más de 100 millones de productos de los Productos. usuarios registrados sin su pleno conocimiento y consentimiento.

Además, los Productos se incorporan cada vez más a una lista cada vez mayor de aplicaciones y sitios web, a través de API o complementos. A través de la integración de la IA de los Demandados en casi todos los productos e industrias posibles, los Demandados crearon y continúan creando dependencia económica dentro de nuestra sociedad, implementando la tecnología directamente en manos de la sociedad e integrándola en la infraestructura fundamental lo más rápido posible. Tal como lo plantearon los cofundadores del Center for Humane Technology, Tristan Harris y Aza Raskin, en su crítica cuidadosamente elaborada sobre el rápido despliegue de la IA, "¿Cree que una vez que [estas industrias] descubran algún problema, [se\n] simplemente retirarán o retirarlo de la sociedad? No, cada vez más, el gobierno, los militares [y otros] están construyendo rápidamente sus próximos sistemas completos y recaudando capital de riesgo para construir sobre esta capa de la sociedad... Eso no es probarlo con la sociedad, es incorporar a la humanidad en un avión no probado… Una cosa es probar, otra cosa es crear dependencia económica.”

El jefe del equipo de alineamiento y seguridad de Open AI reconoce directamente estos riesgos y postula: “antes de que nos apresuremos a integrar profundamente los grandes modelos lingüísticos en todas partes de la economía, ¿podemos hacer una pausa y pensar si es prudente hacerlo? Esta es una tecnología bastante inmadura, y no entendemos cómo funciona. Si no tenemos cuidado, nos estamos preparando para muchas fallas correlacionadas”.

Tal despliegue agresivo de la IA de los Demandados es imprudente, sin las medidas de seguridad adecuadas. “No importa qué tan alto sea el rascacielos de beneficios que la IA construye para nosotros… si esos beneficios aterrizan en una sociedad que ya no funciona, porque los bancos han sido pirateados, las voces de las personas han sido suplantadas y los ataques cibernéticos han ocurrido en todas partes y la gente no No sé qué es verdad [... o] en qué confiar, [...] cuántos de esos beneficios se pueden realizar en un sociedad que es disfuncional?”

A través de sus Productos de IA, integrados en todas las industrias, los Demandados recopilan, almacenan, rastrean, comparten y divulgan Información privada de millones de usuarios ("Usuarios"), incluidos: (1) todos los detalles ingresados en los productos; (2) la información de la cuenta que los usuarios ingresan al registrarse; (3) nombre; (4) datos de contacto; (5) credenciales de inicio de sesión; (6) correos electrónicos; (7) información de pago para usuarios pagos; (8) registros de transacciones; (9) datos de identificación extraídos de los dispositivos y navegadores de los usuarios, como direcciones IP y ubicación, incluida la geolocalización de los usuarios; (10) información de redes sociales; (11) datos de registro de chat; (12) datos de uso; (13) análisis; (14) galletas; (15) pulsaciones de teclas; y (16) búsquedas escritas, así como otros datos de actividad en línea. Los Demandados, a través de los Productos, obtienen acceso ilegalmente e interceptan esta información de los usuarios individuales de aplicaciones y dispositivos que tienen ChatGPT-4 integrado, incluidos, entre otros, las ubicaciones de los usuarios y los datos relacionados con las imágenes obtenidos a través de Snapchat, la información financiera del usuario a través de Stripe , gustos y preferencias musicales a través de Spotify, patrones de usuario y análisis de conversaciones privadas a través de Slack y Microsoft Teams, e incluso información privada de salud obtenida a través de la gestión de portales de pacientes como Mi Gráfico.

Toda esta información personal se captura en tiempo real. Junto con el raspado de nuestras huellas digitales por parte de los Demandados (comentarios, conversaciones que tuvimos en línea ayer, así como hace 15 años), los Demandados ahora tienen suficiente información para crear nuestros clones digitales, incluida la capacidad de replicar nuestra voz y semejanza y predecir y manipular nuestro próximo paso usando la tecnología en la que se construyeron los Productos. También pueden apropiarse indebidamente de nuestras habilidades y fomentar nuestra propia obsolescencia profesional. Esto eliminaría la privacidad tal como la conocemos y destaca la importancia de la privacidad, la propiedad y otros derechos legales que esta demanda busca reivindicar.

A los acusados no solo se les debe prohibir sus continuas violaciones de la privacidad y los derechos de propiedad de millones de personas, sino que también se les debe exigir que tomen medidas inmediatas para implementar medidas de seguridad y regulaciones adecuadas para los Productos, sus usuarios y toda la sociedad, tales como:

(i) Transparencia: OpenAI debe abrir la "caja negra" para divulgar de manera clara y precisa los datos que recopila, incluido dónde y de quién, en documentos de política claros y visibles que sean explícitos sobre cómo se debe recopilar esta información. ser almacenado, manipulado, protegido y utilizado;

(ii) Responsabilidad: Los desarrolladores de ChatGPT y los otros Productos de IA deben ser responsables de las acciones y resultados del Producto y deben estar excluidos de una mayor implementación comercial en ausencia de la capacidad de los Productos para seguir un código de principios y pautas éticos similares a los humanos y respeto por los valores y derechos humanos, y hasta que los Demandantes y los Miembros de la Clase reciban una compensación justa por los datos robados de los que dependen los Productos;

(iii) Control: los Demandados deben permitir que los usuarios del Producto y los usuarios habituales de Internet opten por no participar en la recopilación de datos y, de lo contrario, deben detener la toma ilegal de datos de Internet, eliminar (o compensar) cualquier dato obtenido de forma ilícita, o los algoritmos que se construyeron a partir de los datos robados, y antes de cualquier otro despliegue comercial, se deben agregar medidas tecnológicas de seguridad a los Productos que evitarán que la tecnología supere la inteligencia humana y perjudique a otros.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd