Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3883

Incidentes Asociados

Incidente 68814 Reportes
Scarlett Johansson Alleges OpenAI's Sky Imitates Her Voice Without Licensing

Loading...
La lucha ScarJo-OpenAI centra el debate sobre la seguridad de la IA
semafor.com · 2024

LAS NOTICIAS

Es el escándalo tecnológico más interesante de los últimos tiempos: La actriz Scarlett Johansson acusó a OpenAI de copiar de forma deliberada (y espeluznante) su voz para hacer que ChatGPT sonara como su personaje de IA en la película Her.

OpenAI lo negó y suspendió la función, pero provocó indignación generalizada, y el sindicato representa a los actores de Hollywood y otros artistas instaron el martes al Congreso a aprobar legislación para proteger a personas como Johansson.

LA VISTA DE REED

La verdad más grande de toda esta pelea entre ScarJo y OpenAI, eclipsada por el drama, es que finalmente hemos descubierto el frente central en la próxima guerra política, cultural y financiera por la IA.

A medida que la IA se vuelve "multimodal", ingiriendo y produciendo texto, video y audio, surgirán imitaciones de artistas populares de todo tipo, enfrentándolos a algunos de los mayores gigantes tecnológicos. Esto ya estaba sucediendo, pero el percance de Johansson lo enfoca de una manera nueva.

Esto resuelve un período de confusión pública y política que comenzó con el lanzamiento de ChatGPT 3 en 2022. Eso provocó un [enloquecimiento] colectivo(https://www.nytimes.com/2023/02/16/technology/bing- chatbot-microsoft-chatgpt.html) sobre riesgos existenciales: robots asesinos, máquinas que matan a humanos para fabricar clips, computadoras que rocían armas químicas. Las aburridas cuestiones en el ámbito jurídico sobre la propiedad intelectual quedaron en un segundo plano, a pesar de que [las grandes empresas de medios](https://www.nytimes.com/2023/12/27/business/media/new-york-times-open -ai-microsoft-lawsuit.html) y autores del libro abierto lo que probablemente serán años de litigio.

La situación de Johansson, por otro lado, fue inyectada directamente en el espíritu de la época. , y ha dejado de lado cuestiones de riesgo existencial. Este será un momento de concentración para los líderes de opinión y los reguladores, y marca el comienzo del próximo capítulo de la IA, en el que la industria enfrentará un nuevo y enérgico intento de controlarla.

El episodio dará vida a los más de 420 proyectos de ley sobre IA que se proponen en las legislaturas estatales sólo en Estados Unidos. Los funcionarios electos seguramente utilizarán el caso Johansson para ilustrar sus argumentos. Algunos de esos proyectos de ley se refieren directamente a la replicación de personas reales que utilizan la IA. Y cada foto, video y audio que produce la IA se creó mediante capacitación con personas reales. Puede resultar difícil para las empresas de IA garantizar que sus resultados no sean copias del trabajo de alguien.

Estas medidas concretas carecen del dramatismo del confuso término "Seguridad de la IA", cuya definición se había ido [expandiendo](https://www.semafor.com/article/03/08/2024/the-risks-of-expanding-the -definición-de-seguridad-ai) para incluir todo, desde la amenaza de extinción humana hasta la diversidad de imágenes generadas por IA.

Lo curioso de este lío es que el problema central sólo afecta tangencialmente a la IA. La voz en cuestión se basó en una actriz real. La coqueta voz que demostró la semana pasada fue retirada antes de que pudiera ser utilizada por el público. Parece poco probable que haya siquiera una demanda aquí. Se trata mucho más de un sentido del bien y del mal y ese tipo de cosas siempre resuena más que una demanda. (Siempre existe la posibilidad de una demanda real).

Los hechos son tan simples como una pelea en el patio de recreo. OpenAI le pidió permiso a Johansson y ella dijo que no. OpenAI lo hizo de todos modos. (Niega que lo haya hecho intencionadamente). Y si esto le puede pasar a la que alguna vez fue la actriz mejor pagada del mundo, ¿qué posibilidades tiene alguien más contra el gigante de la IA?

Ahora, cualquiera que sienta que la IA le ha hecho daño de alguna manera tiene un grito de guerra: Soy ScarJo.

ESPACIO PARA EL DESACUERDO

Busque en Google "qué piensa la gente sobre la IA" y obtendrá cientos de artículos de noticias sobre personas que temen a la IA y su impacto en la sociedad.

Pero las encuestas muestran que, al final , la gente está utilizando esta tecnología en el trabajo y en otros aspectos de sus vidas. La curva de adopción es más rápida que Internet.

Controversia de ScarJo o no, la tecnología útil encuentra una manera de abrirse paso y la gente la utilizará.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd