Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2940

Loading...
La Corte Suprema está lista para reconsiderar los principios clave del discurso en línea
nytimes.com · 2023

Durante años, las redes sociales gigantes como Facebook, Twitter e Instagram han operado bajo dos principios cruciales.

La primera es que las plataformas tienen el poder de decidir qué contenido mantener en línea y qué eliminar, sin supervisión gubernamental. La segunda es que los sitios web no pueden ser considerados legalmente responsables de la mayor parte de lo que sus usuarios publican en línea, protegiendo a las empresas de demandas por discursos difamatorios, contenido extremista y daños en el mundo real vinculados a sus plataformas.

Ahora, la Corte Suprema está a punto de reconsiderar esas reglas, lo que podría conducir al restablecimiento más significativo de las doctrinas que rigen el discurso en línea desde que los funcionarios y tribunales estadounidenses decidieron aplicar pocas regulaciones a la web en la década de 1990.

El viernes, se espera que la Corte Suprema discuta si escuchar dos casos que desafían las leyes en [Texas](https://www.nytimes.com/2022/09/16/business/texas-social-media-politic-law .html) y Florida que prohíben que las plataformas en línea eliminen cierto contenido político. El próximo mes, el tribunal está programado para escuchar un caso que cuestiona la Sección 230, un estatuto de 1996 que protege a las plataformas de responsabilidad por el contenido publicado por sus usuarios.

Los casos podrían eventualmente alterar la posición legal de no intervención que Estados Unidos ha tomado en gran medida con respecto al discurso en línea, lo que podría alterar los negocios de TikTok, Twitter, Snap y Meta, propietaria de Facebook e Instagram.

“Es un momento en el que todo podría cambiar”, dijo Daphne Keller, exabogada de Google que dirige un programa en el Centro de Política Cibernética de la Universidad de Stanford.

Los casos son parte de una creciente batalla global sobre cómo manejar el discurso dañino en línea. En los últimos años, a medida que Facebook y otros sitios atrajeron a miles de millones de usuarios y se convirtieron en canales de comunicación influyentes, el poder que ejercían fue objeto de un escrutinio cada vez mayor. Surgieron preguntas sobre cómo las redes sociales podrían haber afectado indebidamente elecciones, [genocidios](https: //www.nytimes.com/2018/10/15/technology/myanmar-facebook-genocide.html), guerras y debates políticos.

En algunas partes del mundo, los legisladores se han movido para controlar la influencia de las plataformas sobre el discurso. El año pasado, [los legisladores europeos aprobaron normas](https://www.nytimes.com/2022/04/22/technology/european-union-social-media-law.html#:~:text=The%20law%2C %20llamada%20la%20digital, billones%20de%20dólares%20en%20multas.) que exigen a las empresas de Internet llevar a cabo procedimientos para eliminar contenido ilícito y ser más transparentes sobre cómo recomiendan contenido a las personas.

En los Estados Unidos, donde la libertad de expresión está consagrada en la Primera Enmienda, ha habido menos acción legislativa. Si bien los legisladores en Washington han interrogado a los directores ejecutivos de los gigantes tecnológicos durante los últimos tres años sobre el contenido que eliminan, las propuestas para regular el contenido dañino no han tenido éxito.

El partidismo ha empeorado el atasco. Republicanos, algunos de los cuales han acusado a Facebook, Twitter y otros sitios de [censurarlos] (https://www.nytimes.com/2020/10/28/technology/senate-tech-hearing-section-230.html), han presionado a las plataformas para que dejen más contenido arriba. En contraste, los demócratas han dicho que las plataformas deberían eliminar más contenido, como información errónea sobre salud.

Es probable que el caso de la Corte Suprema que impugna la Sección 230 de la Ley de Decencia en las Comunicaciones tenga muchos efectos dominó. Si bien los periódicos y las revistas pueden ser demandados por lo que publican, la Sección 230 protege a las plataformas en línea de las demandas por la mayoría del contenido publicado por sus usuarios. También protege las plataformas de demandas cuando eliminan publicaciones.

Durante años, los jueces citaron la ley al desestimar los reclamos contra Facebook, Twitter y YouTube, asegurando que las empresas no asumieran una nueva responsabilidad legal con cada actualización de estado, publicación y video viral. Los críticos dijeron que la ley era una tarjeta para salir de la cárcel gratis para los gigantes tecnológicos.

“Si no tienen ninguna responsabilidad en el fondo por ninguno de los daños que se facilitan, básicamente tienen el mandato de ser lo más imprudentes posible”, dijo Mary Anne Franks, profesora de derecho de la Universidad de Miami.

La Corte Suprema se negó previamente a escuchar varios casos que impugnaban el estatuto. En 2020, el tribunal rechazó una demanda de las familias de personas muertas en ataques terroristas que decía que Facebook era responsable de promover contenido extremista. En 2019, el tribunal se negó a escuchar el caso de un hombre que dijo que su exnovio envió personas para acosarlo usando la aplicación de citas Grindr. El hombre demandó a la aplicación, diciendo que tenía un producto defectuoso.

Pero el 21 de febrero, la corte planea escuchar el caso de González v. Google, que fue presentado por la familia de un estadounidense asesinado en París durante un ataque de seguidores del Estado Islámico. En su demanda, la familia dijo que la Sección 230 no debería proteger a YouTube de la afirmación de que el sitio de videos apoyaba el terrorismo cuando sus algoritmos recomendaban videos del Estado Islámico a los usuarios. La demanda argumenta que las recomendaciones pueden contar como su propia forma de contenido producido por la plataforma, eliminándolas de la protección de la Sección 230.

Un día después, el tribunal planea considerar un segundo caso, Twitter v. Taamneh. Se trata de una pregunta relacionada sobre cuándo las plataformas son legalmente responsables de apoyar el terrorismo según la ley federal.

Eric Schnapper, profesor de derecho de la Universidad de Washington y uno de los abogados que representan a los demandantes en ambos casos, dijo en una entrevista que los argumentos eran lo suficientemente limitados como para no cambiar grandes sectores de Internet. “Todo el sistema no se descompone”, dijo.

Pero Halimah DeLaine Prado, consejera general de Google, dijo en una entrevista que "cualquier decisión negativa en este caso, limitada o no, cambiará fundamentalmente la forma en que funciona Internet", ya que podría resultar en la eliminación de algoritmos de recomendación que son " integral” a la web.

Twitter no respondió a una solicitud de comentarios.

Las empresas tecnológicas también están siguiendo de cerca los casos de Texas y Florida. Ambos estados aprobaron leyes que prohíben que las redes sociales eliminen cierto contenido después de que Twitter y Facebook prohibieron al presidente Donald J. Trump luego de los disturbios del 6 de enero de 2021 en el Capitolio de los EE. UU. La ley de Texas permite a los usuarios demandar si una gran plataforma en línea elimina su publicación debido al "punto de vista" que expresa. La ley de Florida multa a las plataformas que banean permanentemente las cuentas de un candidato a un cargo en el estado.

La sala de reuniones de la Casa Blanca durante el discurso televisado del presidente Donald J. Trump desde el Rose Garden el 6 de enero de 2021. Credit...Pete Marovich para The New York Times

NetChoice y CCIA, grupos financiados por Facebook, Google, Twitter y otras empresas tecnológicas, presentaron una demanda para bloquear las leyes en 2021. Los grupos argumentaron que las empresas tenían el derecho constitucional de decidir qué contenido alojar.

“Es una forma indirecta de castigar a las empresas por ejercer los derechos de la Primera Enmienda con los que otros no están de acuerdo”, dijo Chris Marchese, abogado de NetChoice.

En Florida, un juez federal estuvo de acuerdo con los grupos de la industria, decidiendo que la ley incidía sobre los derechos de la Primera Enmienda de las plataformas, y la Corte de Apelaciones del Circuito 11 de EE. UU. [confirmó la mayor parte de esa decisión] (https://www.washingtonpost.com/technology/2022/05/23/florida-social-media- 11º-circuito-decisión/). Pero la Corte de Apelaciones del Quinto Circuito de EE. UU. confirmó la ley de Texas y rechazó “la idea de que las corporaciones tienen el derecho libre de la Primera Enmienda de censurar lo que dice la gente”.

Eso presiona a la Corte Suprema para que intervenga. Cuando los tribunales federales ofrecen diferentes respuestas a la misma pregunta, la Corte Suprema a menudo elige resolver la disputa, dijo Jeff Kosseff, profesor asociado de derecho de seguridad cibernética en la Academia Naval de EE. UU.

Una portavoz del fiscal general de Florida, Ashley Moody, señaló las presentaciones del estado ante la Corte Suprema, donde argumenta que el fallo que bloquea la ley despoja a los estados del poder “para proteger el acceso de sus ciudadanos a la información”. Un portavoz del fiscal general de Texas, Ken Paxton, no respondió a una solicitud de comentarios.

Si los jueces de la Corte Suprema deciden escuchar las impugnaciones, podrían pasar a tomar los casos de inmediato para el mandato de la corte que finaliza en junio o para su próximo mandato, que se extiende desde octubre hasta el verano de 2024.

“Creo que estamos, en este momento, en un lugar donde la corte se está posicionando para emitir un nuevo juicio en Internet”, dijo Kosseff.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd