Incidentes Asociados

El 3 de octubre de 2022, la Corte Suprema anunció que escucharía dos casos que podrían cambiar fundamentalmente el futuro de Internet moderno. Gonzalez v. Google y Twitter, Inc. v. Taamneh involucran tanto la Ley Antiterrorista como la Sección 230 de la Ley de Decencia en las Comunicaciones, que protege a las plataformas tecnológicas de las demandas por alojar y moderar contenido de usuarios. La Sección 230 es una de las leyes más importantes en política tecnológica, y esta será la primera vez que la Corte Suprema interprete su alcance. En 1996, en los albores de la era de Internet, la Sección 230 se creó para fomentar el desarrollo de Internet y fomentar un entorno en línea seguro donde los usuarios puedan conectarse y expresarse civilizadamente. Más de 25 años después de su promulgación, existe cierta preocupación de que las plataformas de redes sociales desempeñen un papel en la radicalización de los extremistas, lo que puede conducir a la violencia fuera de línea. La pregunta legal que se presenta aquí es si la Sección 230 protege los servicios en línea de juicios basados en recomendaciones hechas por sus algoritmos. A medida que la Sección 230 llega a la Corte Suprema, ¿qué está en juego? ¿Debe el Congreso intervenir primero? Comprender la Sección 230 ------------------------- La Sección 230 tiene dos disposiciones clave que rigen Internet: > 1. Sección 230 (c) (1): _ "Ningún proveedor o usuario de un servicio de computadora interactivo será tratado como el editor o altavoz de cualquier información proporcionada por otro proveedor de contenido de información". _ Conocidas como las 26 palabras que crearon Internet, las plataformas en línea no se hacen responsables de las palabras y acciones de sus usuarios. Estas protecciones legales se crearon para proteger la innovación de Internet al evitar una afluencia de demandas por daños generados por los usuarios. Sin la Sección 230, las empresas de redes sociales podrían ser demandadas por cada mensaje y publicación realizada en sus servicios. > 2. Sección 230(c)(2): “Ningún proveedor o usuario de un servicio de computadora interactivo será responsable por… cualquier acción tomada voluntariamente de buena fe para restringir el acceso o la disponibilidad del material que el proveedor o usuario considere obsceno, lascivo, lascivo, sucio, excesivamente violento, acosador u objetable de otro modo, ya sea que dicho material esté protegido constitucionalmente o no…” Conocida como la disposición del Buen Samaritano, esta cláusula se promulgó para otorgar amplia inmunidad a las plataformas moderar el contenido de buena fe. Los legisladores querían evitar una tierra de nadie sin ley en Internet y garantizar que las plataformas sean entornos en línea seguros, y que no sean penalizados en el esfuerzo por hacerlo. Se alienta a las plataformas a bloquear y filtrar voluntariamente el contenido objetable; sin embargo, se les concede inmunidad si no lo hacen. Comprensión de la moderación de contenido algorítmico -------------------------------------------- En la actualidad mundo altamente avanzado, las tecnologías de contenido algorítmico juegan un papel cada vez más destacado en nuestra vida cotidiana. Bajo las protecciones de la Sección 230, los servicios en línea han creado e implementado poderosos sistemas de moderación de contenido, combinando moderadores automatizados y humanos. Las plataformas en línea utilizan filtros automatizados para procesar datos generados por los usuarios, retener la atención del usuario y detectar abusos en línea. Más controvertido, los algoritmos también recomiendan contenido a los usuarios en función de sus preferencias e historial de búsqueda. Por ejemplo, un usuario que mira un video de gatos en YouTube puede ver contenido similar (por ejemplo, videos de perros o mascotas) recomendado para él en el futuro. El suministro de noticias de las redes sociales de una persona es el resultado de recomendaciones algorítmicas. Una pregunta ante la Corte Suprema con Gonzalez v. Google es si, bajo la Sección 230, un sitio web o servicio “desarrolla” contenido, y por lo tanto pierde inmunidad, cuando usa un algoritmo para recomendar contenido terrorista basado en el historial de visualización de un usuario. Como el Instituto de Políticas y Leyes de Inteligencia Artificial argumentó en un escrito de amicus curia ante el Noveno Circuito, el Tribunal debe determinar si los algoritmos de recomendación de contenido son herramientas de facilitación neutrales. o un medio para desarrollar contenido personalizado para el usuario. Si el Tribunal determina que los algoritmos de recomendación quedan fuera del alcance de la Sección 230, el fallo tendría enormes implicaciones en el funcionamiento de los sitios web. Una cuestión final planteada por el tribunal inferior en Gonzalez es si el Congreso debería imponer requisitos adicionales a los servicios en línea dada su mayor capacidad para moderar contenido dañino. Por ejemplo, muchos sitios web que aprovechan las nuevas tecnologías han logrado una [cantidad exitosa](https://www.forbes.com/sites/niallmccarthy/2020/05/13/facebook-removes-record-number-of-hate-speech -posts-infographic/?sh=4e91f57c3035 ) de reducción de contenido dañino, aunque existen limitaciones. Como el tribunal inferior escribe, "el Congreso bien puede decidir que se necesita más regulación", dadas las capacidades mejoradas de las plataformas para detectar contenido peligroso de manera proactiva. . Esto podría incentivar a las empresas en línea a invertir en la investigación y el desarrollo de tecnologías de moderación de contenido más avanzadas. Gonzalez v. Google ------------------ A principios de octubre de 2022, la Corte Suprema acordó tomar un caso que cuestiona las responsabilidades de los servicios en línea por amplificar el contenido de organizaciones terroristas, que supuestamente radicalizó a los simpatizantes de ISIS para llevar a cabo ataques terroristas coordinados en París en 2015 que mataron a Nohemi González y muchos otros. La Corte Suprema escuchará los desafíos a la inmunidad de las empresas en virtud de la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996, que otorga inmunidad para ciertos reclamos presentados contra los servicios en línea. Es importante destacar que esto también marca la primera vez que la Corte Suprema decide tomar la Sección 230 en su expediente. El fallo de la Corte Suprema en Gonzalez v. Google seguramente tendrá implicaciones importantes para el futuro de la Internet. Los demandantes de este caso argumentan que 1) el demandado violó la Ley Antiterrorista al comunicar mensajes de ISIS, radicalizar a los reclutas y promover su misión, y 2) debe ser considerado responsable de este contenido porque se promocionó a través de recomendaciones específicas en su sitio web. Los demandantes alegan que esta promoción constituyó la complicidad de Google en los esfuerzos de promoción y reclutamiento de estas organizaciones terroristas. A través de esto, los demandantes argumentan que YouTube brindó "apoyo material" a ISIS: que habían permitido a ISIS a sabiendas publicar cientos de videos en YouTube, y que los servicios proporcionados por este algoritmo, que brindaba acceso a los espectadores a otro contenido similar, "eran fundamental para el crecimiento y la actividad de ISIS”. El demandado argumentará que 1) la Sección 230 prohíbe la responsabilidad por el contenido de terceros publicado en sus sitios web, y 2) la Sección 230 no exime al contenido recomendado de las protecciones de responsabilidad, como lo establece el precedente en los fallos de los tribunales del Noveno Circuito y del Segundo Circuito. El escrito de oposición de Google a la petición de que la Corte Suprema revise este caso establece estas defensas. También defiende que su tecnología de YouTube no violó la ATA ni brindó asistencia sustancial a la organización terrorista. La cuestión legal en el centro de este asunto es determinar lo siguiente: > **“¿La sección 230(c)(1) inmuniza a los servicios informáticos interactivos cuando hacen recomendaciones específicas de información proporcionada por otro proveedor de contenido de información, o solo limitan la responsabilidad de los servicios informáticos interactivos cuando se dedican a funciones editoriales tradicionales (como decidir si mostrar o retirar) con respecto a dicha información? ** Si la Corte Suprema falla a favor de los demandantes, podría significar que las plataformas en línea tendrían que cambiar la forma en que operan para evitar ser responsables por el contenido que se promociona en sus sitios. Podría conducir a una Internet más censurada, donde el contenido solo se publica en sitios web si no hay repercusiones potenciales. Como reconoce la petición del Tribunal, las implicaciones de abordar la Sección 230, en lo que se refiere a las recomendaciones generadas por algoritmos, son significativas, ya que se emplean en casi todos los casos de uso de Internet; en consecuencia, los efectos de esta sentencia podrían alterar los modelos de negocios de las empresas de tecnología e Internet tal como lo conocemos. Twitter, Inc. v. Taamneh ------------------------ Junto con Gonzalez, la Corte Suprema también tomó una demanda separada pero relacionada: Twitter, Inc. V. Taamneh – que cuestiona la responsabilidad de los servicios en línea por el contenido que condujo a la muerte de Nawras Alassaf , un ciudadano jordano, durante un ataque afiliado a ISIS en Estambul en 2017. La familia demandó a Twitter, Google y Facebook, alegando que las empresas no controlaron el contenido terrorista que proliferó en sus sitios, argumentando que las plataformas proporcionaban una infraestructura en la que ISIS podía promover publicaciones, que a su vez apoyaba sus operaciones; las empresas luego se beneficiaron al obtener ingresos de estos anuncios dirigidos. La Corte Suprema responderá si 1) el servicio en línea que detecta regularmente y disuade a los terroristas de usar los servicios "a sabiendas" ayudó al terrorismo al no tomar mayores medidas para evitar dicho uso y 2) si el servicio debe ser considerado responsable de ayudar e incitar al terrorismo en virtud de la Ley Antiterrorista enmendada por la Ley de Justicia contra los Patrocinadores del Terrorismo (JASTA). La [Cámara de Comercio](https://www.chamberlitigation.com/sites/default/files/cases/files/21212121/U.S.%20Chamber%20Amicus%20Brief%20--%20Taamneh%20v.%20Twitter%20% 28Ninth%20Circuit%29.pdf ) ha presentado un escrito de amicus curiae en el Tribunal de Circuito, apoyando el argumento de Twitter de que esta decisión amplía el alcance de la Ley Antiterrorista más allá de la intención del Congreso para la ley. Afirma que las empresas no deben ser consideradas responsables por actores no identificados que usan el producto para fomentar el terrorismo, “de lo contrario, las empresas tendrían la tarea insuperable de vigilar activamente a toda su base de clientes, que en el caso de los Demandados, asciende a miles de millones. ” Hay implicaciones sobre la moderación del contenido y si las empresas podrían ser responsables de actividades violentas, delictivas o difamatorias promovidas en sus sitios web. Si el Tribunal falla a favor del demandante, entonces, a pesar del trabajo continuo de la plataforma para evitar la mayoría del contenido terrorista de su sitio, el mal manejo de este tipo daría lugar a demandas. Se necesitarían implementar mayores políticas de moderación de contenido y restricciones en la publicación de contenido, o esto incentivará a las plataformas a no aplicar moderación de contenido para evitar la conciencia. Independientemente de cómo se decida Gonzalez o Twitter, Inc., estos casos seguramente darán forma al panorama regulatorio de las redes sociales de muchas maneras, desde la forma en que operan estas empresas hasta el discurso sobre la regulación de las redes sociales y la libertad de expresión. Antecedentes ---------- ### Corte Suprema La Corte Suprema no ha interpretado las limitaciones y excepciones de la ley; sin embargo, el juez Clarence Thomas ha expresado previamente su escepticismo hacia la Sección 230. El juez Thomas expresó su descontento con la decisión de la Corte Suprema este año de no seguir revisando Jane Doe v. Facebook, Inc., afirmando: “Suponiendo que el Congreso no intervenga para aclarar la alcance, deberíamos hacerlo en un caso apropiado.” Hay casos de tribunales inferiores que son inmediatamente relevantes para considerar e importantes para la interpretación de la ley. En Force v. Facebook (2019), una demanda muy similar a González v. Google, los ciudadanos estadounidenses de ataques terroristas en Israel alegaron que Hamas publicó contenido en Facebook que alentaba activamente los ataques terroristas en Israel. El tribunal dictaminó que la Sección 230 inmunizaba a Facebook de responsabilidad como editor que tomaba decisiones editoriales. La Corte Suprema se negó a escuchar el caso. Si se puede otorgar inmunidad si el algoritmo de recomendación de Google es una herramienta "neutral" que no agrega contenido directamente tiene prioridad en casos judiciales recientes. El caso Dyroff v. Ultimate Software Group Inc. muestra que un servicio en línea animaba a los usuarios a compartir experiencias de primera mano a través de un cuadro de texto abierto y utilizaba algoritmos para recomendar grupos basados en las publicaciones de los usuarios. El servicio había utilizado herramientas "neutrales" para facilitar las comunicaciones y, por lo tanto, era inmune cuando un usuario publicaba sobre oportunidades para comprar drogas y luego tomaba una sobredosis de heroína mezclada con fentanilo. Por el contrario, quienes se oponen a la inmunidad de plataforma, incluida la disidencia en Gonzalez, argumentan que un sitio web o servicio en línea “amplifica afirmativamente” el contenido cuando su algoritmo de recomendación dirige contenido terrorista a usuarios que sabe que son susceptibles de actuar en consecuencia. En FHC v. Roommates.com, un servicio de emparejamiento de inquilinos y propietarios no fue inmune a las denuncias de discriminación porque, en lugar de recomendar inquilinos en función de las entradas de los usuarios en un cuadro de texto abierto, el sitio web pedía a los inquilinos que respondieran preguntas sobre su sexo, orientación, y el número de niños que se quedan con el solicitante. ### Panorama del Congreso A nivel federal, el debate de la Sección 230 ha sido un tema partidista importante. Tanto los demócratas como los republicanos en el Congreso se han vuelto especulativos sobre la Sección 230, aunque por diferentes razones que involucran argumentos a favor de la moderación versus argumentos contra la censura. Los legisladores demócratas argumentan que la Sección 230 fomenta la difusión de contenido dañino mientras que las empresas de tecnología desvían la responsabilidad. Por el contrario, los legisladores republicanos dicen que la Sección 230 permite que estas empresas violen la libertad de expresión al censurar injustamente los puntos de vista conservadores, como eliminar a un presidente republicano en funciones. No obstante, a pesar de todo lo que se dice sobre derogar o modificar la Sección 230, la legislación que afecta a las plataformas de redes sociales ha resultado muy difícil de aprobar. Más de 20 proyectos de ley destinados a derogar o reformar la Sección 230 se presentaron en el 117º Congreso de los Estados Unidos, pero ninguno de ellos estuvo cerca de aprobarse. Es improbable que se alcance un consenso bipartidista en torno a la Sección 230 en el corto plazo, pero el estancamiento puede avivarse cuando el caso González v. Google atraiga la atención nacional e influya en la formulación de políticas federales. El fallo de la Corte Suprema podría cambiar fundamentalmente el alcance de la Sección 230, lo que presionará al Congreso para que actúe. Si los legisladores quieren buscar propuestas legislativas efectivas, se requiere una comprensión precisa de cómo funcionan estas plataformas, y existen [inquietudes](https://www.vox.com/policy-and-politics/2018/4/10/ 17222062/mark-zuckerberg-testimony-graham-facebook-regulations) que los legisladores pueden necesitar más experiencia técnica para abordar el problema. ¿Lo que está en juego? ---------------- En el centro de ambos casos está la forma en que los servicios en línea moderan su contenido. Si bien es difícil predecir el resultado de estos casos, las implicaciones de cambiar la Sección 230, incluso una opinión estrictamente adaptada, son significativas. Los fallos podrían abrir todo tipo de nuevas puertas para futuros litigios, lo que provocaría una afluencia de legislación por parte de los legisladores estatales y federales y cambiaría fundamentalmente el futuro de Internet. Las decisiones de la Corte Suprema sobre estos casos serán fundamentales para las protecciones de responsabilidad de la Sección 230 para las plataformas en línea. En un extremo, la Corte podría adoptar una visión amplia de la Sección 230, fortaleciendo sus protecciones. Esto probablemente crearía una Internet más pasiva al principio, donde el contenido no está regulado ni moderado. Habría un mayor incentivo para no restringir el contenido porque esto crearía una censura de expresión no neutral y potencialmente violaría los derechos de la Primera Enmienda. En consecuencia, una afluencia de contenido odioso o peligroso puede surgir más fácilmente y alterar las medidas de seguridad que las empresas diseñaron para sus usuarios. Alternativamente, el Tribunal puede restringir las protecciones bajo la Sección 230. Esto probablemente incentivaría una mayor moderación del contenido, potencialmente por parte de equipos de abogados, para evitar responsabilidades legales. La revisión de contenido en esta capacidad sería una carga financiera, especialmente para las pequeñas empresas. Su capacidad para garantizar que cada contenido publicado en su sitio no infrinja la ley será costoso. Esto también podría conducir a una Internet más cerrada, donde el contenido de los usuarios se elimine en exceso y los canales sociales tengan un alcance limitado. Por ejemplo, en 2021, CNN cerró su página de Facebook después de un tribunal australiano dictaminó que los editores de noticias podrían ser considerados responsables de los comentarios sobre los enlaces de los artículos. Así como los redactores de la Sección 230 no contemplaron algoritmos de recomendación sofisticados, los reformadores deben contemplar las repercusiones no solo para las plataformas de redes sociales sino también para las futuras plataformas en línea. Por ejemplo, las plataformas de repositorio de código abierto brindan a los usuarios espacio para compartir o adoptar código de código abierto para construir Internet. Estas plataformas a menudo se consideran beneficiosas para la innovación, pero corren el riesgo de enfrentar una mayor responsabilidad. Si se interpreta que la Sección 230 se aplica a las plataformas de código abierto, es probable que adopten un enfoque de moderación más estricto y restrinjan la colaboración para mantener su inmunidad. Por otro lado, las interpretaciones más amplias de la Sección 230 podrían interrumpir los esfuerzos para desarrollar una infraestructura de confianza y seguridad, como [prácticas] actuales de moderación y uso aceptable (https://huggingface.co/content-guidelines). La autorregulación de “web3.0” también puede interpretarse de manera diferente tras las sentencias del Tribunal. Quedan preguntas sobre cómo evocar pasivos en espacios web 3.0 descentralizados o cuál podría ser el metaverso. El futuro de la Sección 230 ------------------------- Si bien González v. Google es el primer caso que la Corte Suprema escucha sobre la Sección 230, se están investigando más casos. probable que venga. Muchos estados de EE. UU. están respondiendo a las normas federales fallidas al tomar el tema de la Sección 230 en sus propias manos. Recientemente, leyes de alto perfil en Texas y Florida prohíben ampliamente la censura de "puntos de vista" y la eliminación de plataformas de candidatos políticos. Los grupos de cabildeo de la industria tecnológica, NetChoice y la Asociación de la Industria de la Computación y las Comunicaciones, desafiaron ambas leyes argumentando que son inconstitucionales porque violan los derechos de la Primera Enmienda de las empresas privadas para ejercer el juicio editorial. Después de largas batallas de ida y vuelta entre la industria tecnológica y los tribunales, ambas leyes están actualmente bloqueadas mientras sus casos están pendientes de peticiones de la Corte Suprema. Hace unos meses, la ley de Texas (HB20) fue confirmada como constitucional por la Corte de Apelaciones del Quinto Circuito, lo que contradice una decisión de la Corte de Apelaciones del Undécimo Circuito, que dictaminó que la ley de Florida (SB7072) era inconstitucional. Los fallos contradictorios, o la “división del circuito”, entre las cortes de apelaciones harán que sea más probable que la Corte Suprema intervenga y evalúe. Conclusión ---------- Ahora que la Sección 230 finalmente está haciendo su debut en la Corte Suprema , la política tecnológica se enfrenta a un gran momento. Sabiendo que la mayoría de los estadounidenses están en línea disfrutando de los muchos beneficios de las redes sociales y el Internet abierto, no hay duda de que los tribunales y el Congreso deben revisar cuidadosamente todo el panorama legal al tratar de abordar los daños. BPC continuará monitoreando estos procedimientos y desarrollos. en el Congreso a medida que se desarrollen en 2022-2023.