Incidentes Asociados

Sentada en el banquillo de los testigos de un pequeño tribunal de Londres esta semana, una ejecutiva de Meta se enfrentó a una pregunta incómoda: ¿su empresa contribuyó al suicidio de una niña de 14 años llamada Molly Russell?
Videos e imágenes de suicidio, autolesiones y contenido depresivo que la adolescente vio en los meses previos a su muerte en noviembre de 2017 aparecieron en una pantalla en la sala del tribunal. Al ejecutivo se le leyó una publicación que a Molly le había gustado o guardado de Instagram, y escuchó cómo fue copiada casi palabra por palabra en una nota llena de palabras de autodesprecio encontradas más tarde por sus padres.
“Esto es Instagram literalmente dándole ideas a Molly”, dijo enojado Oliver Sanders, un abogado que representa a la familia, durante un momento del intercambio.
Inclinándose hacia adelante en la silla de los testigos, la ejecutiva, Elizabeth Lagone, que dirige la política de salud y bienestar de la empresa, respondió: “No puedo hablar de lo que estaba pasando por la mente de Molly”.
El forense que supervisó el caso, que en Gran Bretaña es una figura similar a un juez con amplia autoridad para investigar y determinar oficialmente la causa de la muerte de una persona, fue mucho menos circunspecto. El viernes, dictaminó que Instagram y otras plataformas de redes sociales habían contribuido a su muerte, quizás la primera vez en cualquier lugar que las empresas de Internet han sido legalmente culpadas por un suicidio.
“Molly Rose Russell murió a causa de un acto de autolesión mientras sufría de depresión y los efectos negativos del contenido en línea”, dijo el forense Andrew Walker. En lugar de clasificar oficialmente su muerte como un suicidio, dijo que Internet “afectó su salud mental de manera negativa y contribuyó a su muerte de una manera más que mínima”.
El juicio desapasionado y declarativo concluyó una batalla legal que enfrentó a la familia Russell contra algunas de las empresas más grandes de Silicon Valley. Profundizando en los peores temores de muchos padres sobre la influencia de Internet y las redes sociales en sus hijos, el caso repercutió en Gran Bretaña y más allá. Una multitud de cámaras de televisión y fotógrafos se reunieron fuera de la sala del tribunal cuando se anunció la decisión.
Miles de imágenes, videos y otro material de redes sociales de las cuentas de Molly fueron revelados durante la investigación, uno de los mayores comunicados públicos de su tipo. Eso proporcionó el tipo de detalle que los investigadores que estudian los efectos de las redes sociales en la salud mental se han quejado durante mucho tiempo de que plataformas como Meta, propietaria de Facebook e Instagram, retienen por motivos éticos y de privacidad.
El uso de las redes sociales de Molly incluía material tan perturbador que un trabajador de la corte salió de la sala para evitar ver una serie de videos de Instagram que mostraban el suicidio. Un psicólogo infantil que fue llamado como testigo experto dijo que el material era tan "perturbador" y "angustioso" que le hizo perder el sueño durante semanas.
Las empresas no se enfrentan a ninguna sanción financiera o de otro tipo a causa de la decisión. El caso fue una investigación forense para determinar la causa de la muerte, no un juicio penal o civil. La familia dijo que había seguido el caso como una forma de justicia para Molly y para crear conciencia sobre el suicidio juvenil y los peligros de las redes sociales.
Pero ya existe un borrador de ley inspirado en parte por la muerte de Molly, para obligar a las empresas de redes sociales a adoptar nuevas protecciones de seguridad infantil o arriesgarse a fuertes multas. abriéndose camino a través del Parlamento británico. Instagram y Pinterest restringieron el acceso a algunos contenidos de suicidio y autolesiones. Y los abogados que representan a familias estadounidenses que están demandando a TikTok y Meta por contribuir a la muerte de sus hijos señalan al resultado como un nuevo precedente.
“Esto fue David y Goliat”, dijo Beeban Kidron, miembro de la Cámara de los Lores. y fundador de 5Rights, una organización sin fines de lucro que promueve leyes de seguridad infantil en línea más estrictas. “La familia Russell ha luchado durante cinco años para llevar a las empresas a un entorno en el que bajo juramento tenían que rendir cuentas por sus acciones”.
Meta, que dijo durante la investigación que nunca había estudiado los efectos del contenido suicida y depresivo de Instagram en sus usuarios más jóvenes, dijo en un comunicado posterior que sus "pensamientos están con la familia Russell" y que estaba "comprometida a garantizar que Instagram es una experiencia positiva para todos, especialmente para los adolescentes”.
La familia Russell tenía una vida “casi aburrida” en un suburbio del norte de Londres, dijo Ian Russell, el padre de Molly, en una entrevista en julio antes de la investigación. Preocupados por el uso de la tecnología por parte de sus tres hijas, él y su esposa, Janet, asistieron a clases de seguridad electrónica en su escuela y trataron de controlar sus cuentas de redes sociales. Los teléfonos estaban prohibidos en la mesa de la cena.
Molly, al igual que sus dos hermanas mayores, obtuvo un teléfono básico a los 11 años, cuando muchos niños británicos comienzan a ir a la escuela de forma independiente. Recibió un iPhone como regalo de cumpleaños número 13, poco después de haber creado una cuenta de Instagram con el permiso de sus padres.
Molly, que había disfrutado de montar a caballo y de la música pop, comenzó a pasar más tiempo en su habitación, pero nada despertó las alarmas. Russell dijo que rara vez había publicado algo en las redes sociales, pero que no era raro encontrarla sentada en su cama viendo Netflix en un iPod Touch mientras se comunicaba con sus amigos en otro dispositivo.
“Ella era una adolescente; casi hubiera sido preocupante si no lo hubiera hecho”, dijo Russell. "Cómo se separan esas cosas del comportamiento normal y tal vez algo preocupante, realmente no sé si se puede".
En los días posteriores a la muerte de Molly, dijo Russell, la familia luchó por entender qué había salido mal. Había estado un poco abatida durante parte del año pasado, pero se había animado últimamente. La familia atribuyó los cambios de humor al comportamiento normal de los adolescentes.
La noche antes de su muerte, la familia vio juntos un programa de telerrealidad y Molly le pidió ayuda al Sr. Russell con un proyecto de experiencia laboral. Estaba emocionada por las entradas para ver “Hamilton” y por tener un papel principal en una próxima obra de teatro escolar.
Fue solo cuando el Sr. Russell se sentó con la computadora familiar que las piezas comenzaron a encajar. Después de obtener acceso a su cuenta de Instagram, encontró una carpeta titulada "Cosas sin importancia" con docenas de imágenes y citas preocupantes. “¿Quién amaría a una chica suicida?” uno dijo.
Se quedó sin aliento mientras revisaba la bandeja de entrada del correo electrónico de Molly, donde encontró una nota de Pinterest que llegó unas dos semanas después de su muerte. "Alfileres de depresión que te pueden gustar", decía.
En enero de 2019, el Sr. Russell hizo pública la historia de Molly. Indignado de que su hija pequeña pudiera ver contenido tan sombrío con tanta facilidad y convencido de que había jugado un papel en su muerte, se sentó para una [entrevista televisiva con la BBC] (https://www.bbc.co.uk/news/ av/uk-46966009) que resultó en artículos de primera plana en los quioscos británicos.
El Sr. Russell, un director de televisión, instó al forense que revisa el caso de Molly a ir más allá de lo que suele ser un proceso formulado y a explorar el papel de las redes sociales. El Sr. Walker estuvo de acuerdo después de ver una muestra del historial de redes sociales de Molly.
Eso resultó en un esfuerzo de un año para obtener acceso a los datos de las redes sociales de Molly. La familia no conocía el código de acceso de su iPhone, pero la policía de Londres pudo eludirlo para extraer 30.000 páginas de material. Tras una larga batalla, Meta accedió a entregar más de 16.000 páginas de su Instagram, tal volumen que retrasó el inicio de la indagatoria. Merry Varney, abogada del bufete de abogados Leigh Day que trabajó en el caso a través de un programa de asistencia legal, dijo que se necesitaron más de 1,000 horas para revisar el contenido.
Lo que encontraron fue que Molly había vivido algo así como una doble vida. Si bien era una adolescente común para su familia, amigos y maestros, su existencia en línea era mucho más sombría.
En los seis meses previos a la muerte de Molly, compartió, dio me gusta o guardó 16,300 piezas de contenido en Instagram. Unas 2100 de esas publicaciones, o unas 12 por día, estaban relacionadas con el suicidio, las autolesiones y la depresión, según datos que Meta reveló a su familia. Muchas cuentas con las que interactuó estaban dedicadas a compartir solo material depresivo y suicida, a menudo usando hashtags que se vinculaban a otro contenido explícito.
Muchas publicaciones glorificaban la lucha interior, ocultando la presión emocional y diciendo a los demás "Estoy bien". Molly se dio un atracón de "me gusta" y guardó representaciones gráficas de suicidio y autolesiones, una vez después de las 3 a. m., según una cronología de su uso de Instagram.
“Es un gueto del mundo en línea en el que una vez que caes en él, el algoritmo significa que no puedes escapar y sigue recomendando más contenido”, dijo Russell durante el testimonio.
Molly no habló sobre sus problemas con la familia, pero buscó consuelo en personas influyentes en línea que publicaban regularmente sobre la tristeza y el suicidio. Desde una cuenta anónima de Twitter que su familia descubrió más tarde, Molly se comunicó con al menos una persona influyente sobre su desesperación, mensajes que nunca recibieron respuesta.
Jud Hoffman, jefe de operaciones comunitarias de Pinterest, dijo que "lamenta profundamente" que Molly haya visto material explícito que no querría que vieran sus propios hijos. "Lo siento", dijo.
Meta reconoció que Molly había visto algún contenido que violaba sus políticas, pero defendió sus prácticas en general como un equilibrio entre la libertad de expresión y la seguridad. La compañía agregó nuevas protecciones en 2019, luego de que la familia hiciera pública la experiencia de Molly, incluida la prohibición de imágenes gráficas de autolesiones, como cortarse, y proporcionar enlaces a recursos para aquellos que buscan material triste o depresivo.
La Sra. Lagone, que tiene experiencia en salud pública y fue contratada por Meta en 2020, dijo que si bien lamentaba que Molly hubiera visto contenido tan angustioso, era importante darles a las personas espacio para expresar su tristeza abiertamente como “un grito de ayuda”.
Después de que se anunció la decisión final en el caso el viernes, el Sr. Russell todavía estaba preocupado por un comentario hecho por la Sra. Lagone durante su testimonio de que parte del material visto por Molly había estado a salvo.
“Si este rastro demente de contenido chupavidas fuera seguro”, dijo, “mi hija Molly probablemente todavía estaría viva”.