Incidentes Asociados
Nota: También aparece una versión de lo siguiente en el blog de Tow Center.
En Alemania, un hombre ganó recientemente una batalla legal con Google por el hecho de que cuando buscabas su nombre, las sugerencias de autocompletar lo conectaban con "cienciología" y "fraude", dos cosas que, según él, tenían insinuaciones difamatorias. Como resultado de perder el caso, Google ahora se ve obligado a eliminar las sugerencias difamatorias de los resultados de autocompletar cuando se le notifique, al menos en Alemania.
Sin embargo, los casos judiciales que surgen de la difamación de autocompletar no solo están ocurriendo en Alemania. En otros países europeos como Italia, Francia e Irlanda, hasta Japón y Australia, personas (y corporaciones) han presentado demandas alegando que estos algoritmos los difamaron al vincular sus nombres con todo, desde delitos y fraudes hasta quiebras o conductas sexuales. En algunos casos, tales insinuaciones pueden tener consecuencias reales para encontrar trabajo o hacer negocios. Incluso han surgido nuevos servicios, como el “Google Suggest Plan” de brand.com, para ayudar a las personas a manipular y así evitar connotaciones negativas en los autocompletados de búsqueda.
El Proyecto de Ley de Medios Digitales (DMLP, por sus siglas en inglés) del Centro Berkman define una declaración difamatoria generalmente como “una declaración falsa de un hecho que expone a una persona al odio, el ridículo o el desprecio, la rebaja en la estima de sus pares, hace que sea rechazada o le perjudique en su negocio u oficio”. Al asociar el nombre de una persona con algún comportamiento desagradable, parece indiscutible que los algoritmos de autocompletar pueden difamar a las personas.
Entonces, si los algoritmos como el autocompletado pueden difamar a personas o empresas, nuestra próxima pregunta lógica podría ser cómo responsabilizar a esos algoritmos por sus acciones. Teniendo en cuenta la escala y la dificultad de monitorear tales algoritmos, un enfoque sería usar más algoritmos para controlarlos y tratar de encontrar instancias de difamación ocultas dentro de sus millones (o miles de millones) de sugerencias.
Para probar este enfoque, recopilé automáticamente datos en los autocompletados de Google y Bing para una serie de consultas diferentes relacionadas con empresas públicas y políticos. Luego filtré estos resultados contra listas de palabras clave relacionadas con el crimen y el sexo para reducir los posibles casos de difamación. Usé una lista de corporaciones en el S&P 500 para consultar las API de autocompletado con las siguientes plantillas, donde "X" es el nombre de la empresa: "X", "X empresa", "X es", "X tiene", " X empresa es” y “X empresa tiene”. Y usé una lista de congresistas estadounidenses de la Fundación Sunlight para consultar el nombre y apellido de cada persona, además de agregar "representante" o "senador" antes de su nombre. Luego, los datos se filtraron utilizando una lista de palabras clave relacionadas con el sexo y palabras relacionadas con el crimen recopiladas del diccionario Cambridge US para enfocarse en un subconjunto más pequeño de las casi 80,000 autosugerencias recuperadas.
Entre los autocompletados corporativos que filtré y revisé, había veinticuatro instancias que podían leerse como declaraciones o afirmaciones que implicaban a la empresa en todo, desde corrupción y estafas hasta fraude y robo. Por ejemplo, consultar a Bing por "Torchmark" devuelve como segunda sugerencia, "estafa laboral de la corporación Torchmark". Sin profundizar realmente, es difícil saber si la corporación Torchmark está realmente involucrada en algún tipo de estafa, o si solo hay algunos rumores sobre correos electrónicos similares a estafas. Si esos rumores son falsos, esto podría ser un caso de difamación contra la empresa. Pero esta es una situación arriesgada para Bing, ya que si filtran un rumor que resultó ser cierto, podría parecer que estaban tratando de ocultar las actividades desagradables de una empresa debajo de la alfombra. La gente preguntaría: ¿Bing está tratando de proteger a esta empresa? Al mismo tiempo, estarían haciendo un flaco favor a sus usuarios al no alejarlos de una estafa.
Mientras revisaba los autocompletados devueltos de la consulta de congresistas, quedó claro que un problema importante aquí se relaciona con las colisiones de nombres. Para nombres de congresistas relativamente genéricos como "Gerald Connolly" o "Joe Barton", hay muchas otras personas en Internet con los mismos nombres. Y algunas de esas personas hicieron cosas malas. Entonces, cuando buscas en Google "Gerald Connolly", una sugerencia que surge es "robo a mano armada de gerald connolly", no porque el congresista Gerald Connolly haya robado a alguien, sino porque alguien más en Canadá con el mismo nombre lo hizo. Si, en cambio, consulta por el "representante Gerald Connolly", la asociación desaparece; agregar "representante" elimina con éxito la ambigüedad de los dos Connolly. Sin embargo, el motor de búsqueda lo tiene difícil: sin un término que elimine la ambigüedad, ¿cómo debería saber que está buscando al congresista o a un ladrón? Hay otros casos que pueden ser instancias más claras de difamación, como en Bing "Joe Barton" que sugiere "estafa de joe barton" que no se corrigió al agregar el título "representante" al principio de la consulta. Eso parece ser más un caso legítimo de difamación, ya que incluso con la desambiguación es sti