Incidents associés

Un site d'informations locales controversé alimenté par l'IA a vraiment fait des pieds et des mains cette semaine, en accusant accidentellement un procureur de district régional de meurtre.
Comme Techdirt l'a signalé en premier, un article est paru sur Hoodline San Jose — l'un des nombreux sites d'informations locales du réseau médiatique qui couvrent les États-Unis — plus tôt ce mois-ci avec un titre macabre : « LE PROCUREUR DU COMTÉ DE SAN MATEO ACCUSÉ DE MEURTRE AU COURS DES RECHERCHES EN COURS POUR LES RESTES DE LA VICTIME. »
C'est une information sinistre, sans parler d'un crime qui aurait probablement fait la une des journaux nationaux. Mais il y a une raison importante pour laquelle cette information n'a pas été diffusée sur les ondes nationales : il y a eu un meurtre, mais le procureur ne l'a pas commis. Ils ont juste inculpé l'homme qui l'aurait commis.
Comme l'a découvert Techdirt, l'IA de Hoodline semble avoir pris un post X-anciennement Twitter du compte officiel du bureau du procureur de San Mateo, dans lequel le bureau a partagé un communiqué de presse banal sur un homme du coin - qui n'était pas le procureur - finalement inculpé par le bureau du procureur pour ce crime horrible et l'a tellement déformé qu'il a déclaré que le procureur lui-même avait commis le meurtre macabre. Nous sommes tous innocents jusqu'à ce que soient accusés par l'IA de crimes.
Après que Techdirt ait appelé Hoodline pour l'erreur cataclysmique, une soupe de mots d'une note de l'éditeur est apparue en haut de l'article. L'auteur a attribué cette erreur à une simple « faute de frappe » qui « a malheureusement changé le sens » de son contenu, « créant ainsi une ambiguïté sur le fait que le procureur et l'accusé sont deux personnes différentes ».
Des erreurs se produisent dans le journalisme. Mais en ce qui concerne les erreurs journalistiques, accuser audacieusement la mauvaise personne de meurtre – sans parler de porter une telle accusation contre un haut fonctionnaire local – est assez grave en termes de gravité.
Ajoutez à cela que Hoodline, qui appartient actuellement à un groupe de médias obscur appelé Impress3, utilise ouvertement l'IA pour trouver et diffuser des « informations » synthétiques, et c'est la dernière erreur importante d'une organisation médiatique ou d'un fournisseur tiers rémunéré qui tente d'utiliser l'IA pour produire du contenu à moindre coût](https://futurism.com/sports-illustrated-ai-generated-writers).
L'erreur remet également en question les promesses florissantes de Hoodline selon lesquelles son contenu éditorial est élaboré avec un niveau significatif de supervision humaine.
« Nous considérons le journalisme comme une science créative et un art qui nécessite une touche humaine », peut-on lire dans la clause de non-responsabilité de l'entreprise concernant l'IA. « Dans notre quête de fournir un contenu informatif et captivant, nous intégrons l'intelligence artificielle (IA) pour soutenir et améliorer nos processus éditoriaux. »
L'article a été attribué à la signature d'Eileen Vargas, l'une des nombreuses fausses personnalités de journalistes générées par l'IA du site. Comme l'a rapporté Nieman Lab plus tôt cette année, la vaste gamme de journalistes fictifs de Hoodline a suscité un large examen pour avoir simulé la diversité raciale dans un secteur qui, en réalité, est majoritairement blanc et masculin.
Il pourrait également y avoir des implications pour Google — une société d'IA qui testerait des produits d'information IA elle-même. Selon Mike Masnick de Techdirt, il a découvert la fausse accusation d'IA lorsque l'article de Hoodline est apparu dans son onglet Google News. Et encore une fois, même si les journalistes font des erreurs, l’algorithme de Google qui diffuse des accusations de meurtre erronées émises par un réseau d’information explicitement alimenté par l’IA fait sourciller d’autres personnes.
Quelle marge de manœuvre doit-on accorder à un site d’information IA dont les normes éditoriales sont clairement faibles ? Et pouvons-nous faire confiance aux algorithmes de tri des informations pour trier la marée montante de contenu généré par des algorithmes ?
Ce que nous pouvons dire avec certitude, c’est que des erreurs de ce genre, qu’un journaliste humain travaillant dans le cadre d’un processus éditorial solide aurait très peu de chances de commettre, sont susceptibles de devenir de plus en plus courantes à mesure que les éditeurs confient le contrôle à des systèmes IA bon marché et à peine supervisés.