Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4165

Incidents associés

Incident 8149 Rapports
AI Avatar of Murder Victim Created Without Consent on Character.ai Platform

Loading...
Character.AI permet à un utilisateur de « recréer » une femme décédée
mindmatters.ai · 2024

La boîte de Pandore est une parabole appropriée à l’ère de l’IA. Remettre en question l’ampleur des impacts des nouvelles technologies semble être une simple nécessité éthique, mais certaines grandes entreprises d’IA n’ont pas lu le mémo. Character.AI, un concurrent d’OpenAI lancé par une équipe d’anciens employés de Google, a été conçu pour permettre aux utilisateurs de créer des avatars d’IA qui imitent des personnages réels ou imaginaires, comme des célébrités, des politiciens ou des personnages de romans ou de films. Récemment, un utilisateur a créé sur la plateforme un avatar basé sur Jennifer Crecente, une jeune femme assassinée par son ex-petit ami en 2006.

L’entreprise a autorisé un personnage d’IA basé sur une personne décédée à discuter avec les vivants, au grand désespoir de la famille de Crecente. L’oncle de Jennifer, comme l’a rapporté Futurism, a écrit un message furieux sur X dénonçant l’échec éthique flagrant de Character.AI à protéger la mémoire et la dignité de la jeune femme. Foster Kamer écrit,

En réponse au tweet indigné de Brian Crecente, Character.AI a répondu sur X avec un remerciement concis pour l'avoir porté à leur attention, notant que l'avatar est une violation des politiques de Character.AI, et qu'ils le supprimeraient immédiatement, avec la promesse de « examiner si d'autres mesures sont justifiées ». > Dans un article de blog intitulé « L’IA et la mort de la dignité », Brian Crecente a expliqué ce qui s’est passé au cours des 18 années qui ont suivi la mort de sa nièce Jennifer : Après beaucoup de chagrin et de tristesse, son père Drew a créé une association à but non lucratif qui s’est efforcée de changer les lois et de créer des concours de conception de jeux qui pourraient honorer sa mémoire, s’efforçant de trouver un sens à leur chagrin.

Bien que le profil ait depuis été supprimé, il est juste de se demander comment ces entreprises d’IA d’un milliard de dollars devraient être réglementées à l’avenir pour éviter de nouveaux dommages de ce type. Comment cela peut-il être évité à l’avenir ? Est-ce possible ? Ou les entreprises d’IA traitent-elles les incidents comme des cas exceptionnels malheureux mais inévitables ? Bien que Character.AI ait expliqué que la publication d’un avatar d’une personne décédée viole ses directives, il est difficile, compte tenu de la puissance de la technologie, d’imaginer que les gens ne trouveront pas d’échappatoires pour refaire des choses similaires.

Cette situation ouvre un débat plus vaste sur la réglementation de l’IA, sur les limites éthiques à tracer et sur les personnes qui devraient avoir le pouvoir de les tracer.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd