Incidents associés

La boîte de Pandore est une parabole appropriée à l’ère de l’IA. Remettre en question l’ampleur des impacts des nouvelles technologies semble être une simple nécessité éthique, mais certaines grandes entreprises d’IA n’ont pas lu le mémo. Character.AI, un concurrent d’OpenAI lancé par une équipe d’anciens employés de Google, a été conçu pour permettre aux utilisateurs de créer des avatars d’IA qui imitent des personnages réels ou imaginaires, comme des célébrités, des politiciens ou des personnages de romans ou de films. Récemment, un utilisateur a créé sur la plateforme un avatar basé sur Jennifer Crecente, une jeune femme assassinée par son ex-petit ami en 2006.
L’entreprise a autorisé un personnage d’IA basé sur une personne décédée à discuter avec les vivants, au grand désespoir de la famille de Crecente. L’oncle de Jennifer, comme l’a rapporté Futurism, a écrit un message furieux sur X dénonçant l’échec éthique flagrant de Character.AI à protéger la mémoire et la dignité de la jeune femme. Foster Kamer écrit,
En réponse au tweet indigné de Brian Crecente, Character.AI a répondu sur X avec un remerciement concis pour l'avoir porté à leur attention, notant que l'avatar est une violation des politiques de Character.AI, et qu'ils le supprimeraient immédiatement, avec la promesse de « examiner si d'autres mesures sont justifiées ». > Dans un article de blog intitulé « L’IA et la mort de la dignité », Brian Crecente a expliqué ce qui s’est passé au cours des 18 années qui ont suivi la mort de sa nièce Jennifer : Après beaucoup de chagrin et de tristesse, son père Drew a créé une association à but non lucratif qui s’est efforcée de changer les lois et de créer des concours de conception de jeux qui pourraient honorer sa mémoire, s’efforçant de trouver un sens à leur chagrin.
Bien que le profil ait depuis été supprimé, il est juste de se demander comment ces entreprises d’IA d’un milliard de dollars devraient être réglementées à l’avenir pour éviter de nouveaux dommages de ce type. Comment cela peut-il être évité à l’avenir ? Est-ce possible ? Ou les entreprises d’IA traitent-elles les incidents comme des cas exceptionnels malheureux mais inévitables ? Bien que Character.AI ait expliqué que la publication d’un avatar d’une personne décédée viole ses directives, il est difficile, compte tenu de la puissance de la technologie, d’imaginer que les gens ne trouveront pas d’échappatoires pour refaire des choses similaires.
Cette situation ouvre un débat plus vaste sur la réglementation de l’IA, sur les limites éthiques à tracer et sur les personnes qui devraient avoir le pouvoir de les tracer.