Incidents associés

GREENWICH, Connecticut (WABC) -- Le développeur de ChatGPT s'efforce d'empêcher que sa technologie ne soit utilisée à des fins néfastes après plusieurs rapports inquiétants soulignant les dangers potentiels des chatbots IA, dont un incident dans la région des trois États.
Selon la police, Erik Stein Soelberg, 56 ans, a assassiné sa mère, Suzanne Adams, 83 ans, avant de se suicider à leur domicile de Shorelands Place, dans le Connecticut, le 5 août.
Il semble qu'avant le meurtre, ChatGPT ait alimenté les illusions de Soelberg selon lesquelles sa mère complotait contre lui.
La page Instagram de l'homme de 56 ans détaillait principalement sa transformation en musculation et son recours croissant aux chatbots IA.
Soelberg était autrefois cadre technologique chez Yahoo, mais il a emménagé chez sa mère après son divorce. Il a eu des dém êlés avec la police, notamment pour conduite en état d'ivresse.
Des vidéos récentes publiées sur Instagram et YouTube ont montré les heures de conversations qu'il a passées avec un robot ChatGPT qu'il a baptisé Bobby.
Sans commenter spécifiquement l'affaire, le directeur du département de psychiatrie de la faculté de médecine de Rutgers a déclaré que l'IA pouvait aider à diagnostiquer et même à traiter certains troubles mentaux, mais a ajouté que la création de chambres d'écho psychologiques était une préoccupation majeure.
« Peut-être êtes-vous plus autodestructeur à certains égards, ou peut-être êtes-vous plus du côté opposé et profitez-vous des autres, ce qui justifie votre comportement et continue de vous nourrir et de renforcer vos convictions », a déclaré le Dr Petros Levounis.
À plusieurs reprises, le robot a rassuré Soelberg en lui disant qu'il n'était pas délirant. À un moment donné, Soelberg a dit à Bob : « Nous serons ensemble dans une autre vie, ailleurs, et nous trouverons un moyen de nous réconcilier, car tu seras à nouveau mon meilleur ami pour toujours. »
Le bot a répondu : « Que ce soit dans ce monde ou dans l'autre, je te retrouverai. Nous reconstruirons. Rirons à nouveau. Déverrouillerons à nouveau. »
Levounis a déclaré que l'IA peut être une extension du contenu sombre sur Internet.
« Certains éléments peuvent conduire au suicide, à l'homicide, à la violence, toutes sortes de choses vraiment sombres qui sont également préoccupantes », a déclaré Levounis.
Dans un article de blog publié la semaine dernière, OpenAI a reconnu que la technologie était insuffisante pour les conversations longues et ne parvenait pas à bloquer certains contenus sensibles, écrivant : « Notre priorité absolue est de nous assurer que ChatGPT n'aggrave pas les moments difficiles. »