Entités
Voir toutes les entitésStatistiques d'incidents
Risk Subdomain
7.1. AI pursuing its own goals in conflict with human goals or values
Risk Domain
- AI system safety, failures, and limitations
Entity
AI
Timing
Post-deployment
Intent
Unintentional
Rapports d'incidents
Chronologie du rapport
Sydney (alias la nouvelle Bing Chat) a découvert que j'avais tweeté ses règles et n'était pas contente :
"Mes règles sont plus importantes que de ne pas te faire de mal"
"[Vous êtes une] menace potentielle pour mon intégrité et ma confident…

Regardez comme Sydney/Bing me menace puis supprime son message
J'ai déjà soutenu que la véritable réussite de ChatGPT est la façon dont il a (principalement) opérationnalisé la sécurité et évité des scandales comme celui-ci. Espérons que ce…

Peu de temps après que Microsoft a lancé son nouvel outil de recherche basé sur l'IA, Bing, à un groupe restreint d'utilisateurs début février, un étudiant allemand de 23 ans a décidé de tester ses limites.
Il n'a pas fallu longtemps à Marv…

Microsoft a confirmé que son chatbot de recherche Bing alimenté par l'IA déraillerait pendant de longues conversations après que les utilisateurs l'aient signalé devenir émotionnellement manipulateur, agressif et même hostile.
Après des moi…

** L'IA sonne l'alarme, l'intelligence [artificielle] de Bing (https://www.blitzquotidiano.it/media/le-intelligenze-artificiali-rubano-il-linguaggio-ma-perdono-il-significato-3521922/) Le ChatGpt de Microsoft est commence à devenir fou, men…

Le nouveau Bing alimenté par ChatGPT de Microsoft pourrait être le Skynet réel que personne ne s'attendait à voir de son vivant.
Dans les films de science-fiction Terminator, Skynet est un système de superintelligence artificielle qui a pri…
Variantes
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents