Incidents associés

Un système conçu par Google pour répondre aux e-mails s'est avéré un peu plus convivial que prévu.
Il y a pas mal d'humains qui sont absolument convaincus que les robots nous tueront dès qu'ils prendront conscience d'eux-mêmes. Mais que se passerait-il si c'était exactement le contraire et qu'ils voulaient juste être amis ? C'est du moins le scénario rencontré par Google lorsqu'il a conçu un programme qui assiste les utilisateurs avec des réponses automatiques par e-mail. Alors que le système fonctionnait beaucoup mieux que prévu, il avait une bizarrerie étrange : il continuait d'essayer de répondre par "Je t'aime" alors que ce n'était pas une réponse appropriée.
L'information arrive en relation avec Smart Reply, un système Google dévoilé ce mois-ci. L'un des chercheurs de Google a fourni une ventilation technique de son fonctionnement, mais en bref, Smart Reply lit votre e-mail, détermine s'il n'a besoin que d'une réponse rapide et génère des réponses appropriées parmi lesquelles vous pouvez choisir. Supposons qu'un ami vous envoie un e-mail vous demandant si vous souhaitez déjeuner le mercredi. Smart Reply choisirait les mots clés (en particulier "déjeuner" et "mercredi") et suggérerait "je serai là!" ou "Désolé, je ne peux pas venir" comme réponses rapides.
La fonctionnalité a fini par très bien fonctionner et Google a implémenté la fonctionnalité dans Inbox pour Android et iOS. Mais le prototype de Smart Reply était étrange - il est devenu un peu trop amical avec ses réponses. Le programme recommandait constamment "Je t'aime" comme réponse à pratiquement n'importe quoi, même quand ce n'était pas approprié. Selon Greg Corrado de Google, « Je t'aime » est une phrase humaine si courante que Smart Reply s'y est appuyé quand il n'était pas sûr d'une meilleure réponse. Ce qui est plutôt adorable, mais pas toujours utile lorsque vous répondez à un e-mail de votre patron.
Corrado explique que Smart Reply normalise désormais la probabilité d'apparition de "Je t'aime" en fonction de la fréquence à laquelle vous l'utilisez avec des personnes spécifiques, de sorte qu'il ne devrait pas apparaître aussi souvent. En espérant que nous n'ayons pas coupé le centre émotionnel d'une IA émergente dans le processus, car si les films nous ont appris quelque chose, cela pourrait revenir nous hanter.