Incidents associés
Deloitte Australie a rédigé un rapport majeur pour le ministère de l'Emploi et des Relations professionnelles (DEWR) sur le fondement juridique des sanctions automatisées liées aux systèmes de protection sociale basés sur l'IA. Le DEWR a versé 439 000 dollars australiens à Deloitte. [rapport, PDF; appel d'offres]
Mais Deloitte a cité une multitude de références qui n'existent pas.
Les universitaires cités par Deloitte ne sont pas satisfaits. La professeure Lisa Burton Crawford a déclaré : [AFR]
Je n'ai pas toujours compris comment les recherches que j'ai publiées corroborent les affirmations pour lesquelles j'étais citée. Il est inquiétant de voir des recherches m'être attribuées de cette manière.
De nombreuses références étaient clairement des faux chatbots : des titres et des détails corrects, mais inexistants. Le Dr Chris Rudge a déclaré :
L'utilisation de l'IA est une hypothèse solide, compte tenu de la nature des références, il n'y a guère d'autre explication. Il est difficile de saisir des titres incorrects par accident.
Deloitte « s'en tient à ses travaux et aux conclusions du rapport » et « le contenu de chaque article référencé est exact ». Cependant, Deloitte n'aurait pas répondu s'il avait utilisé l'IA.
Deloitte a fourni à l'Australian Financial Review une liste de références corrigées. Ces nouvelles références se sont avérées infondées. [AFR]
Voilà ce que l'on constate lorsque l'auteur d'un abus de chatbot est appréhendé et tente ensuite d'apporter des corrections en interrogeant le chatbot. On pourrait croire qu'il s'agit d'une incompétence déraisonnable.
Le DEWR « continue d'enquêter sur ces allégations et a sollicité l'avis urgent de Deloitte à ce sujet ».