La réputation du cabinet de conseil Deloitte vient d’être sérieusement égratignée. Le gouvernement a demandé le remboursement de la commande d’un rapport pour le départeement de l’Emploi et des Relations au Travail. En cause, le sérieux du rapport fourni : le gouvernement a détecté un grand nombre de citations fantômes, de références inventées et de passages manifestement rédigés par une IA, sans aucune diligence humaine suffisante.

À l’origine, le « Targeted Compliance Framework Assurance Review », commandé et publié par le département de l’Emploi et des Relations au Travail australien, devait offrir une expertise technique sur l’automatisation des pénalités dans l’administration du système social australien. Facturé près de 440 000 AUD (environ 290 000 USD) aux contribuables, ce document de 273 pages prétendait mobiliser l’expertise de Deloitte.

Mais à peine diffusé, des universitaires australiens y ont détecté de nombreuses anomalies : citations attribuées à des chercheurs qui n’existent pas, allégations appuyées par des études introuvables et même des références à des décisions de justice totalement inventées. La juriste Lisa Burton Crawford, professeure reconnue, découvre même des passages lui étant attribués alors qu’elle n’a jamais publié les rapports cités. Le cabinet s’est donc fait prendre au piège des hallucinations de l’intelligence artificielle Azure OpenAI GPT 4o, outil utilisé par Deloitte, et chargé de vérifier la conformité entre les codes informatiques et les besoins business.

Deloitte a avoué avoir eu un recours à l’IA générative seulement à la page 58 d’un nouveau document retravaillé et mis en ligne fin septembre. Sur les 141 sources listées à l’origine, 14 ont disparu, purgées car… inexistantes.

Deloitte rembourse, mais le mal est fait

Face à la gravité des faits, Deloitte a dû accepter de rembourser la dernière tranche de son contrat, sans que la proportion exacte ne soit précisée pour l’instant. De son côté, le gouvernement affirme que le fond du rapport et ses recommandations demeurent inchangés, mais les experts universitaires expriment de vives réserves.

L’affaire est d’autant plus préjudiciable que Deloitte n’a mentionné à aucun moment à son client ou aux instances universitaires qu’il pouvait confier à une IA la tâche d’analyser des process techniques.

Si Deloitte n’a pas été le seul cabinet d’audit à expérimenter l’intelligence artificielle, cette déconvenue illustre les limites et les dangers liés à l’utilisation de l’IA. De nombreux secteurs sont concernés par la problématique des « hallucinations » des IA. Aux Etats-Unis, la présentatrice d’un JT sur une chaîne de grande écoute avait diffusé une information créée de toute pièce par une intelligence artificielle et s’était défendue de cette fake news en rejetant la faute sur ChatGPT.

  • Un rapport commandé à Deloitte Australia, généré partiellement par une IA, s’est révélé truffé de citations inventées et de faux documents.
  • Deloitte a été obligé de rembourser une partie de son contrat au gouvernement australien, face à la gravité de la falsification.
  • Ce scandale met en lumière une fois de plus les limites de l’intelligence artificielle ainsi que la nécessité d’encadrer son usage en entreprise.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.