Un avocat principal en Australie s’est excusé auprès de la Cour suprême de Victoria après avoir déposé des documents judiciaires dans une affaire de meurtre qui contenait de fausses citations, des lois compensées et des citations de cas inexistantes, toutes générées par l’intelligence artificielle.
L’avocat de la défense Rishi Nathwani KC a admis «ma pleine responsabilité» pour la erreur d’IA, ce qui a retardé une décision dans le cas d’un jeune de 16 ans de meurtre. L’adolescent, qui ne peut pas être identifié pour des raisons juridiques, a finalement été reconnu non coupable en raison d’une déficience mentale lors du meurtre en avril 2023 d’une femme de 41 ans à Abbotsford.
« Nous sommes profondément désolés et gênés pour ce qui s’est passé », a déclaré Nathwani à la juge James Elliott. Le juge, qui avait prévu de conclure l’affaire ce jour-là, a été contraint de reporter sa décision à 24 heures après avoir découvert les soumissions défectueuses.
« Au risque d’euphémisme, la manière dont ces événements se sont déroulés n’est pas satisfaisant », a déclaré Elliott le 14 août, révélant que les soumissions révisées contenaient toujours une législation fictive créée par l’IA. «L’utilisation de l’IA sans surveillance minutieuse de l’avocat minerait sérieusement la capacité de cette Cour à rendre justice.»
Les erreurs de l’IA provoquent le chaos dans l’affaire du meurtre en salle d’audience
Selon des documents judiciaires, Nathwani et l’avocat junior Amelia Beech n’avaient pas correctement examiné leurs documents avant de les soumettre.
Les erreurs générées par l’IA comprenaient: citant des jugements de cas qui n’existent pas, mal citer un discours parlementaire et référençant les lois qui n’ont jamais été adoptées.
Firefly AiLes procureurs, qui ont utilisé les soumissions de défense comme base pour les leurs, n’ont pas non plus vérifié les informations, ce qui a conduit les deux parties à présenter des arguments juridiques défectueux.
Le garçon, qui a affirmé que les procureurs avaient conspiré pour tuer la femme pour voler sa voiture et créer une «armée anti-communiste», a souffert de schizophrénie non traitée et de délires grandioses au moment de l’infraction. Il restera sous supervision dans un centre de justice pour les jeunes.
L’affaire s’ajoute à une liste croissante de erreurs juridiques liées à l’IA dans le monde entier, car les tribunaux sont aux prises avec le potentiel de la technologie et ses risques dans le système judiciaire.
Plus tôt en 2025, la tentative d’un homme d’utiliser un avatar de l’IA dans la Cour suprême de l’État de New York a rapidement mal tourné alors qu’un juge criait dans la salle d’audience pour éliminer la prise.



