La firma Deloitte reconoce fallos en un informe encargado por el gobierno australiano, elaborado presuntamente con inteligencia artificial, y devolverá una parte del pago de aproximadamente 285.000 euros.

El informe, encargado por el gobierno australiano y publicado en julio, fue producido en un período de siete meses y tenía como objetivo ofrecer análisis sobre diversos aspectos económicos y sociales del país.
Sin embargo, supuestamente, el documento contenía múltiples errores, incluyendo referencias a personas inexistentes y citas fabricadas, lo que ha puesto en entredicho la fiabilidad del trabajo.
Se presume que #Deloitte utilizó #tecnología de inteligencia artificial generativa, específicamente una plataforma basada en modelos de lenguaje como Azure OpenAI GPT-4, para facilitar la elaboración del informe.
La firma admitió que algunas notas al pie y referencias contenidas en el documento eran incorrectas, y que estas equivocaciones fueron identificadas por el académico australiano Chris Rudge, especialista en bienestar social.
Este hecho ha sido considerado un golpe para la reputación de Deloitte, que forma parte del grupo de las llamadas 'Big Four' junto a PwC, EY y KPMG, firmas que tradicionalmente se han destacado por su precisión y rigor en auditorías y consultorías.
El gobierno de Australia, liderado por el Primer Ministro Anthony Albanese, ha manifestado su intención de recuperar parte del dinero pagado. La firma ha acordado devolver la última cuota del contrato, que supuestamente representaba la mayor parte del pago total. La devolución, que se realiza en euros, equivale a unos 285.000 euros, tras la revisión y corrección del informe.
El error fue detectado cuando en agosto pasado
El error fue detectado cuando en agosto pasado, el medio australiano The Financial Review reportó varias inconsistencias en el documento, incluyendo citas a investigaciones y académicos que en realidad no existían, además de referencias a sentencias judiciales inventadas.
La publicación llevó a que en las semanas siguientes se publicara una versión corregida en el sitio web del Departamento de Empleo y Relaciones Laborales, que eliminó más de una docena de referencias falsas y corrigió numerosos errores tipográficos.
Supuestamente, la metodología utilizada para crear el informe involucró un sistema de inteligencia artificial basado en modelos de lenguaje, licenciado y alojado en la infraestructura de Azure de Microsoft, con el fin de acelerar la recopilación de datos y la generación de contenido.
Sin embargo, la presencia de errores ha abierto un debate sobre la fiabilidad del uso de #IA en procesos críticos y de alta responsabilidad.
Este incidente no es aislado. La historia de la inteligencia artificial en auditorías y análisis de datos ha estado marcada por avances rápidos y desafíos, especialmente en la verificación de la precisión de la información generada por estas tecnologías.
En el contexto global, firmas tecnológicas y consultoras están explorando cómo integrar de manera segura y efectiva las IA para mejorar sus servicios sin comprometer la calidad y la credibilidad.
En el pasado, firmas como Deloitte han liderado innovaciones en el uso de tecnología en auditorías y consultoría, pero este episodio evidencia la necesidad de establecer controles más estrictos y protocolos claros para evitar errores de esta magnitud en futuras colaboraciones con entidades gubernamentales y privadas.