La inteligencia artificial en la Administración Tributaria
Desde su entrada en funcionamiento el 1 de enero de 1992, la Agencia Estatal de Administración Tributaria (AEAT) ha desarrollado una ingente captación y procesamiento de datos de los contribuyentes, con el doble objetivo de elaborar estadísticas y de perseguir la defraudación tributaria
Fernando López Román
Responsable del Área Fiscal en PwC Región de Murcia
Miércoles, 13 de marzo 2024, 00:31
En la actualidad cuenta con más de 2.000 bases de datos procedentes de más de 70 fuentes, entre propias y ajenas. En conjunción con el desarrollo de la administración electrónica y la obligatoriedad para determinados obligados tributarios de relacionarse con la Administración por medios electrónicos, se ha incrementado tanto el volumen de dichos datos como la inmediatez en la captación de los mismos. Desde el 1 de enero de 2024, por ejemplo, se ha incorporado una nueva obligación de suministro de información por parte de las plataformas digitales.
Así la AEAT, mediante la utilización de sistemas informáticos como ZÚJAR, TESEO, INEX, INTER, entre otros, modelizan, filtran y clasifican esos datos de tal forma que detectan con facilidad incongruencias en lo declarado por los contribuyentes, y sirven de base para que tanto Gestión Tributaria como Inspección inicien los correspondientes procedimientos de comprobación.
Pero no sólo del 'big data' vive la Agencia Tributaria. Las herramientas de inteligencia artificial (IA) también se han convertido en los últimos tiempos en medios útiles para la detección de riesgos de incumplimientos fiscales. De hecho, la AEAT ha desarrollado en los últimos años una herramienta, denominada HERMES (como el dios griego de la prudencia y la habilidad social, entre otras atribuciones místicas), que supone un paso más, ya que se trata de un sistema que analiza el riesgo potencial o predictivo de los sujetos pasivos, y permite seleccionar las opciones de intervención, control, inspección... definiendo de este modo los perfiles para la selección de contribuyentes a investigar.
Ante la relevancia adquirida por el uso de la IA, el pasado 8 de diciembre las Instituciones Europeas llegaron a un acuerdo provisional sobre el texto de la Ley de Inteligencia Artificial con el objetivo de que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y valores de la Unión. Más recientemente, el pasado día 2 de febrero y a pesar de la existencia de algunos desacuerdos, se aprobó el texto del compromiso final de la citada Ley de IA por lo que su votación definitiva en la Eurocámara, prevista de los días 10 y 11 de abril, tiene visos de pasar el corte. Todo un hito a nivel mundial, por ser los primeros en diseñar una normativa que regule esta materia, que coloca a la protección de los Derechos Fundamentales en el eje sobre el que debe pivotar el uso de la IA en todo momento. Con todo, y sin restar importancia a los principios que dicho Reglamento europeo establezca con su aprobación definitiva, su entrada en vigor plena no se prevé que produzca antes de 2027.
Por tanto, con esta norma tanto el sector privado como el público, estarán obligados a llevar a cabo una mayor evaluación y control de riesgos, transparencia y responsabilidad en el uso de sistemas de IA que puedan afectar los derechos fundamentales y la seguridad de los ciudadanos.
En el caso concreto de la Administración Tributaria, esta deberá realizar y documentar un análisis en profundidad del riesgo que el uso de sistemas de IA pudiera suponer en los derechos fundamentales, que podría redundar en ciertas modificaciones o ajustes sobre los procedimientos actualmente empleados. Lógicamente deberán salvaguardarse los principios de proporcionalidad, seguridad jurídica, no discriminación y transparencia, protegiendo en todo momento los derechos y garantías de los contribuyentes, informando a éstos de las características de estas aplicaciones y sistemas informáticos utilizados para que puedan calibrar el correcto empleo de estas tecnologías.
Hasta la fecha y a falta de un desarrollo normativo claro y armonizado en el ámbito europeo, han sido los Tribunales los que han ido perfilando los límites en la utilización de esta tecnología por parte de las distintas administraciones. En el caso de España, el Tribunal Supremo en su Sentencia 1307/2022, declaró improcedente la autorización de entrada y registro de un domicilio protegido en base a informaciones meramente prospectivas, opacas o poco fiables en cuanto a su obtención. Muy en línea con lo calificado por el futuro Reglamento como conductas de alto riesgo, de hecho, las instituciones europeas han calificado de inaceptable el uso de la IA para efectuar una vigilancia policial predictiva para individuos salvo en casos muy puntuales y debidamente justificados.
El respeto a los derechos fundamentales se va a convertir en el epicentro de la materia, obligando a la Administración a revisar algunos procedimientos actuales que pudieran no comulgar con esta novedosa regulación.
A buen seguro, una vez despliegue todos sus efectos la norma, no va a estar exenta de conflictos y de tensiones en el mercado por las implicaciones competitivas que su aplicación previsiblemente va a provocar. No obstante, alguien tenía que dar el primer paso en esta materia y la UE, como casi siempre cuando de protección de derechos de la ciudadanía se trata, va a ser quien marque la pauta.
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.