Garrigues Digital_

Innovación legal en la economía 4.0

 

Garrigues

ELIGE TU PAÍS / ESCOLHA O SEU PAÍS / CHOOSE YOUR COUNTRY / WYBIERZ SWÓJ KRAJ / 选择您的国家

El uso de la inteligencia artificial por la Administración Tributaria: ¿quién vigila a los vigilantes?

Gonzalo Rincón, socio de Tributario de Garrigues

 

Las autoridades tributarias, a la hora de hacer uso de herramientas de inteligencia artificial, deben respetar los derechos fundamentales de los ciudadanos y, en particular, los principios rectores de seguridad jurídica, proporcionalidad y no discriminación que ya son plenamente exigibles en la relación de los ciudadanos con el fisco.

La Administración Tributaria española es, desde hace años, una de las más avanzadas de nuestro entorno en el empleo de medios y sistemas informáticos para el control del adecuado cumplimiento de la normativa fiscal por parte de los contribuyentes.

Los datos con los que cuenta son ciertamente ingentes, fruto tanto de la información que proporcionan los propios contribuyentes a través de sus declaraciones tributarias periódicas e informativas -de manera telemática en la mayor parte de los casos- como de otras fuentes diferentes a las que tiene acceso (entre otras muchas, el Catastro Inmobiliario, los Registros Públicos, el Banco de España, la información proporcionada por otras administraciones tributarias, por las entidades financieras o empresas de suministros, registros de compraventa y matriculación de vehículos, ubicación de dispositivos electrónicos, usos de tarjetas de crédito, información publicada en redes sociales, etc.).  

De manera tradicional, la Agencia Tributaria ha utilizado esta información para el desarrollo de sus labores de gestión e inspección, modelizándola y clasificándola de manera automática a través de diferentes aplicaciones y sistemas informáticos muy avanzados, como ZÚJAR, TESEO, INEX, INTER, DÉDALO, PROMETEO o GENIO, entre otros. En términos generales, mediante estos sistemas informáticos la Administración Tributaria organizaba, cruzaba y modelizaba, de manera automática, toda la información disponible a los efectos de detectar posibles inconsistencias en las declaraciones de los contribuyentes y localizar, de esta forma, posibles incumplimientos o áreas de riesgos en la aplicación de la normativa tributaria.

No obstante, la lógica evolución de los sistemas de información en la lucha contra el fraude fiscal y la necesidad de mejorar su eficiencia y capacidad de control en un contexto de creciente complejidad y globalización de las relaciones económicas ha desembocado, cómo no, en el uso de la inteligencia artificial (IA) también por parte de la Administración Tributaria española (según el informe OECD Tax Administrations 2022: Comparative Information on OECD and other Advanced and Emerging Economies, el 70% de las autoridades tributarias de los 52 países de la OCDE incluidos en el informe están haciendo uso de la inteligencia artificial). Entre otras funciones, su uso puede contribuir al control del cumplimiento de la normativa fiscal por los contribuyentes, como expresamente se prevé en el Plan Estratégico de la Agencia Tributaria 2020-2023. Fruto de esta evolución es la creación, entre otros, del sistema HERMES que, partiendo de la información existente en las bases de datos de la Agencia Tributaria y otras fuentes de información, produce perfiles e informes estandarizados y automatizados de riesgos fiscales y permite a los órganos de gestión e inspección clasificar y seleccionar, de manera automática, a los contribuyentes que debe investigar. La aplicación de la inteligencia artificial en el ámbito tributario, así como en diferentes esferas de la sociedad y de la economía, plantea grandes oportunidades, pero también desafíos y riesgos, especialmente en lo que respecta a la protección de los derechos y garantías de los ciudadanos.

La Administración Tributaria no solo emplea ya los sistemas informáticos y tecnológicos de los que dispone para la selección, obtención y tratamiento automático de la información de los contribuyentes de manera reactiva en caso de un procedimiento de comprobación (iniciado aleatoriamente o mediante la detección de discrepancias concretas en las declaraciones del contribuyente de acuerdo con el filtrado de la información disponible), como ha venido sucediendo tradicionalmente hasta fechas recientes, sino que ahora es capaz de utilizar estos sistemas y bases de datos incluso también de manera prospectiva, esto es, para clasificar a los contribuyentes, usando sistemas de inteligencia artificial, en diferentes perfiles de riesgo fiscal (combinando, para ello, el enorme Big Data del que ya dispone con avanzados sistemas de machine learning, deep learning y procesamiento del lenguaje natural). De esta forma, a través de estos sistemas de análisis automático de información y el uso de la inteligencia artificial es posible, ya en la actualidad (y con mayor medida, lo será cada vez más en el futuro), clasificar automáticamente a los contribuyentes en diferentes perfiles según su nivel de riesgo, predecir cuál va a ser el grado de cumplimiento de sus obligaciones tributarias y, a la vez, incluso comprobar si sus predicciones se ajustan finalmente a la realidad de los hechos. Aunque con las correspondientes distancias, y a modo de broma, no puede uno dejar de acordarse de Tom Cruise en Minonity Report, aunque, en esta ocasión, luchando contra el fraude fiscal. Incluso, yendo más allá y aunque estamos lejos de que suceda, es posible imaginar en el futuro procedimientos de comprobación tributaria en los que su completa tramitación y resolución se lleve a cabo de manera automatizada, sin la intervención de funcionarios, por una máquina.

¿Dónde está el límite?

Sin perjuicio de que, a nuestro juicio, resulta justificada la utilización de estas nuevas tecnologías y sistemas para la necesaria lucha contra el fraude fiscal por parte de la Administración Tributaria, su empleo no deja de plantear determinadas controversias e interrogantes acerca de los posibles límites que necesariamente se deben fijar en su utilización. Todo ello, en aras, no solo de proteger los derechos y garantías generales que tienen los ciudadanos en sus relaciones con la Administración Pública, sino también de evitar las habituales disfunciones y/o sesgos en el funcionamiento de los sistemas de inteligencia artificial y a garantizar, en este ámbito específico, el principio de transparencia que debe predicarse, no solo de cualquier sistema de inteligencia artificial, en general, sino, especialmente, en las relaciones de los ciudadanos con las Administraciones públicas. En definitiva, la necesaria lucha contra el fraude fiscal no puede ser la excusa para cercenar los derechos y garantías de los ciudadanos sin ningún tipo de cautelas o restricciones, tampoco en lo que se refiere al uso de estos novedosos medios tecnológicos.

En efecto, la existencia de sesgos y la necesaria transparencia (y explicabilidad) son dos de los aspectos que se deben analizar cuando se implementa y se utiliza cualquier sistema de inteligencia artificial y que, especialmente en el ámbito tributario, deben ser abordados con rigor y responsabilidad:

  • Así, no es infrecuente que, como consecuencia del propio funcionamiento (incorrecto) del sistema de inteligencia artificial o de la fuente, etiquetado o tratamiento de los datos de los que se alimenta, los resultados obtenidos por el sistema de manera automática sean incorrectos, presenten determinadas inexactitudes y/o se vean condicionados (o sesgados) por aspectos tales como clase social, ideología política, edad, nivel de rentas, género, raza o nacionalidad, entre otros factores que se pueden considerar irrelevantes o injustificados (y que pueden vulnerar los principios de igualdad ante la ley y de no discriminación). En este sentido, el sistema de inteligencia artificial debe partir de datos veraces, completos y representativos de la realidad (y no dar lugar a sesgos o discriminaciones).
          
    De esta forma, y, por ejemplo, en el ámbito que ahora nos ocupa, entendemos que supondría una disfunción del sistema no deseable, en absoluto, por ejemplo, la apertura de determinados procedimientos de comprobación tributaria como consecuencia de la aplicación de sistemas de inteligencia artificial a contribuyentes atendiendo, entre otros, a parámetros como su género, ideología, nacionalidad o raza. De esta forma, los ciudadanos deberían contar con garantías que aseguraran que los sistemas de inteligencia artificial empleados por la Administración Tributaria no dan lugar a este tipo de sesgos indeseados (por ejemplo, filtrando, anonimizando y eliminando los sesgos en los datos previamente a su incorporación al sistema, aunque ello suponga sacrificar parcialmente la eficacia o exactitud de los resultados obtenidos), o que, en caso de producirse estos sesgos, sean objeto de corrección.
             
    En relación con lo anterior, y a título de ejemplo, se puede hacer referencia a la sanción impuesta por la autoridad de protección de datos neerlandesa a su Administración Tributaria y Aduanera (en el conocido como escándalo kinderopvangtoeslagaffaire) por no filtrar y eliminar de sus sistemas los datos sobre la doble nacionalidad de sus ciudadanos, lo que dio lugar al nacimiento de un sesgo en el sistema automático de asignación de determinadas ayudas por cuidado de hijos y que discriminaba a algunos ciudadanos frente a otros atendiendo, simplemente, a los datos sobre la “nacionalidad” de los solicitantes (sesgo que influía en la elaboración de los perfiles de riesgo los ciudadanos). De esta forma, un parámetro como el de la nacionalidad del solicitante perjudicaba injustificadamente y de forma automática el acceso a determinadas ayudas por parte de determinados ciudadanos (cuando el parámetro “nacionalidad” no era relevante para el acceso a estas ayudas desde un punto de vista legal ya que simplemente se exigía que el destinatario de las ayudas residiera legalmente en los Países Bajos). El modelo de inteligencia artificial, en definitiva, consideró como factor de riesgo no ser ciudadano holandés. Como consecuencia de la sanción, la Administración Tributaria y Aduanera neerlandesa eliminó de sus sistemas la información sobre la doble nacionalidad de sus ciudadanos.
  • Asimismo, resulta altamente deseable, en términos generales, que el funcionamiento de los sistemas de inteligencia artificial sea explicable y transparente, esto es, que sus resultados resulten razonables y puedan ser explicados, al menos, en cierto grado a los ciudadanos.
           
    De esta forma, en el ámbito tributario, este requisito nos llevaría a la necesidad de que las autoridades tributarias puedan explicar y motivar de manera comprensible a los contribuyentes el funcionamiento y los datos y criterios empleados por los sistemas de inteligencia artificial y, en concreto, las razones por los que se puede iniciar un procedimiento de comprobación tributaria, más allá de que así lo haya determinado de manera automática un determinado sistema de inteligencia artificial partiendo de parámetros o extrapolaciones generales o por la creación de perfiles generales de riesgo basados en la información existente en las bases de datos de la Administración Tributaria. 
              
    Llegados a este punto, en la actualidad cabe plantearse las siguientes cuestiones: ¿debe primar la lucha contra el fraude fiscal sobre los derechos de los contribuyentes?, ¿con qué limites?, ¿pueden tener acceso los ciudadanos, con esta finalidad, al funcionamiento de los sistemas de inteligencia artificial utilizados por la Administración Tributaria o a los datos de los que se alimenta estos sistemas?, ¿está justificado el inicio de un procedimiento de comprobación tributaria simplemente porque así lo haya determinado de manera automática un algoritmo de inteligencia artificial y sin que existan indicios concretos de fraude fiscal en el contribuyente?, ¿tienen derecho los ciudadanos a conocer la clasificación o perfil de riesgo que le asigna automáticamente un sistema de inteligencia artificial empleado por las autoridades tributarias? En definitiva, ¿qué protección tiene el ciudadano contra el uso inadecuado o preventivo de los perfiles de riesgo por parte de la Administración o por terceros?
             
    Lógicamente en estos momentos no es posible dar respuesta a todas las cuestiones anteriores, que deberán ser resueltas en el futuro por el legislador y la jurisprudencia. No obstante, a nuestro juicio, el uso de la inteligencia artificial por parte de la Administración Tributaria no puede abstraerse de la necesidad de proteger los derechos fundamentales de los ciudadanos y, en particular, debe respetar los principios rectores de seguridad jurídica, proporcionalidad y no discriminación que ya resultan plenamente exigibles en la relación de los ciudadanos con la Administración Tributaria.
                         
    En este sentido, y aunque no existe todavía, lógicamente, excesiva jurisprudencia sobre esta materia, es posible hacer referencia, en relación con lo anterior, a las sentencias del Tribunal Supremo de 1 de octubre de 2020 y 14 de octubre de 2022 (recursos de casación nº 2699/2019 y nº 3410/2020, respectivamente) en las que se señala que no puede servir de base, para autorizar la entrada y registro a la Administración Tributaria en un domicilio protegido los datos o informaciones generales o indefinidas procedentes de estadísticas, cálculos o de la comparación de la situación supuesta del titular del domicilio con la de otros contribuyentes indeterminados (o grupos de estos) o con la media de sectores de actividad, sin especificación detallada que así lo avale y sin que exista la adecuada transparencia sobre las fuentes empleadas para ello. Asimismo, el Alto Tribunal señala en estas sentencias que no procede la entrada en el domicilio del contribuyente con meramente fines prospectivos cuando los datos que utiliza la Administración Tributaria para justificarlo provienen de fuentes no publicadas, no transparentes o no contrastadas, lo que les priva de fiabilidad.
                 
    Asimismo, la necesaria transparencia de la Administración Tributaria frente a los ciudadanos en el funcionamiento de sus aplicaciones y sistemas informáticos ha sido expresamente reconocida por el Consejo de Transparencia y Buen Gobierno que, en su resolución 825/2019 ha reconocido el derecho de los contribuyentes a tener conocimiento sobre el funcionamiento de estas aplicaciones y sistemas informáticos, con los únicos límites que sean imprescindibles, como resulta razonable, para que no se vean perjudicadas sus funciones de vigilancia, inspección y control, el desarrollo de actuaciones de prevención, investigación y sanción de ilícitos.

Los principios y garantías anteriormente mencionados no son los únicos que se debe tener en cuenta en este ámbito, sino que lógicamente se deberán respetar otros, como los de prudencia o proporcionalidad (y, conforme a ella, evaluar y determinar el grado de injerencia que la utilización de estos sistemas de inteligencia artificial pueda causar a los derechos y garantías de los contribuyentes), así como respetar, en mayor o menor medida, dependiendo de los casos, la privacidad y seguridad de los ciudadanos.   

Posibles medidas para controlar un adecuado uso de la IA

En este sentido, si queremos que los ciudadanos confíen en el empleo de sistemas de inteligencia artificial por parte de las autoridades públicas y que dichos mecanismos cuenten con la necesaria aceptación, legitimidad y legalidad, se deberían promover, a nuestro juicio, medidas que fomenten su adecuado control social. De esta forma, consideramos que sería necesario, entre otras medidas, las siguientes:  

  • La publicación de los aspectos técnicos, los algoritmos y los datos empleados por estos sistemas de inteligencia artificial para la toma de sus decisiones (con las lógicas restricciones imprescindibles para asegurar su eficacia como mecanismo para la lucha contra el fraude fiscal) y la instauración de medidas de auditoría, supervisión y rendición de cuentas por la propia Administración Tributaria que aseguraran su adecuado funcionamiento.  
  • La creación de un marco normativo y ético específico acerca de la utilización de la inteligencia artificial por parte de la Administración Tributaria que proteja los derechos y garantías de los contribuyentes (seguridad jurídica, protección de datos, privacidad, derechos fundamentales, no discriminación, etc.). Sería deseable que dicho marco normativo y ético fuera homogéneo en los países de la OCDE y la Unión Europea.
  • La exigencia de supervisión de los sistemas de inteligencia artificial por parte de las autoridades tributarias, junto con expertos multidisciplinares en la materia, para garantizar que las decisiones automatizadas que se deriven del empleo de estos sistemas estén adecuadamente motivadas y sean explicables y fiscalizables por parte de los ciudadanos afectados y, en su caso, por los órganos judiciales correspondientes (tal y como sucede con cualquier acto administrativo).   
  • La utilización de estos sistemas con la correspondiente transparencia, proporcionalidad y seguridad, evitando injerencias innecesarias o desproporcionadas de la Administración y/o terceros en el ámbito más personal de los ciudadanos;
  • Asegurar la adaptación de los sistemas de inteligencia artificial utilizados por la Administración Tributaria a la evolución del estado de la tecnología en cada momento, así como la corrección de sus posibles errores, y garantizar la consistencia, seguridad y calidad de sus resultados.

En definitiva, a nuestro juicio, debe aplaudirse la utilización de los sistemas de inteligencia artificial por parte de las autoridades tributarias en la necesaria lucha contra el fraude fiscal. No obstante, su funcionamiento se debe realiza de manera ética, transparente y sin sesgos o discriminaciones y garantizando en todo momento el respeto de los derechos y garantías tributarias de los contribuyentes. El camino para ello no ha hecho nada más que comenzar.