Garrigues Digital_

Innovación legal en la economía 4.0

 

Garrigues

ELIGE TU PAÍS / ESCOLHA O SEU PAÍS / CHOOSE YOUR COUNTRY / WYBIERZ SWÓJ KRAJ / 选择您的国家

Inteligencia artificial (IA): así es la Propuesta de Directiva para adaptar las normas de responsabilidad extracontractual

Carolina Pina, socia del Departamento de Propiedad Industrial e Intelectual y coresponsable del área de Telecomunicaciones & Media de Garrigues.

La Comisión Europea ha presentado una nueva directiva para facilitar las reclamaciones de daños causados por los sistemas de IA.

La Propuesta de Directiva para adaptar las normas de responsabilidad extracontractual en la Inteligencia Artificial (AI Liability Directive) presentada el 28 de septiembre de 2022, establece nuevas reglas sobre la revelación de información y la reducción de la carga de la prueba en los procedimientos de reclamación de daños y perjuicios causados por los sistemas de IA.

El conocido como “black box effect” o la dificultad a la que se enfrentan los damnificados para probar el acto ilícito, así como la identificación del causante del daño, provoca, en muchos casos, la indefensión del perjudicado. Ante esta situación, la Comisión ha establecido una serie de medidas que favorecen la obtención de la prueba y la identificación de las personas potencialmente responsables. Además, introduce la llamada "presunción de causalidad" que pretende facilitar la prueba del nexo causal entre el daño y el hecho culposo generado por la IA.

Ámbito de aplicación

Se aplica a las demandas civiles en las que se ejercitan, con base en responsabilidad por culpa o negligencia, reclamaciones de daños y perjuicios causados por un sistema de IA. La propuesta de Directiva no se aplica en materia de responsabilidad penal, pero puede ser aplicable a la responsabilidad civil del Estado.

¿Cuáles son las principales novedades de la directiva?

  1. Establece que los tribunales podrán ordenar la revelación de pruebas relacionadas con el daño generado por sistemas de IA de alto riesgo (i.e. sistemas de identificación y categorización biométrica, selección de personal, control de fronteras, etc.).
                
    Esta obligación queda supeditada a que el demandante demuestre haber hecho esfuerzos proporcionados para obtener la prueba. Además, la información revelada será la estrictamente necesaria para demostrar el daño, pudiendo los tribunales tomar las medidas oportunas para proteger el secreto empresarial.
                 
    Las solicitudes de información deben estar respaldadas por hechos y pruebas suficientes para establecer la plausibilidad de la reclamación de daños y perjuicios.
  2. Establece una presunción ‘iuris tantum’ en aquellos casos en los que el demandante pruebe que el demandado es culpable del daño causado y parezca razonablemente probable que haya un nexo causal con el output generado por el sistema de la IA. Esta presunción solo aplica a:
  • Sistemas de alto riesgo cuando el tribunal considere que es excesivamente difícil para el demandante probar el nexo causal.
  • Sistemas que no sean de alto riesgo (i.e. chatbots), cuando no hay pruebas suficientes razonablemente accesibles para el demandante.
  • En caso de que el demandado utilice el sistema IA para actividades no   profesionales, cuando este haya interferido en su funcionamiento o cuando se niegue a explicar el funcionamiento del sistema.

Con esta propuesta la Comisión da un paso más en el desarrollo del paquete de medidas para el despliegue de la IA, en consonancia con el Libro Blanco de la IA, de 19 de febrero de 2020, y la Propuesta de Reglamento de Inteligencia Artificial, de 21 de abril de 2021.

Nos encontramos ante una propuesta que tiene un largo camino legislativo puesto que tiene que ser aprobada por el Parlamento Europeo y el Consejo. Una vez aprobada entrará en vigor veintiocho días después de ser publicada en el Diario Oficial de la Unión Europea y, a partir de ahí, deberá ser transpuesta por los Estados miembros en un plazo máximo de dos años.