La mejora exponencial de los sistemas de inteligencia artificial (IA) para la generación de contenido audiovisual nos obliga a replantearnos los riesgos de la proliferación de los llamados ‘deepfakes’ o falsificaciones profundas. Se trata de contenidos sintéticos que, dada su elevada calidad, permiten generar situaciones o conversaciones que nunca existieron, haciéndonos dudar de lo que es o no real, al más puro estilo de Ridley Scott en ‘Blade Runner’. La Propuesta de Reglamento de Inteligencia Artificial que se está gestando en la Unión Europea se encarga de establecer obligaciones de transparencia, pero debemos estar preparados para actuar frente a los más que previsibles casos de incumplimiento.  

Existen muchas herramientas que permiten generar deepfakes con fines lícitos. En el sector audiovisual, por ejemplo, la tecnología empleada en la película de Martin Scorsese El irlandés (2019), permitió rejuvenecer a Robert De Niro, Al Pacino o Joe Pesci para poder interpretar, ellos mismos, a sus personajes sintéticos en los distintos flashbacks de la película. En España también hemos visto resucitar a Lola Flores para interpretar un anuncio para una conocida cervecera, como ya os contamos aquí. Sin embargo, el avance de esta tecnología y su popularización ha permitido su uso masivo para fines que no tienen nada que ver con el entretenimiento. Por ejemplo, la difusión de noticias falsas. Entre estas, las fotografías en las que supuestamente detenían a Donald Trump (link) o los vídeos en los que el presidente Zelenski animaba a las tropas ucranianas a rendirse (link).

En el sector legal, la posible manipulación también abre nuevas vías a la impugnación de la autenticidad de pruebas consistentes en fotografías, videos o grabaciones de audio. Podemos prever la necesidad de contar con peritos expertos capaces de determinar de forma concluyente si estamos o no ante un contenido manipulado en caso de que se impugne la validez de estos documentos y deba proponerse prueba acerca de su autenticidad. En Estados Unidos se está popularizando el término “the deepfake defense”, acuñado por Rebeca Delfino, profesora de Loyola Law School.

Además, los riesgos aumentan porque la posibilidad de crear contenidos sintéticos hiperrealistas ha llegado al consumidor final, y son muchas las aplicaciones que podemos descargar en un smartphone para editar fotografías o videos. Prueba de ello es que muchas redes sociales han implementado herramientas específicas para luchar contra los deepfakes, incluyendo Twitter o Facebook (aquí). TikTok acaba de modificar su política de moderación de contenidos añadiendo un nuevo apartado para medios sintéticos y manipulados (aquí). El objetivo es obligar a los creadores a etiquetar los contenidos sintéticos con leyendas que adviertan de que están generadas mediante IA (e.g., “sintético”, “falso”, “no real” o “alterado”).

La propuesta de Reglamento de Inteligencia Artificial

La propuesta del Reglamento de Inteligencia Artificial (Propuesta de RIA), del que ya hemos hablado aquí, se ocupa de las falsificaciones profundas desde varias perspectivas, incluyendo su uso por parte de particulares y de las autoridades públicas.

En lo relativo al uso de sistemas de IA capaces de generar falsificaciones profundas por parte de los usuarios, se imponen únicamente obligaciones de transparencia, al considerarse sistemas de IA de riesgo limitado. La propuesta de RIA define los deep fakes como “contenidos de audio, imagen o video manipulados o sintéticos que parezcan falsamente auténticos o veraces, y que incluyan representaciones de personas que parezcan decir o hacer cosas que no han dicho o hecho, producidos mediante técnicas de IA, incluidos el aprendizaje automático y el aprendizaje profundo”. En este contexto, se pide al usuario que haga público que el contenido es sintético, es decir, que ha sido generado de forma artificial o que está manipulado etiquetándolo de forma adecuada y visible (artículo 52.3 de la Propuesta de RIA). No obstante, se prevén excepciones a esta regla general:

  • Primero, cuando sea necesario para ejercitar las libertades de expresión y la libertad de las artes y de las ciencias tal y como garantiza la Carta de los Derechos Fundamentales de la Unión Europea. El texto nos proporciona ejemplos en los que podrían primar las libertades de expresión e información, como la existencia de contenidos claramente paródicos, artísticos, el uso en películas o videojuegos, etc. Aquí, es fácil prever la dificultad de implementar estas excepciones con la protección del derecho a la propia imagen de las personas físicas, que no está armonizado a nivel UE y que en España, por ejemplo, también se considera un derecho fundamental.
  • Cuando el uso esté legalmente previsto para fines de detección, prevención, investigación y enjuiciamiento de infracciones penales.

Además, la propuesta prevé que la información o etiquetado del uso de deep fakes tenga en cuenta también las necesidades especiales que puedan tener los menores o las personas discapacitadas.

La obligación es clara, pero de cara al cumplimiento proliferan las peticiones que abogan por la creación de estándares que permitan la identificación de ultrafakes en el caso de que los usuarios no cumplan con la obligación de identificar debidamente el contenido manipulado.

En relación con el uso de herramientas de detección de ‘falsificaciones’ profundas, por parte de las autoridades encargadas de aplicar la ley, y aunque la propuesta más reciente probada el 22 de mayo de 2023 elimina su inclusión directa en el listado de herramientas de alto riesgo, podemos considerar que, en determinados casos, estarían indirectamente incluidas en el artículo 6(d) del Anexo III de la Propuesta RIA como sistemas de IA destinados a ser utilizados por o en beneficio de las autoridades judiciales para evaluar la fiabilidad de las pruebas en el curso de investigaciones o la persecución de delitos. Esto implica que los sistemas de IA de alto riesgo deberán cumplir con los requisitos exigidos en el Capítulo II de la Propuesta de RIA, centrados principalmente en criterios de seguridad, transparencia y posibilidad de supervisión que deben cumplirse antes del lanzamiento al mercado. A modo de ejemplo, se exige la existencia de un sistema de gestión de riegos, el uso de modelos de datos de calidad que, por ejemplo, eviten sesgos o la implementación de funcionalidades que permitan a los usuarios interpretar correctamente los resultados de estas IA, o someterlas a vigilancia humana.

¿Dónde estamos?

Se prevé que el texto propuesto sea aprobado por el pleno del Parlamento Europeo en junio de 2023, aunque la velocidad con la que se suceden los cambios y la proliferación de nuevas herramientas no permite descartar retrasos.

Consideraciones finales

En lo relativo a la proliferación de falsificaciones profundas, es importante la educación de los usuarios y prestar atención a pequeños detalles que nos pueden servir de ayuda, como parpadeos más lentos de lo normal, rostros desproporcionadamente grandes o pequeños en relación con el cuerpo, sincronización del audio con el movimiento de los labios o movimientos y/o representaciones incorrectas del interior de la boca, una zona del cuerpo extremadamente complicada de simular.

En el caso de deep fakes de gran calidad puede ser necesario acudir a tecnología específica o incluso al uso de expertos. Como ya hemos apuntado, el impacto en los procesos judiciales penales y civiles puede ser considerable, al cuestionar la veracidad de fuentes que hasta ahora se consideraban sólidas, como la aportación de fotografías, videos o audios en los que se puede reconocer a las personas que, supuestamente, participaron en los hechos, la llamada “defensa de la falsificación profunda”. Aquí, el “supuestamente” cobra una nueva dimensión ya que ahora cabe la posibilidad de cuestionar si estamos ante una creación sintética de hechos que no son tal y como nos los presentan.

Cristina Mesa

Departamento de Propiedad Industrial e Intelectual