El organismo que vela por la adecuada protección de los datos personales en España ha publicado este martes una nota informativa para detallar las implicaciones que tiene el uso de imágenes de terceros en sistemas de inteligencia artificial y los riesgos que comporta, incluso en contextos aparentemente triviales o lúdicos.
Madrid, España. - La Agencia Española de Protección de Datos (AEPD) ha alertado de los riesgos visibles e invisibles, incluso penales, que entraña la publicación de imágenes de terceros, tanto si son reales como si son generadas con sistemas de inteligencia artificial.
También ha advertido contra el uso irreflexivo de estas herramientas para generar o modificar fotos o vídeos que en muchos casos se consideran banales o lúdicos.
El organismo que vela por la adecuada protección de los datos personales en España ha publicado este martes una nota informativa para detallar las implicaciones que tiene el uso de imágenes de terceros en sistemas de inteligencia artificial y los riesgos que comporta, incluso en contextos aparentemente triviales o lúdicos.
El documento publicado por la AEPD presta una atención especial a situaciones de alto riesgo, como los desnudos, la sexualización y el contenido íntimo sintético -generado de forma artificial-, la erotización, la atribución de hechos no reales con efectos reputacionales, la descontextualización de las imágenes o la utilización de contenidos que afectan a menores de edad o a personas en situación de especial vulnerabilidad.
La publicación de la nota de Protección de Datos coincide con la proliferación durante las últimas semanas de imágenes modificadas y generadas con sistemas de inteligencia artificial, una tecnología que han utilizado miles de usuarios para "desnudar" y "sexualizar" digitalmente a miles de personas, sobre todo mujeres -entre ellas numerosas personas conocidas e incluso menores de edad-.
El escándalo por la modificación y la difusión de este tipo de imágenes ha afectado especialmente a Grok, el sistema de inteligencia artificial que utiliza la red social X, del empresario Elon Musk, que primero se sumó al escándalo mundial publicando una foto de sí mismo en bikini y después decidió limitar el uso de esa herramienta que permite editar las imágenes a los suscriptores de pago, lo cual ha sido considerado por muchos expertos como un parche y no ha frenado las investigaciones abiertas en varios países.
Protección de Datos ha aseverado que la imagen en la que una persona es identificable constituye un dato personal, aunque haya sido generada mediante sistemas de IA, y que subir, reenviar a plataformas o redes, transformar o generar contenidos visuales a partir de la imagen de una persona supone por lo tanto un tratamiento de datos personales.
En la mayoría de los casos supone además utilizar la imagen de una persona sin su conocimiento para que sea tratada por un servicio de internet, tanto para la generación de nuevo contenido, como para potenciales tratamientos adicionales de la propia plataforma, como el aprendizaje, la conservación o la comunicación a terceros, y todo ello sin conocimiento de la persona afectada cuya imagen o vídeo se ha generado.
Fotos que saltan de grupo hasta perder el control
Muchos sistemas de IA generativa ya incorporan mecanismos técnicos para limitar la generación de contenidos que son 'claramente lesivos', según la AEPD, que ha asegurado que para las personas afectadas el daño visible de esas manipulaciones puede ser incluso mayor que el de fotografías o vídeos reales.
Que una fotografía esté en un grupo de mensajería, en una red social o se hubiera enviado una vez no equivale a una autorización general para cargarla en herramientas de IA, para transformarla, para generar variantes o para difundir el resultado, ha aclarado este organismo, que ha incidido en que en las redes de mensajería por ejemplo el salto de un grupo a otro es un patrón típico de pérdida de control.
Muchos usos triviales, incluso humorísticos, de vídeos generados con IA, no tienen relevancia jurídica, pero la AEPD ha observado que el riesgo surge cuando los contenidos atribuyen a una persona hechos, conductas o escenas que en realidad no ocurrieron y que pueden resultar verosímiles, lo que puede afectar de una manera significativa a la reputación, a las relaciones personales o la posición social o profesional de una persona.
La nota revisa además muchos de los riesgos "invisibles", y entre ellos que al subir imágenes a un sistema de IA el contenido deja de estar bajo el control del usuario que ha subido la imagen y de la persona que aparece en ella y pasa a ser tratado por un tercero que decide cómo se procesa ese archivo, lo que implica una pérdida real de control sobre dónde está esa imagen.
La Agencia ha alertado además que en algunos casos se pueden ver afectados otros derechos fundamentales, como el honor, la intimidad o la propia imagen, y que por lo tanto se pueden aplicar otras normas del ordenamiento jurídico, incluido el Código Penal, y ha asegurado que en caso de indicios claros de delito, la actuación correspondería a las autoridades policiales, a la Fiscalía o a los órganos judiciales, que son los competentes para la investigación y persecución penal de estos hechos.