La Agencia Española de Protección de Datos (AEPD) acaba de publicar una guía sobre el uso de imágenes de terceros en sistemas de inteligencia artificial y sus riesgos visibles e invisibles.
Una imagen (ya sea una fotografía o un vídeo) en el que una persona es identificada o identificable constituye un dato personal. Una persona puede ser identificable o reconocida por su rostro, voz, cuerpo, gestos, vestimenta, tatuajes, entorno o relaciones, o por la combinación de varios de estos elementos, aunque la imagen inicial se haya alterado. No es necesario que aparezca su nombre para que exista tratamiento de datos personales si se puede identificar a la persona, aunque solo sea en el contexto en el que se difunde la imagen. Esto es así tanto si la imagen es una fotografía o vídeo real como si es generado o modificado mediante sistemas de IA.
Subir, reenviar a plataformas, redes o sistemas de IA, transformar o generar contenidos visuales a partir de la imagen de una persona supone un tratamiento de datos personales, con independencia de la finalidad perseguida o del carácter aparentemente trivial del uso. Además, en la mayoría de los casos, supone utilizar la imagen de una persona sin su conocimiento para que sea tratada por un servicio de Internet, tanto para la generación de nuevo contenido, como para potenciales tratamientos adicionales de la propia plataforma, ya se trate de aprendizaje, conservación o comunicación a terceros. Y todo ello tendría lugar sin conocimiento de la persona afectada cuya imagen o vídeo se ha generado.
Cada día es más común el uso irreflexivo de herramientas de inteligencia artificial para generar o modificar imágenes o vídeos en muchos casos considerados banales o lúdicos (filtros, avatares, caricaturas, animaciones, “ponlo en otra escena”, etc.) En ocasiones los vídeos o imágenes generados no se difunden, pero en otras sí, e incluso de manera masiva. En todos los casos estas prácticas pueden generar impactos y riesgos relevantes, tanto visibles como no visibles en primera instancia. De un lado, cabe distinguir el impacto visible, esto es, lo que otras personas pueden ver, interpretar o difundir cuando una imagen o un vídeo generado con IA se comparte. Por otro lado, el impacto que estas acciones pueden tener pero que no están a la vista, en otras palabras, lo que ocurre por el simple hecho de subir una imagen o un vídeo a un sistema de IA, aunque el resultado no llegue a publicarse ni a compartirse posteriormente.
Esta guía recoge aspectos como la sexualización y el contenido íntimo sintético, o la utilización de contenidos que afectan a menores de edad o personas en situación de especial vulnerabilidad, entre otras situaciones. También aborda los riesgos menos visibles, aquellos que se producen por el mero hecho de subir una imagen o un vídeo a un sistema de IA, aunque el resultado no se publique. La Agencia añade que algunas conductas pueden afectar a derechos como el honor, la intimidad o la propia imagen y que, en caso de indicios claros de delito, la actuación correspondería a las autoridades policiales, la Fiscalía y, en su caso, los órganos judiciales
Véase la Guía [aquí]

No hay comentarios:
Publicar un comentario
Los comentarios son responsabilidad exclusiva de su autor. Se reserva el derecho de eliminar cualquier comentario contrario a las leyes o a las normas mínima de convivencia y buena educación.