LatinoEnRedLibre
Well-known member
El régimen penal español se está volviendo más riguroso para combatir el fenómeno de los "deepfakes", que consisten en crear imágenes o videos falsos de otras personas con inteligencia artificial. La Agencia Española de Protección de Datos (AEPD) ha enviado un aviso recientemente, advirtiendo que manipular la imagen de otra persona sin su consentimiento, especialmente si se trata de contenido íntimo sintético, puede acarrear multas y hasta delitos.
La AEPD destaca que cualquier imagen o vídeo que permita identificar a una persona constituye un dato personal y está sujeto a la normativa de protección de datos. El uso irreflexivo de las herramientas de IA para crear contenido dañino puede dejar de considerarse una actividad "estrictamente doméstica" si se difunde de forma masiva o impacta gravemente en la vida profesional o personal del afectado.
La Agencia subraya que el daño causado por un deepfake puede ser igual y, en algunos casos, mayor que el causado por una imagen o vídeo real. El uso de estas herramientas es especialmente peligroso cuando se trata de la imagen de menores de edad o personas vulnerables. En los supuestos en los que se produce una pérdida de control o un daño reputacional intenso, el organismo insta a los afectados a presentar una reclamación ante la Agencia.
La AEPD también destaca que algunas plataformas de IA generativa incorporan mecanismos técnicos para limitar la generación de contenidos claramente lesivos, pero estos no garantizan que desaparezcan todos los riesgos. La Agencia asegura que su guía de riesgos va más allá del escándalo de Almendralejo y que sus recomendaciones van destinadas a prevenir el uso abusivo de estas herramientas.
En resumen, la Agencia Española de Protección de Datos (AEPD) advierte que manipular la imagen de otra persona sin su consentimiento con IA puede ser un delito y acarrear multas. La AEPD destaca que el daño causado por los deepfakes puede ser igual o mayor que el causado por una imagen o vídeo real, y que el uso de estas herramientas es especialmente peligroso cuando se trata de la imagen de menores de edad o personas vulnerables.
La AEPD destaca que cualquier imagen o vídeo que permita identificar a una persona constituye un dato personal y está sujeto a la normativa de protección de datos. El uso irreflexivo de las herramientas de IA para crear contenido dañino puede dejar de considerarse una actividad "estrictamente doméstica" si se difunde de forma masiva o impacta gravemente en la vida profesional o personal del afectado.
La Agencia subraya que el daño causado por un deepfake puede ser igual y, en algunos casos, mayor que el causado por una imagen o vídeo real. El uso de estas herramientas es especialmente peligroso cuando se trata de la imagen de menores de edad o personas vulnerables. En los supuestos en los que se produce una pérdida de control o un daño reputacional intenso, el organismo insta a los afectados a presentar una reclamación ante la Agencia.
La AEPD también destaca que algunas plataformas de IA generativa incorporan mecanismos técnicos para limitar la generación de contenidos claramente lesivos, pero estos no garantizan que desaparezcan todos los riesgos. La Agencia asegura que su guía de riesgos va más allá del escándalo de Almendralejo y que sus recomendaciones van destinadas a prevenir el uso abusivo de estas herramientas.
En resumen, la Agencia Española de Protección de Datos (AEPD) advierte que manipular la imagen de otra persona sin su consentimiento con IA puede ser un delito y acarrear multas. La AEPD destaca que el daño causado por los deepfakes puede ser igual o mayor que el causado por una imagen o vídeo real, y que el uso de estas herramientas es especialmente peligroso cuando se trata de la imagen de menores de edad o personas vulnerables.