Víctor Salgado: “As imaxes hiperrealistas creadas con IA abren unha brecha de privacidade"

mércores, 25 de febreiro do 2026 S. P.

O bufete galego Pintos & Salgado, especializado en todo tipo de cuestións xurídicas e legais arredor da Sociedade da Información, fai esta semana un chamamento a incrementar a resposta pública e privada ante os deepfakes, co obxectivo de ir máis alá de retirar contidos despois de estes circularen e traballar na prevención e no fomento da rastrexabilidade e da reparación efectiva, con especial protección para menores e vítimas.
Víctor Salgado, avogado e socio-director do despacho Pintos & Salgado, sinala neste artigo que “as imaxes hiperrealistas creadas con IA abren unha brecha de privacidade”.
E engade: “O risco xa non é só que se manipule unha imaxe: é que se fabrique unha realidade verosímil sobre unha persoa sen que o saiba, sen que o consinta e cun dano potencial inmediato para a súa dignidade, a súa reputación e a súa seguridade”.

O contexto

O bufete coruñés lembra que a creación de imaxes e vídeos hiperrealistas mediante intelixencia artificial xa é unha realidade e converteuse “nunha das fronteiras máis sensibles do debate dixital”. Indican que “cando unha tecnoloxía permite xerar representacións verosímiles de persoas doadas de identificar sen o seu coñecemento nin consentimento, o impacto transcende o tecnolóxico e alcanza de cheo á privacidade, a honra e a propia imaxe”.
Víctor Salgado recorda que esta preocupación cristalizou o 23 de febreiro na Declaración Conxunta sobre Imaxes xeradas por IA e a Protección da Privacidade impulsada no seo da Global Privacy Assembly e asinada por 61 autoridades de protección de datos e privacidade de todo o mundo, entre elas o Comité Europeo de Protección de Datos (EDPB) e varias autoridades de control españolas, que anunciou a súa adhesión á iniciativa.
O texto alerta de que a integración de ferramentas de xeración de imaxe e vídeo en plataformas masivas, como o recente caso de Grok en X/Twitter, está a facilitar contidos íntimos non consentidos, representacións difamatorias e outros materiais daniños, con grandes riscos para menores e colectivos vulnerables (ciberacoso, explotación ou chantaxe).

Un estándar global: salvagardas, transparencia e retirada efectiva

A declaración conxunta fixa expectativas concretas para as organizacións que desenvolven ou despregan sistemas deste tipo. Entre elas, o documento subliña catro piares: salvagardas robustas contra o uso indebido, transparencia significativa sobre capacidades e límites, mecanismos accesibles e rápidos de retirada de contido daniño e medidas reforzadas para a protección da infancia.
“Hai un cambio de escala”, explica Víctor Salgado, engadindo que se ben “antes falabamos de manipulación, hoxe falamos de producir unha proba visual que parece real. Se ese contido circula sen control, a lesión de dereitos é difícil de reparar, aínda que despois sexa retirado”.
O propio chamamento global insiste en que o progreso tecnolóxico non debe producirse á conta da privacidade, a dignidade e a seguridade, e anima ás empresas para incorporar salvagardas desde o deseño e a cooperar proactivamente cos reguladores, lembra Víctor Salgado.

España move ficha

O avogado coruñés salienta que neste contexto España anunciou unha iniciativa lexislativa que conecta de forma directa coa xeración de imaxes creadas con IA. O Goberno aprobou o Anteproxecto de Lei Orgánica de protección civil do dereito á honra, á intimidade persoal e familiar e á propia imaxe, co obxectivo de actualizar a norma de 1982 á realidade dixital. O texto incorpora expresamente como intromisión ilexítima a utilización ou difusión da imaxe ou a voz dunha persoa cando fose creada, simulada ou manipulada tecnoloxicamente para dotala dunha aparencia extremadamente realista, apuntando de cheo ao fenómeno das ultrasuplantacións e os deepfakes. “É un paso importante porque aterra o problema na tutela civil: non falamos só do penal ou do prohibido en abstracto, senón de ferramentas para cesar a intromisión, retirar contidos e reparar o dano”, sinala Salgado, salientando que “o anteproxecto tamén prevé reforzar as medidas cautelares, incluíndo a posibilidade de acordar xudicialmente a retirada de imaxes ou voces (reais ou simuladas) cando poidan afectar a honra, a intimidade ou a propia imaxe”. 
Desde Pintos & Salgado destacan que ambas as pezas (a declaración global apoiada polo EDPB e a reforma legal) apuntan na mesma dirección: se a IA permite fabricar verosimilitude, o Dereito debe garantir rastrexabilidade, consentimento e remedios rápidos. “As vítimas non poden cargar co peso de desmentir o que nunca aconteceu”, conclúe Salgado, apuntando tamén que “a resposta debe combinar obrigas para quen deseña e distribúe estas ferramentas, e unha tutela civil áxil que permita parar, retirar e reparar antes de que o dano sexa definitivo”.