La democratización de la IA y el riesgo de los ‘deepfakes’ pornográficos
A medida que se desarrolla la IA, cada vez más gente tiene acceso a aplicaciones que utilizan fotos de personas reales en escenas de contenido pornográfico
La ley española tiene un vacío legal para este tipo de casos y distingue entre imágenes reales y realistas
Esta semana, la influencer Laura Escanes, denunciaba públicamente en su cuenta de Twitter que había encontrado fotos suyas editadas para parecer desnuda a partir de la IA: “El cuerpo de una mujer no se utiliza. Ni para el placer, ni para abusar ni para manipular”.
No es un caso individual, las aplicaciones que utilizan la IA para elaborar imágenes de desnudos y escenas eróticas con la cara de cualquier persona están proliferando e inundando las redes sociales.
Estas tecnologías generan imágenes eróticas realistas (que no reales). Las más extremas se publicitan con unas siglas que les confieren distinción sobre las demás: NSFW, un acrónimo de "Non suitable for work", o no conviene tenerlo abierto en situaciones como el puesto laboral.
Este tipo de aplicaciones, que suelen ser de pago y cuya cuota oscila entre los 40 y los 70 euros al año, no piden permisos de ninguna clase. El usuario malintencionado puede robar una foto de la cara de una persona en cualquier red social y, con ella, construir una imagen pornográfica con ese rostro, sin solicitar ningún tipo de consentimiento.
A este tipo de contenidos se les llama 'deepfakes', que procede de 'fake' (falso) y 'deep' (profundo), que es el conjunto de algoritmos de aprendizaje automático que utilizan las inteligencias artificiales. Desde la irrupción de las inteligencias artificiales en internet, se han visto algunos deepfake ya icónicos, como la foto del Papa Francisco vestido como un rapero de Philadelphia.
Las principales redes sociales como Instagram o Tiktok no están filtrando este tipo de anuncios y los muestran a poco que se azuce al algoritmo. Y Google ofrece casi 120 millones de resultados en la búsqueda con las palabras "Deepfake porn".
¿Podrían estar incurriendo en algún tipo de delito?
Borja Adsuara, abogado experto en Derecho Digital, ha explicado en El Periódico de España que “la cuestión es que estamos hablando de imágenes realistas, pero no reales. La ley hace esa diferenciación. Las primeras podrían pasar por reales porque están creadas por las IA. Las segundas sí que son fotos o vídeos que se tomaron en algún momento. Y curiosamente, la ley sí sanciona las imágenes realistas de índole sexual con menores. No hace falta que hayan sucedido. Con que se generen, ya serían delito”.
Pero, en el caso de los mayores, “no está contemplado. Y la solución sería aplicar la definición de ‘pseudopornografía infantil’ y aplicarla también a los adultos. Pero no se ha hecho de momento. Y todo esto que están generando las IA es algo que se tendrá que legislar”.
Delito contra la integridad moral
Si una persona se encuentra con la situación de que han difundido material sexual falso con su rostro (fotos o vídeos), podría perseguirse con el artículo 173.1 del Código Penal: “El que infligiera a otra persona un trato degradante, menoscabando gravemente su integridad moral, será castigado con la pena de prisión de seis meses a dos años”.
Aunque según el abogado, el mensaje de responsabilidad legal no calará hasta que vaya alguien a la cárcel por crear con Inteligencia Artificial y difundir imágenes sexuales falsas de otra persona, sin su consentimiento. “Será lo único que consiga disuadir al resto”, argumenta”.
{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{/text}} {{/kicker}} {{#title}} {{#text}}{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{/text}} {{/title}}{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{/text}} {{/kicker}} {{#title}} {{#text}}