Deepfakes: el uso violento de la inteligencia artificial
Recientemente, la artista española Rosalía se vio envuelta en una polémica en redes sociales, pues el reguetonero JC Reyes publicó en su Instagram un par de fotos de la cantante en las que lucía con los senos desnudos y la sexualizaba. Estas eran en realidad fotos que fueron modificadas con Photoshop, según el cantante.
JC Reyes, posterior al revuelo que causaron las fotografías, realizó un video en vivo en el que justificó su actuar, diciendo que no era para tanto, que “solo se le veía el escote” y que lo había hecho porque su próximo trabajo musical se llamará “Rosalía”. De esta manera, y cómo lo dijo la artista, usándola como estrategia de marketing.
Rosalía no dudó en manifestar su desacuerdo vía Twitter:
Ir a buscar clout faltando el respeto y sexualizando a alguien es un tipo d violencia y da asco pero hacerlo por 4 plays de + lo q da es pena
— R O S A L Í A (@rosalia) May 23, 2023
El cuerpo d una mujer n es propiedad pública, no es una mercancía xa tu estrategia d marketing. Esas fotos estaban editadas y creaste una falsa narrativa alrededor cuando ni t conozco. Existe algo llamado consentimiento y todos a los q os pareció gracioso o plausible espero de…
— R O S A L Í A (@rosalia) May 24, 2023
La autora de “Motomami”, en resumen, dice que buscar figurar o influir en redes faltando al respeto, por tener más reproducciones, aparte de violento le parece vergonzoso.
Y ciertamente, la publicación de fotografías íntimas sin consentimiento y el daño en la imagen de alguien, que ocasionan con contenido manipulado, son un problema. Los seguidores de Rosalía, quienes en un principio consideraron las fotos como deepfakes, la han intentado motivar a interponer la denuncia de manera formal en contra del reguetonero por vulnerar su imagen.
¿Qué son los deepfakes?
Este término se usa para referirse a las imágenes o videos que han sido alterados con inteligencias artificiales, las cuales tienen un aprendizaje automático y con ello capacidad de recrear imágenes o audios. La IA realiza su mejor esfuerzo para que este contenido se vea lo más creíble posible. Entre sus posibilidades ofrece reemplazar el rostro de una persona en una foto o video con el de otra, llegando a sincronizar las expresiones faciales.
Como hemos mencionado, las IA funcionan como una herramienta, y en este caso, se pueden usar en películas para reemplazar el rostro de alguien por el de un actor, o para hacer a alguien lucir más joven en una producción.
Por ejemplo, en el capítulo final de la serie The Mandalorian, donde con deepfake modificaron la cara de un doble para que se viera como Mark Hamill (Luke Skywalker) cuando era joven. También en la próxima entrega de Indiana Jones, Harrison Ford volverá a verse como si tuviera 40 años menos, gracias a las nuevas tecnologías de CGI .
Sin embargo, al no haber una regulación con el uso de las IA, también son utilizadas para crear contenido engañoso y difundir noticias falsas, tal como le pasó a Rosalía, o al papa Francisco hace unos meses, donde con IA crearon unas imágenes que lo hacían lucir con un estilo diferente e incluso participando en fiestas.
Lo que es claro es que lo que le pasó a Rosalía es violencia digital, se publicó falso contenido íntimo sin su consentimiento y fue acosada en redes sociales. El acoso llegó incluso a su pareja, el también artista Rauw Alejandro; le enviaron en repetidas ocasiones las imágenes y le hacían comentarios abusivos sobre su novia.
Le puede interesar nuestra guía rápida para identificar imágenes hechas por IA
¿Por qué los deepfakes pueden ser violentos?
Cabe recordar que no todos los deepfakes son usados de manera violenta, pero debido a su capacidad para convertirse en instrumentos para difamar a una persona, algunos pueden serlo.
Incluso antes de ser compartidos en internet los deepfakes pueden ser una forma de violencia, cuando se usan para manipular.
Imaginen la situación: una persona con malas intenciones decide hacer un video alterado donde está otra persona aparentemente haciendo algo que la perjudica de alguna forma o la pone en una posición incómoda. Luego la primera persona decide amenazar, a la otra que “figura” en el video, con publicarlo si no hace lo que le pide.
Lo que termina convirtiéndose en un fomento de angustia para la otra persona que es afectada, siendo esto una forma de violencia psicológica.
Ahora, en cuanto a lo que ya se ha publicado en internet, una vez hecho público o compartido con un grupo de personas, es difícil, por no decir imposible, que esto desaparezca de la red; ya que siempre habrá alguien que lo haya guardado y esté dispuesto a subirlo de nuevo así su fuente lo haya eliminado.
Esto, precisamente, pasa a ser un problema cuando facilita que una persona sea acosada, a costa de una imagen falsa que se creó por una IA.
Se torna más grave cuando lo que se está difundiendo es contenido sexual. Al poner el rostro de alguien en un video para adultos (o como le pasó a Rosalía que modificaron una foto suya para que luzca como contenido explícito), empieza a ser incluso una violación a la privacidad de la persona.
Es contenido que cuenta como violencia sexual cuando no hay un consentimiento previo tanto para su realización como para su publicación, lo que sucede en la mayoría de los casos. Un estudio de Sensity IA, empresa que se dedica a rastrear videos falsos en internet, reveló que el 96 % de los videos deepfake en línea son pornografía no consensuada.
Es también violencia verbal por todas las palabras denigrantes que reciben las personas afectadas a causa de quienes lo toman como real, e incluso es violencia estructural cuando le sucede a mujeres. Violencia de género en la que los hombres, históricamente, se han sentido con algún tipo de derecho sobre los cuerpos de las mujeres en la mayoría de los casos.
El mismo estudio de Sensity IA indica que este fenómeno de pornografía deepfake afecta en su mayoría, por no decir que en su totalidad, a mujeres.
Estos casos se convierten nuevamente en un llamado a la regulación del uso de las IA. Es necesario que existan leyes en contra de este tipo de contenido cuando su uso no es autorizado por los implicados y que así mismo se ofrezca acompañamiento a las víctimas que se vean afectadas por este tipo de violencia. La lucha en contra de los deepfakes requiere también información de público conocimiento, pedagogía para crear conciencia y desarrollo de tecnologías que faciliten su detección.
Desde España y otros países ya se ha puesto el tema sobre la mesa. Hace algunas semanas Carme Artigas, secretaria de Estado para la Digitalización e Inteligencia Artificial en España, destacó la creación de la primera Agencia de Supervisión de la IA del mundo en Coruña, esta se dedica a promover el uso responsable, asesorar y supervisar estas tecnologías para proteger a los usuarios. Además, la secretaria mencionó que es necesario pasar los derechos existentes del diario vivir, al mundo digital para proteger la intimidad.
También resaltamos que la violencia no es solamente física y evidente, sino que también implica conductas de daño o control sobre una persona, que pueden dejar consecuencias duraderas en su salud mental. Nuevamente invitamos a que seamos críticos y escépticos con el contenido que circula en redes, el cual consumimos y difundimos.