¿Qué pasa cuando mi cara me deja de pertenecer? | ¡PACIFISTA!
¿Qué pasa cuando mi cara me deja de pertenecer? Imagen: Cristian Arias
Leer

¿Qué pasa cuando mi cara me deja de pertenecer?

Daniel Bello - septiembre 29, 2020

El Deepfake permite hacer videos en los que podemos sobreponer cualquier rostro sobre otro. Pese a que el panorama es preocupante, todavía es muy pronto para sacar conclusiones sobre cómo proceder ante esta tecnología.

Compartir

La tecnología del Deepfake permite editar videos falsos de otras personas para que estos se vean reales. Es decir, podemos sobreponer un rostro ajeno sobre el nuestro y así obtener un producto audiovisual realista con un resultado exitoso en la mayoría de los casos.

El Deepfake, que en español significa ‘Ultrafalso’, se hizo popular en el cine cuando los rasgos faciales de algunos actores se insertan en otros para completar las escenas que no se pudieron concretar. Casos conocidos son los de Paul Walker en la quinta entrega de la saga Rápido y Furioso; o Carrie Fisher en las últimas dos películas de Star Wars. Ambos actores murieron en medio del rodaje, por lo que se usaron dobles a los que les fueron insertadas digitalmente las facciones del rostro de los actores fallecidos.

Esta tecnología funciona con un algoritmo de objetivos antagónicos: el primer objetivo busca recopilar la información disponible de un rostro, como pueden ser fotos y videos; el segundo, procura detectar los contenidos falsos para perfeccionar la imagen y hacerla parecer realista. Con el banco de imágenes disponible en las redes sociales y la web es posible pretender ser un actor de televisión, un futbolista famoso o el presidente de un país. Es aquí donde empieza a dibujarse la preocupación que existe alrededor del Deepfake.

El avance exponencial de esta tecnología la volvió más accesible. Lo que hacían estudios de cine ahora está al alcance de cualquier persona, aunque con sus justas proporciones. Si bien los resultados pueden no tener la mejor calidad, es posible encontrar videos del expresidente Uribe cantando El Preso o una convincente imitación que el comediante Jordan Peele hizo de Obama, donde a medida que avanza la ‘alocución’ se revela que es falso.

 

 

El riesgo de la suplantación

El amplio registro gráfico de los rostros en internet convierte a las figuras públicas en las más vulnerables a la suplantación. Pero quienes están fuera de los fotos también puede ser víctimas. Cada día, millones de fotos son publicadas en las diferentes redes sociales que consumimos. Al hacerlo, mal que bien, le compartimos nuestro rostro al mundo.

Ante un panorama incierto, es sensato sentir la preocupación de ser suplantado. Hacer que alguien diga o haga cosas que no son ciertas, con el fin de desacreditarlo o que quede mal frente a la opinión pública, se convierte en un peligro latente. Por lo tanto, es válido preguntarse qué tan desprotegidos estamos y si es necesario usar las leyes para defendernos.

Juan Diego Castañeda de la Fundación Karisma, abogado que ha trabajado en temas de vigilancia de las comunicaciones y justicia social en relación con sistemas de datos, considera que desarrollar una ley al respecto puede demorarse, pues “estamos en una situación muy temprana con respecto al tema. Los problemas no son solamente de privacidad o de suplantación, sino que también es un problema de libertad de expresión”. Esto último surge desde las personas que consideran válido utilizar las fotos de alguna figura pública para hacer parodias o memes.

Los videos que usan el Deepfake contienen una recepción dividida. Para un político puede ser un atentado a su imagen y buen nombre, pero para quien la hizo puede representar una crítica o una caricaturización del poder que siempre es válida en una democracia. Para Castañeda, el riesgo de suplantación a una escala particular es lejano y agrega que el problema no es la tecnología ya que métodos más rudimentarios y rebuscados han servido para pretender ser alguien más.

 

Lo veo y sí lo creo

Otra preocupación que genera el Deepfake es la circulación de noticias falsas. Los medios en los que se pueden difundir contenidos malintencionados o desinformadores son incontables: desde una cadena enviada al grupo familiar en WhatsApp hasta una publicación con millones de reacciones en Instagram. Mark Zuckerberg, CEO de Facebook, dijo que el software de su red social no es capaz de identificar los vídeos hechos con Deepfake, aunque ofreció 10 millones de dólares para la persona que logre desarrollar un algoritmo que sí lo logre.

Para Pablo Medina, director de ColombiaCheck, una iniciativa de fact checking, tenemos muy pocas herramientas para descubrir contenido hecho con Deepfake. Además, mientras la tecnología para crearlos avanza, no existe financiación para desarrollar herramientas sofisticadas que logren detectar estos videos. Ante esto, Castañeda dice que más allá de saber si se trata de un contenidos hecho con deepfake o no, lo primordial es conocer qué intención hay detrás.

Con esto destaca el caso de la industria pornográfica, donde el rostro de celebridades se sobrepone en las escenas de sexo y esto puede ser usado para crear rumores, así como para extorsionar. El mercado de la pornografía representa cerca del 96 % del Deepfake. Por este motivo, en California (EE. UU.) se hizo una ley que permite demandar a todo aquel que difunda sin consentimiento videos pornográficos basados en esta tecnología.

La desinformación que puede traer consigo este tipo de videos genera preocupación, especialmente, en la esfera política. En China esta tecnología fue prohibida y en Estados Unidos lo será de cara a las elecciones, a excepción de las parodias. Aquí podemos ver dos panoramas: uno completamente restrictivo, donde sin importar el contenido se trata de algo ilegal; y otro donde lo importante es la intención con la que se utiliza la herramienta.

Por lo pronto la defensa más inmediata ante la desinformación es similar a la que se aconseja con las noticias con información dudosa: contrastar fuentes y pensarlo dos veces antes de difundir un contenido por más emocionante que este parezca.