Los ves y lo crees: los riesgos del deep fake
4 minutos de lecturaLa generación de videos mediante la animación de imágenes tiene aplicaciones loables. Un ejemplo es la creación de escenas peligrosas de película que, de otra forma, solo se hubieran podido hacer con ayuda de un doble. Sin embargo, esta tecnología también tiene una cara oscura, de falsificación y calumnia, que se asoma seguido en las redes sociales: el modelo deep fake.
“La animación de imágenes se refiere a la tarea de sintetizar videos automáticamente combinando la apariencia extraída de una imagen de origen con patrones de movimiento derivados de un video de conducción. Por ejemplo, una imagen de la cara de una determinada persona se puede animar siguiendo las expresiones faciales de otra persona”, se lee en First Order Motion Model for Image Animation, investigación de Aliaksandr Siarohin, publicada en 2020 en la página de Cornell University.
Con esta tecnología, actualmente ya se fabrican videos en que pareciera que las personas dicen palabras que en realidad no dicen. Esto es peligroso sobre todo si el recurso se utiliza para falsificar discursos de líderes políticos. El resultado: la generación deliberada de una distorsión en la opinión pública.
Los riesgos del deep fake
En un video que circula en redes sociales, se observa cómo, de acuerdo con lo dicho en el estudio de Siarohin, los movimientos faciales de una persona pueden replicarse en videos de políticos como Vladimir Putin o Donald Trump, quienes pareciera que expresan lo que en realidad nunca han pronunciado. Es un efecto desconcertante y perturbador, como el de un titiritero maligno que controla los hilos de los personajes más influyentes del mundo.
Al respecto, Tec Review consultó a dos expertos quienes coinciden en que vivimos tiempos en que ya no basta ver para creer, sino que esto también hay que ponerlo en duda.
“Si se compara la fe, en el sentido de creer en lo que no se ve, con la creencia de algo que sí se ve, se concluye que actualmente la creencia ni siquiera está basada en lo que se ve o se oye (porque esto también aplica el audio), ahora se tiene que cuestionar todo, habilidad que tenemos que estar desarrollando, a esto justamente nos está llevando el abuso o mal uso de la tecnología”, platica Roberto Martínez, analista senior de seguridad en Kaspersky para Latinoamérica.
Este especialista agrega que hay que tener presente que nos ha tocado vivir en la época en que no somos simplemente ciudadanos, sino ciudadanos digitales con el deber de ser cuidadosos de lo que hacemos en nuestra vida digital.
Incluso con su grado alto de conocimiento en el tema, Roberto confiesa que hasta para él llega a resultar difícil distinguir a simple vista entre un video falso y otro verdadero, dado el gran avance tecnológico que se ha dado en este campo.
“Con las redes sociales esto se puede descontrolar, es un problema que puede afectar no solo a famosos, sino a cualquier persona, y desde el punto de vista legal no hay mucha legislación en el tema”, afirma Martínez.
No obstante, no todo es confusión y desconcierto. Desde un punto de vista forense digital, estos videos, también conocidos como deep fake, se pueden detectar con herramientas digitales especializadas.
“Al final, todo se trata de bits y bytes. Por ejemplo, si se ve una fotografía de un atardecer y de pronto se observa un patrón de bytes que cambia abruptamente, es posible darse cuenta de que hay algo raro en esa imagen. Lo mismo pasa con los deep fake, con un software especial puede determinarse si el video es falso, y esto ayuda mucho en los peritajes”, comenta Martínez.
Más sobre esta tecnología: Deep Nostalgia y la IA que revive tus fotografías
Un problema de tinte generacional
La probabilidad de que los discursos falsificados súbitamente desaten un conflicto mayúsculo no es tan alta, pero poco a poco, como las olas de mar que finalmente convierten las formaciones rocosas en arena, generan un ambiente que tiende a polarizar la sociedad en términos de percepción política, de acuerdo con Sergio Bárcena, profesor de la Escuela de Humanidades y Educación, del Tecnológico de Monterrey.
“Sirven para consolidar bases de apoyo”, afirma este académico, quien aconseja lo siguiente para tener un punto de vista equilibrado y objetivo sobre la situación política regional o mundial.
“Hay que complementar los medios tradicionales con redes sociales y, en redes sociales, seguir cuentas que estén tanto en pro y como en contra de la propia ideología. También conviene acceder a portales donde se haga revisión y curación de noticias falsas”.
Esta buena costumbre de cotejar la información recibida, no ha sido de siempre. Se percibe sobre todo que las personas nacidas entre 1946 y 1964 son más proclives a caer en los efectos de polarización generados por el deep fake y, en general, las noticias falsas.
“Quienes más recurrentemente comparten este tipo de contenido y lo creen como verdadero son las personas de generaciones anteriores, baby boomers, por ejemplo; ellos entraron tardíamente a la cultura de la información digital y les cuesta más trabajo distinguir entre información verdadera e información falsa”, dice este académico.
Esas generaciones anteriores estaban acostumbradas a asumir que si algo era publicado en un medio de comunicación, entonces tenía que ser verdad. Desafortunadamente, ya no es así.
Fuente: tecreview