El auge de la inteligencia artificial es innegable. En prácticamente todos los sectores y ámbitos existen avances con nuevos modelos de Deep learning, algoritmos de IA y todas las variantes posibles. Medicina y salud, vehículos autónomos, asistentes por voz, atención al cliente, videojuegos,… La lista es interminable y la última tendencia en sumarse han sido los vídeos deepfake.
Pero no solo hemos de hablar de aplicaciones beneficiosas para la sociedad, porque los ciberdelincuentes también están invirtiendo recursos y talento para desarrollar herramientas cada vez más efectivas a la hora de atacar empresas, recursos o infraestructuras críticas. Por otro lado, una tendencia en auge es la de los vídeos deepfake, que describiremos en este artículo, y que suponen una vuelta de tuerca a las fake news, las noticias falsas que, estas sí, arrasan en Internet.
Hay que decir que los vídeos deepfake, antes de explicar exactamente qué son, no son exclusivos de ciberdelincuentes. Es más, muchos de ellos, y los más peligrosos, pueden ser utilizados por agencias de medios, incluso por gobiernos, con la intención de moldear la realidad a sus propios intereses. Un vídeo deepfake es, ni más ni menos, un vídeo falso manipulado. “Deep” viene de Deep learning, ya que este tipo de manipulación se realiza por medio de modelos Deep learning capaces de conseguir niveles de realidad asombrosos.
Con respecto a esto, hay una noticia buena y otra mala. La buena es que se puede detectar un vídeo falso; la mala es que cada vez es más difícil.
Los vídeos #deepfake se realizan por medio de modelos #deeplearning capaces de conseguir niveles de realidad asombrosos Share on XVídeos deepfake, ¿cómo los hacen?
Sin querer plantear ahora un tutorial de creación de vídeos falsos, ni entrar en detalle en las técnicas utilizadas (algo que se puede ver en este extensísimo artículo técnico, en inglés), lo cierto es que es interesante entender, de manera sencilla, cómo es posible hacer este tipo de falsificaciones. La manera más sencilla de hacer un vídeo falso es mediante el uso de una aplicación como Fake App.
El problema es que será un vídeo de mala calidad y fácilmente detectable como falso. Crear un vídeo falso difícil de detectar requiere una enorme cantidad de recursos, mucho dinero y medios.
La idea básica del deepfake es transferir una cara en otra dentro de un vídeo (un ejemplo divertido es el de los vídeos que introducen a Nicolas Cage en un montón de películas). Para hacerlo bien es necesario disponer de centenares o miles de imágenes de cada persona: la original en el vídeo, y la del rostro que se quiere transferir. Cuantas más, mejor. Ambos conjuntos de imágenes servirán para entrenar al modelo de Deep learning que se encargará de los detalles. Se utiliza una red neuronal convolucional, muy indicada para procesar imágenes y utilizada en sistemas de visión artificial.
Sin entrar en detalles, las imágenes se procesan de manera que el sistema sea capaz de extraer las características más importantes para recrear la entrada original. Esto significa que aprenderá a reconocer las imágenes por un cierto número de características. Un ejemplo excelente para entender cómo funciona este sistema es el del testigo de un crimen y el encargado de hacer el retrato robot del asesino.
El testigo aporta una descripción basada en características específicas, que el dibujante convierte en una imagen real, que se suele asemejar mucho a la persona sobre la que se realiza la búsqueda. Esto, como podemos imaginar, es simplificar demasiado, pero lo cierto es que existen vídeos asombrosamente elaborados que nos pueden complicar la existencia a la hora de determinar si son, o no, reales.
Existen muchas otras cosas para tener en cuenta, como la sincronía labial para conseguir poner en boca de una persona palabras que jamás ha dicho. Para ver un ejemplo gráfico de cómo de avanzada está la técnica (e imaginarnos a dónde puede llegar), os dejamos con un vídeo en el que su autor quería alertar de los peligros de los deepfakes.
Deja tu comentario sobre "Vídeos deepfake, la nueva amenaza cada vez más difícil de detectar"