El auge de la inteligencia artificial es innegable. En prácticamente todos los sectores y ámbitos existen avances con nuevos modelos de Deep learning, algoritmos de IA y todas las variantes posibles. Medicina y salud, vehículos autónomos, asistentes por voz, atención al cliente, videojuegos,… La lista es interminable y la última tendencia en sumarse han sido los vídeos deepfake.

Pero no solo hemos de hablar de aplicaciones beneficiosas para la sociedad, porque los ciberdelincuentes también están invirtiendo recursos y talento para desarrollar herramientas cada vez más efectivas a la hora de atacar empresas, recursos o infraestructuras críticas. Por otro lado, una tendencia en auge es la de los vídeos deepfake, que describiremos en este artículo, y que suponen una vuelta de tuerca a las fake news, las noticias falsas que, estas sí, arrasan en Internet.

Hay que decir que los vídeos deepfake, antes de explicar exactamente qué son, no son exclusivos de ciberdelincuentes. Es más, muchos de ellos, y los más peligrosos, pueden ser utilizados por agencias de medios, incluso por gobiernos, con la intención de moldear la realidad a sus propios intereses. Un vídeo deepfake es, ni más ni menos, un vídeo falso manipulado. “Deep” viene de Deep learning, ya que este tipo de manipulación se realiza por medio de modelos Deep learning capaces de conseguir niveles de realidad asombrosos.

Con respecto a esto, hay una noticia buena y otra mala. La buena es que se puede detectar un vídeo falso; la mala es que cada vez es más difícil.

Los vídeos #deepfake se realizan por medio de modelos #deeplearning capaces de conseguir niveles de realidad asombrosos Clic para tuitear

Vídeos deepfake, ¿cómo los hacen?

Sin querer plantear ahora un tutorial de creación de vídeos falsos, ni entrar en detalle en las técnicas utilizadas (algo que se puede ver en este extensísimo artículo técnico, en inglés), lo cierto es que es interesante entender, de manera sencilla, cómo es posible hacer este tipo de falsificaciones. La manera más sencilla de hacer un vídeo falso es mediante el uso de una aplicación como Fake App.

El problema es que será un vídeo de mala calidad y fácilmente detectable como falso. Crear un vídeo falso difícil de detectar requiere una enorme cantidad de recursos, mucho dinero y medios.

La idea básica del deepfake es transferir una cara en otra dentro de un vídeo (un ejemplo divertido es el de los vídeos que introducen a Nicolas Cage en un montón de películas). Para hacerlo bien es necesario disponer de centenares o miles de imágenes de cada persona: la original en el vídeo, y la del rostro que se quiere transferir. Cuantas más, mejor. Ambos conjuntos de imágenes servirán para entrenar al modelo de Deep learning que se encargará de los detalles. Se utiliza una red neuronal convolucional, muy indicada para procesar imágenes y utilizada en sistemas de visión artificial.

Sin entrar en detalles, las imágenes se procesan de manera que el sistema sea capaz de extraer las características más importantes para recrear la entrada original. Esto significa que aprenderá a reconocer las imágenes por un cierto número de características. Un ejemplo excelente para entender cómo funciona este sistema es el del testigo de un crimen y el encargado de hacer el retrato robot del asesino.

El testigo aporta una descripción basada en características específicas, que el dibujante convierte en una imagen real, que se suele asemejar mucho a la persona sobre la que se realiza la búsqueda. Esto, como podemos imaginar, es simplificar demasiado, pero lo cierto es que existen vídeos asombrosamente elaborados que nos pueden complicar la existencia a la hora de determinar si son, o no, reales.

Existen muchas otras cosas para tener en cuenta, como la sincronía labial para conseguir poner en boca de una persona palabras que jamás ha dicho. Para ver un ejemplo gráfico de cómo de avanzada está la técnica (e imaginarnos a dónde puede llegar), os dejamos con un vídeo en el que su autor quería alertar de los peligros de los deepfakes.

Deja tu comentario sobre "Vídeos deepfake, la nueva amenaza cada vez más difícil de detectar"

Nos encantará conocer tu opinión, pero primero tenemos que indicarte que los comentarios están moderados, y no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos a los autores, a cualquier otro comentarista o la empresa propietaria de esta página. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades o suplantando a otros comentaristas. También, procura que tus opiniones estén relacionadas con lo que se comenta en esta entrada. Los comentarios off-topic, promocionales, o que incumplan todas estas normas básicas serán eliminados.


Presto mi consentimiento para que, de acuerdo a la normativa europea de protección de datos, T-Systems ITC Iberia S.A.U trate mis datos personales con la finalidad de identificar al autor del comentario previo. Estos datos se pueden ceder a las empresas del grupo Deutsche Telekom AG. Está prevista la realización de transferencias a Francia. Puede ejercer sus derechos de acceso, rectificación, supresión, limitación, oposición y portabilidad de datos solicitándolo por escrito a: T-Systems ITC Iberia SAU, Calle Sancho de Ávila, 110. 08018 Barcelona, o a través de correo electrónico a FMB.TS-IB-PROTEC-DATOS-PERSONALES@t-systems.com, adjuntando en todo caso un documento acreditativo de su identidad. A su vez, puede dirigir cualquier consulta al Delegado de Protección de Datos a la dirección indicada anteriormente.