Hace pocos meses tratamos el tema de los vídeos «deepfake», una nueva tendencia relacionada con las fake news, entre otras cosas, y que consiste en vídeos modificados mediante algoritmos Deep learning, de manera que se sustituye la cara de alguna persona que salga en las imágenes por la de otra persona. Los algoritmos son capaces de imitar los movimientos faciales de la primera persona y emularlos en la «segunda cara».

En otras palabras, los vídeos deepfake (y otros medios como imágenes o grabaciones de voz) son material multimedia falsificado mediante complejos algoritmos Deep learning. Si bien las primeras «generaciones» de algoritmos eran reconocibles prácticamente a simple vista, los actuales están tan refinados que apenas nos es posible distinguir el engaño. Se hace necesario recurrir a la IA para combatir a la IA.

Esta tecnología de suplantación tiene tan solo dos años de vida, pero lo cierto es que el ritmo de evolución técnica de quien genera este tipo de multimedia falsificado es superior al ritmo con el que se desarrollan las soluciones de detección. Esto, ciertamente, es un problema.

Como ya discutimos, el problema no es la tecnología, sino el uso que se haga de ella. Desde la simple suplantación de identidad para poner en boca de un personaje influyente palabras que no se corresponden con sus ideales (es famoso el falso vídeo del expresidente de los Estados Unidos Barack Obama) hasta la «ingeniería de fake news», pasando por el fraude y otras muchas acciones malintencionadas.

¿Cómo se puede luchar contra los deepfakes?

La pregunta es, entonces, cómo podríamos detectar no solo los vídeos falsificados actuales, sino los próximos. La respuesta está en la inteligencia artificial, en el desarrollo de algoritmos de Deep learning capaces de detectar las irregularidades que nuestros limitados sentidos humanos no pueden detectar.

Esto debe hacerse mediante el adecuado entrenamiento de los algoritmos, alimentándolos con los vídeos falsos ya conocidos, e incorporando los nuevos a medida que salgan, de manera que los algoritmos aprendan continuamente las novedades introducidas en cada nueva generación «maliciosa».

La clave puede estar en utilizar métodos de detección forense, buscando rastros inequívocos del proceso de síntesis de los vídeos o de inconsistencias fisiológicas. Utilizar redes neuronales para que aprendan a detectar los patrones característicos de los deepfakes es otra vía que se va a seguir en este camino a contrarreloj.

Lo que podemos saber con certeza es que los desarrolladores encargados de crear nuevas maneras de refinar los vídeos deepfake siempre irán un paso por delante de los «detectores». La clave de todo esto será, como sucede en cualquier ámbito de la seguridad informática, en ser capaces de detectar las novedades a tiempo, y reaccionar en consecuencia.

Deja tu comentario sobre "A la caza del vídeo «deepfake»."

Nos encantará conocer tu opinión, pero primero tenemos que indicarte que los comentarios están moderados, y no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos a los autores, a cualquier otro comentarista o la empresa propietaria de esta página. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades o suplantando a otros comentaristas. También, procura que tus opiniones estén relacionadas con lo que se comenta en esta entrada. Los comentarios off-topic, promocionales, o que incumplan todas estas normas básicas serán eliminados.


Presto mi consentimiento para que, de acuerdo a la normativa europea de protección de datos, T-Systems ITC Iberia S.A.U trate mis datos personales con la finalidad de identificar al autor del comentario previo. Estos datos se pueden ceder a las empresas del grupo Deutsche Telekom AG. No está prevista la realización de transferencias a terceros. Puede ejercer sus derechos de acceso, rectificación, supresión, limitación, oposición y portabilidad de datos solicitándolo por escrito a: T-Systems ITC Iberia SAU, Carrer Pere IV, 313. 08020 Barcelona, o a través de correo electrónico a FMB.TS-IB-PROTEC-DATOS-PERSONALES@t-systems.com. A su vez, puede dirigir cualquier consulta al Delegado de Protección de Datos a la dirección indicada anteriormente con la finalidad de identificar el autor del comentario previo y gestionar su consulta si fuera el caso.