Tags:

Hace unos años, los deepfakes —vídeos creados con inteligencia artificial (IA) que replican de forma altamente realista a personas conocidas— eran una curiosidad. Ahora, por el contrario, se han convertido en una amenaza potencial. El Foro Económico Mundial alertaba hace unos meses en un análisis de que en 2022 el 66% de los responsables de ciberseguridad corporativos ya habían tenido que enfrentarse a un deepfake y de que se espera que, para 2026, el 90% del contenido online pueda ser ya generado con inteligencia artificial.

Los deepfakes serán cada vez más habituales y afectarán ya no solo a personajes conocidos sino a personas normales y corrientes. Por ello, se convertirán en una amenaza al alza en ciberdelincuencia, uno que preocupa especialmente a la industria financiera.

En realidad, los deepfakes son uno de los muchos elementos de riesgo que genera la IA y que los ciberdelincuentes aprovechan para cometer toda clase de fraudes. Gartner calcula que, en 2028, los departamentos de marketing y ciberseguridad perderán el 10% de sus presupuestos, que se irán a luchar contra la desinformación y el fraude. En los últimos 20 años, las empresas financieras han perdido ya unos 12.000 millones de dólares de forma directa por culpa del cibercrimen. Las amenazas irán en aumento y se volverán más sofisticadas que nunca.

Pero lo cierto es que no solo los ciberdelincuentes usan la IA: en realidad, la inteligencia artificial es ahora más importante que nunca también para las empresas. La IA puede mejorar la ciberseguridad corporativa de forma significativa, adelantándose a las vulnerabilidades y creando bloqueos que pongan todavía más difíciles las cosas a los cacos de la red.

Cómo puede ayudar la IA frente al fraude

Para las empresas financieras, la inteligencia artificial puede resultar clave para prevenir y enfrentarse al fraude, como recuerda un análisis de los expertos de T-Systems. Lo hace posicionándose de forma sólida en tres áreas clave.

  • Análisis en tiempo real. Esto es, seguir qué está ocurriendo en el mismo momento que pasa y, con ello, ser capaz de tomar decisiones para atajar los problemas ya desde la raíz. Por ejemplo, la inteligencia artificial advierte del fraude cuando está empezando, porque lanza señales de alarma sobre cuestiones que le parecen poco normales. De este modo, abre la puerta a gestionar el problema antes de que se enquiste o de que sea demasiado costoso.
  • Reconocimiento de patrones. Como apuntan en el análisis los expertos de T-Systems, la IA ha conseguido automatizar el análisis de patrones. La inteligencia artificial es capaz de hacer un seguimiento automatizado de grandes cantidades de datos y de detectar patrones operativos de forma eficiente y rápida. Cuando estás intentando descubrir qué falla o detectar pistas de fraude, esto se convierte en muy valioso.
  • Aprendizaje adaptativo. Es la vía que permite ajustar a las necesidades de cada compañía el trabajo de la IA, lo que permite afinar mucho más en la prevención y solución de potenciales problemas. De hecho, no solo podría servir para detectar riesgos, sino también para muchas otras potenciales aplicaciones que requieren el seguimiento de grandes cantidades de datos.

Igualmente, y si se suma a otras herramientas tecnológicas, ayuda a afinar todavía más en cuestiones de seguridad y compliance. Por ejemplo, el uso de blockchain permite un mayor control de la privacidad y seguridad de los datos.

Invertir en estas áreas parece una buena decisión de negocio. Las compañías van a ampliar sus presupuestos en ciberseguridad en el futuro inmediato, pero tan importante como tener músculo de gasto es saber en quién se debe confiar. Hay que buscar aquellas soluciones que reducen los falsos positivos, que afina la diferencia entre lo que es y no legítimo o que garantiza una experiencia de cliente fluida. Es lo que hacen las soluciones de T-Systems.

Deja tu comentario sobre "Cómo la IA puede prevenir el fraude"

Nos encantará conocer tu opinión, pero primero tenemos que indicarte que los comentarios están moderados, y no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos a los autores, a cualquier otro comentarista o la empresa propietaria de esta página. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades o suplantando a otros comentaristas. También, procura que tus opiniones estén relacionadas con lo que se comenta en esta entrada. Los comentarios off-topic, promocionales, o que incumplan todas estas normas básicas serán eliminados.


Presto mi consentimiento para que, de acuerdo a la normativa europea de protección de datos, T-Systems ITC Iberia S.A.U trate mis datos personales con la finalidad de identificar al autor del comentario previo. Estos datos se pueden ceder a las empresas del grupo Deutsche Telekom AG. No está prevista la realización de transferencias a terceros. Puede ejercer sus derechos de acceso, rectificación, supresión, limitación, oposición y portabilidad de datos solicitándolo por escrito a: T-Systems ITC Iberia SAU, Carrer Pere IV, 313. 08020 Barcelona, o a través de correo electrónico a FMB.TS-IB-PROTEC-DATOS-PERSONALES@t-systems.com. A su vez, puede dirigir cualquier consulta al Delegado de Protección de Datos a la dirección indicada anteriormente con la finalidad de identificar el autor del comentario previo y gestionar su consulta si fuera el caso.