En el marco del desafío organizado por la Agencia de Innovación de Defensa francesa (AID), que coincidirá con la Cyber
En el marco del desafío organizado por la Agencia de Innovación de Defensa francesa (AID), que coincidirá con la Cyber Week, los equipos de Thales han desarrollado con éxito un metamodelo para detectar imágenes generadas por IA. A medida que el uso de las tecnologías de IA gana terreno, y en una época en que la desinformación es cada vez más frecuente en los medios de comunicación y afecta a todos los sectores de la economía, este metamodelo de detección de «deepfakes» puede ayudar a combatir la manipulación de imágenes en una gran variedad de casos de uso, como la lucha contra la suplantación de identidad.
Las imágenes generadas por IA se crean mediante plataformas de IA como Midjourney, Dall-E y Firefly. Se han realizado estudios que demuestran que dentro de unos años el uso de «deepfakes» para el robo y la suplantación de identidad podría causar enormes pérdidas financieras. Gartner estima que es muy probable que en alrededor del 20 % de los ciberataques que se produjeron en 2023 se haya utilizado contenido «deepfake» en distintas campañas de desinformación y manipulación. El informe de Gartner 1 destaca el creciente uso de «deepfakes» en el contexto de fraudes financieros y ataques de phishing sofisticados.
“El metamodelo de detección de «deepfakes» de Thales aborda el problema de la suplantación de identidad y las técnicas de «morphing»“ 2 dijo Christophe Meyer, experto sénior en IA y director de tecnología de cortAIx, el acelerador de IA de Thales. “Valernos de conjuntos de métodos que utilizan redes neuronales, detección de ruido y análisis de frecuencias espaciales nos ayuda a mejorar la protección del creciente número de soluciones que requieren de verificación de identidad biométrica. Se trata de un avance tecnológico notable que evidencia la gran experiencia de los investigadores de IA de Thales“.
El metamodelo de Thales utiliza técnicas de aprendizaje automático, árboles de decisión y evaluaciones de las fortalezas y debilidades de cada modelo para analizar la autenticidad de las imágenes. El metamodelo combina varios modelos, entre los que se incluyen:
- El método CLIP (Contrastive Language-Image Pre-training), que consiste en conectar la imagen y el texto mediante el aprendizaje de representaciones comunes. Para detectar «deepfakes», el método CLIP analiza imágenes y las compara con sus descripciones textuales para identificar incoherencias y artefactos visuales.
- El método DNF (Diffusion Noise Feature), que utiliza sistemas de generación de imágenes (llamados modelos de difusión) para detectar «deepfakes». Los modelos de difusión funcionan en función de la estimación de la cantidad de ruido que debe añadirse a una imagen para provocar una «alucinación», que crea contenido de la nada. Esta estimación, a su vez, se puede utilizar para detectar si una imagen ha sido generada mediante IA.
- El método DCT (Discrete Cosine Transform) de detección de «deepfakes», que analiza las frecuencias espaciales de una imagen para detectar artefactos ocultos. Al transformar una imagen del dominio espacial (píxeles) al dominio de la frecuencia, el método DCT puede detectar anomalías sutiles en la estructura de la imagen, que se producen cuando se generan las «deepfakes» y que, a menudo, son invisibles a simple vista.
El equipo de Thales que está detrás del desarrollo de este metamodelo forma parte de cortAIx, el acelerador de IA del Grupo, que cuenta con más de 600 investigadores e ingenieros de IA, 150 de los cuales se encuentran en el área de investigación y tecnología de Saclay, al sur de París, y trabajan en sistemas de misión crítica. El equipo de hackers éticos ha desarrollado un conjunto de herramientas llamado BattleBox con el propósito de evaluar la solidez de los sistemas basados en IA frente a los ataques diseñados para sacar provecho de los puntos débiles de los distintos modelos de IA (entre los que se incluyen los modelos de lenguaje de gran tamaño), como los ataques adversarios y los intentos de acceder a información sensible. Para contrarrestar estos ataques, el equipo se encarga de desarrollar medidas paliativas avanzadas, como el desaprendizaje, el aprendizaje unificado, las marcas de agua para los modelos y el fortalecimiento de los modelos.
En 2023, Thales demostró la experiencia de su equipo durante el desafío CAID (Conferencia sobre Inteligencia Artificial para la Defensa) organizado por la Dirección General de Armamento francesa (DGA), que consistía en el hallazgo de datos de entrenamiento de IA incluso después de que hayan sido borrados del sistema para proteger la confidencialidad.
Leave a Comment
Your email address will not be published. Required fields are marked with *