Colaboración entre Reino Unido y Microsoft
El Reino Unido ha anunciado este jueves una colaboración con Microsoft, diversas universidades y expertos en tecnología para avanzar en la creación de un sistema que identifique deepfakes en la red. Esta iniciativa forma parte de una estrategia más amplia diseñada para establecer estándares que contribuyan a combatir la creciente difusión de contenidos engañosos y potencialmente dañinos generados por la inteligencia artificial (IA).
Un desafío creciente
Aunque los contenidos manipulados han circulado en Internet durante años, la aparición de IA generativa desde la llegada de ChatGPT en 2022 ha intensificado las preocupaciones acerca del alcance y la calidad del realismo que los deepfakes pueden alcanzar actualmente.
El gobierno británico, liderado por el primer ministro Keir Starmer, que recientemente ha convertido en delito la creación de imágenes íntimas sin el consentimiento de las personas involucradas, ha confirmado su trabajo en un marco de evaluación que busca establecer criterios consistentes para analizar la eficacia de las herramientas de detección.
Impacto de los deepfakes
La ministra de Tecnología, Liz Kendall, afirmó en un comunicado: «Los deepfakes están siendo utilizados como arma por los delincuentes para defraudar al público, explotar a mujeres y niñas y socavar la confianza en lo que vemos y oímos».
Los deepfakes permiten crear contenido en video, imagen o audio con un nivel de realismo impresionante, a pesar de no ser eventos que hayan ocurrido.
Avanzando en la detección de contenido falso
Las autoridades han indicado que el proyecto tiene como objetivo investigar cómo se puede aplicar la tecnología para evaluar, comprender e identificar contenido perjudicial, independientemente de su origen. Para lograrlo, se someterán diferentes sistemas de detección a situaciones reales relacionadas con amenazas como el fraude, la suplantación de identidad y el abuso sexual.
Desde el gobierno británico se considera que esta metodología permitirá al gobierno y a las fuerzas de seguridad identificar lagunas en los mecanismos actuales de identificación y también ayudará a definir expectativas claras para la industria respecto a los estándares que estas soluciones deben cumplir.
Crecimiento alarmante de los deepfakes
Las cifras oficiales demuestran la rapidez con la que se está expandiendo este fenómeno: en el año 2025, se habrían compartido aproximadamente 8 millones de deepfakes, un aumento notable en comparación con los 500,000 registrados en 2023.
Esta iniciativa británica se desarrolla en un contexto internacional donde los reguladores intentan adaptarse a la rápida evolución de la IA. Este año, la urgencia ha aumentado tras revelarse que la IA de Elon Musk, Grok, generaba imágenes sexualizadas no consentidas de personas, incluidos menores.
Definición de deepfake
Los deepfakes son contenidos audiovisuales alterados mediante software de inteligencia artificial para parecer auténticos. Este tipo de contenido generalmente busca suplantar la identidad de alguien con el fin de difundir información falsa o engañosa. El término es una combinación de «fake» (falso) y «deep», refiriéndose al deep learning o aprendizaje profundo, una técnica de aprendizaje automático que permite a los sistemas analizar grandes volúmenes de datos para replicar patrones con alta precisión.
Si bien esta tecnología comenzó a desarrollarse a finales de los años 90, su fama pública creció en 2017. En los últimos años, especialmente tras el lanzamiento de ChatGPT, estas herramientas se han perfeccionado, permitiendo a los usuarios generar contenido realista sobre figuras públicas con gran facilidad. El alto grado de realismo de estos archivos se debe a la sofisticación de los programas que los producen. Dichas herramientas intentan imitar el funcionamiento de las redes neuronales y ciertos procesos del cerebro humano, lo que incrementa la probabilidad de que los usuarios perciban el contenido como verdadero, llevando a interpretaciones erróneas.











