
Es más fácil que nunca manipular el material de video para engañar al espectador, lo que dificulta cada vez más a los verificadores de hechos detectar tales manipulaciones. Científicos de la Universidad de Cornell han desarrollado una nueva herramienta en esta lucha continua: un software que codifica una “marca de agua” en las fluctuaciones de luz, lo que puede revelar cuándo se ha alterado el material. Los investigadores presentaron este avance el fin de semana en SIGGRAPH 2025 en Vancouver, Columbia Británica, y publicaron un artículo científico en junio en la revista ACM Transactions on Graphics.
“El video solía ser tratado como una fuente de verdad, pero esa ya no es una suposición que podamos hacer”, dijo el coautor Abe Davis, de la Universidad de Cornell, quien concibió la idea. “Ahora puedes crear prácticamente cualquier video que desees. Eso puede ser divertido, pero también problemático, porque es cada vez más difícil saber qué es real.”
Según los autores, quienes buscan engañar con videos falsos tienen una ventaja fundamental: acceso igual a material de video auténtico, así como la disponibilidad de herramientas de edición avanzadas y de bajo costo que pueden aprender rápidamente de grandes cantidades de datos, haciendo que las falsificaciones sean casi indistinguibles del video auténtico. Hasta ahora, el progreso en ese frente ha superado el desarrollo de nuevas técnicas forenses diseñadas para combatir el problema. Una característica clave es la asimetría de información: una técnica forense efectiva debe tener información no disponible para los falsificadores que no puede ser aprendida a partir de datos de entrenamiento disponibles públicamente.
Es cierto que existen técnicas de marca de agua digital que aprovechan bien la asimetría de información, pero los autores señalan que la mayoría de estas herramientas no cumplen con otros atributos deseados. Otros métodos pueden requerir control sobre la cámara de grabación o acceso al video original no manipulado. Y aunque un checksum, por ejemplo, puede determinar si un archivo de video ha sido cambiado, no puede diferenciar entre la compresión de video estándar o algo malicioso, como la inserción de objetos virtuales.
Ocultos en la luz
Anteriormente, el equipo de Cornell había descubierto cómo hacer pequeños cambios en píxeles específicos para determinar si un video había sido manipulado o creado por inteligencia artificial. Pero su éxito dependía de que el creador del video utilizara una cámara o modelo de IA específicos. Su nuevo método, “iluminación codificada por ruido” (NCI), aborda esas y otras deficiencias al ocultar marcas de agua en el ruido aparente de las fuentes de luz. Un pequeño software puede hacer esto para pantallas de computadora y ciertos tipos de iluminación de habitaciones, mientras que lámparas convencionales pueden ser codificadas a través de un pequeño chip de computadora adjunto.
“Cada marca de agua lleva una versión de video no manipulada con marca de tiempo de baja fidelidad bajo una iluminación ligeramente diferente. Llamamos a estos videos de código,” dijo Davis. “Cuando alguien manipula un video, las partes manipuladas comienzan a contradecir lo que vemos en estos videos de código, lo que nos permite ver dónde se hicieron los cambios. Y si alguien intenta generar un video falso con IA, los videos de código resultantes simplemente parecen variaciones aleatorias.” Dado que la marca de agua está diseñada para parecer ruido, es difícil de detectar sin conocer el código secreto.
El equipo de Cornell probó su método con una amplia gama de tipos de manipulación: cambios en cortes de distorsión, velocidad y aceleración, por ejemplo, y composiciones y deepfakes. Su técnica demostró ser robusta ante cosas como niveles de señal por debajo de la percepción humana, movimiento de sujetos y cámaras, destellos de cámara, sujetos humanos con diferentes tonos de piel, diferentes niveles de compresión de video, y entornos interiores y exteriores.
“Incluso si un adversario sabe que se está utilizando la técnica y de alguna manera descubre los códigos, su trabajo sigue siendo mucho más difícil,” dijo Davis. “En lugar de falsificar la luz para un solo video, tienen que falsificar cada video de código por separado, y todas esas falsificaciones tienen que coincidir entre sí.” Aun así, Davis añadió: “Este es un problema importante y en curso. No va a desaparecer, y de hecho, solo se volverá más difícil.”
ACM Transactions on Graphics, 2025. DOI: 10.1145/3742892 (Sobre los DOI).
Fuente original: ver aquí
