Estás leyendo la publicación: Este enfoque de inteligencia artificial (IA) puede detectar videos falsos profundos de personas famosas que usan manierismos faciales, gestuales y vocales
Los recientes avances tecnológicos en inteligencia artificial (IA) pueden considerarse un arma de doble filo. Si bien la IA ha beneficiado a la humanidad de innumerables maneras al hacernos la vida mucho más fácil, ya sea mejorando la atención médica o brindando experiencias personalizadas y más interactivas, también tiene sus propios inconvenientes. Uno de esos efectos adversos de la IA es el aumento en la cantidad de medios falsos o generados sintéticamente. Deepfakes (derivados de una combinación de “aprendizaje profundo” y “falso”) son medios generados por IA en los que una persona en una imagen o video existente se reemplaza con la imagen de otra persona. Esto se hace mediante la utilización de técnicas sólidas de aprendizaje automático para producir contenido de audio y visual que puede engañar fácilmente a una audiencia general. Desde su introducción hace unos años, los deepfakes han mejorado mucho en calidad, sofisticación y facilidad de generación. Las técnicas más comunes basadas en el aprendizaje profundo para producir deepfakes implican el entrenamiento de diseños de redes neuronales generativas como codificadores automáticos o redes antagónicas generativas (GAN).
Deepfakes ha llamado mucho la atención debido a su potencial de uso en fraude a gran escala, pornografía no consentida y campañas de difamación. Cada vez es más difícil saber si un video es real a medida que la tecnología avanza día a día. Cuando examinamos cómo se pueden usar las falsificaciones profundas como arma contra los líderes mundiales durante las temporadas electorales o en tiempos de conflicto armado, su uso se vuelve más peligroso. Uno de esos casos ocurrió recientemente cuando los partidos rusos produjeron un video falso que pretendía mostrar a Volodymyr Zelenskyy, el presidente de Ucrania, diciendo cosas que en realidad no dijo. Según los informes, el video fue creado para ayudar al gobierno ruso a persuadir a su población para que crea en la propaganda estatal sobre la invasión de Ucrania.
Para proteger a los líderes mundiales contra las falsificaciones profundas, los investigadores del Johannes-Kepler-Gymnasium y la Universidad de California, Berkeley, crearon una aplicación de inteligencia artificial que puede determinar si el videoclip de una persona reconocida es auténtico o falso. Los investigadores entrenaron su sistema de inteligencia artificial para distinguir los movimientos corporales distintivos de personas específicas para determinar si un video era auténtico o no, como se describe en su artículo de investigación publicado en Proceedings of the National Academy of Sciences.
La pareja buscó una estrategia basada en la identidad en su sistema de inteligencia artificial recientemente desarrollado. Entrenaron su sistema con varias horas de secuencias de video reales para identificar rasgos visuales, gestuales y vocales específicos que pueden distinguir a un líder mundial de un imitador o un impostor falso. Los científicos también observaron que las personas tienen varias cualidades distintivas además de las marcas corporales o los rasgos faciales, una de las cuales es la forma en que se mueven. En el ejemplo de Zelenskyy, el presidente ucraniano tiende a levantar la mano izquierda mientras arquea la ceja derecha. Este tipo de datos fue esencial para programar el sistema de inteligencia artificial de aprendizaje profundo para estudiar los movimientos físicos del sujeto mediante el examen de numerosas grabaciones.
Se observó que el algoritmo se volvió más hábil con el tiempo para identificar actos que es poco probable que los humanos noten. La pareja evaluó su método examinando varios videos falsos junto con videos reales de varias personas. Los hallazgos finales fueron muy impresionantes, mostrando que su método fue 100% exitoso en distinguir entre videos auténticos y falsos. También logró establecer la falsedad del video de Zelenskyy.
Aunque el estudio del equipo se centra en gran medida en Zelenskyy, enfatizan que su metodología se puede aplicar para analizar cualquier figura de alto perfil para la que haya suficiente material de video original disponible. Los investigadores también declararon que no planean lanzar públicamente su clasificador para impedir los contraataques. Además, en un esfuerzo por combatir la desinformación alimentada por deepfakes, han puesto su clasificador a disposición de organizaciones gubernamentales y de noticias creíbles.