Tecnología

Las cartas deepfake realmente podrían arruinar tu sentido del mundo

Primerísimo primer plano de una hoja de ruta.
Agrandar / Una macro foto de la ciudad de Seattle, Washington en un mapa.

Las imágenes satelitales que muestran la expansión de grandes campos de internamiento en Xinjiang, China, entre 2016 y 2018 proporcionaron algunas de las pruebas más contundentes de la represión del gobierno contra más de un millón de musulmanes, lo que resultó en condenas y sanciones internacionales.

Otras fotos aéreas, por ejemplo, de instalaciones nucleares en Irán y emplazamientos de misiles en Corea del Norte, tuvieron un impacto similar en los eventos mundiales. Ahora, las herramientas de manipulación de imágenes habilitadas por la inteligencia artificial pueden dificultar la toma de tales imágenes al pie de la letra.

En un artículo publicado en línea el mes pasado, el profesor de la Universidad de Washington, Bo Zhao, utilizó técnicas de inteligencia artificial similares a las que se utilizan para crear deepfakes para alterar imágenes satelitales de varias ciudades. Zhao y sus colegas intercambiaron características entre imágenes de Seattle y Beijing para mostrar edificios donde no hay ninguno en Seattle y para eliminar estructuras y reemplazarlas con verde en Beijing.

Zhao usó un algoritmo llamado CycleGAN para manipular fotos satelitales. El algoritmo desarrollado por investigadores de UC Berkeley se usa ampliamente para todo tipo de trucos de imagen. Entrena una red neuronal artificial para reconocer las características más importantes de ciertas imágenes, como un estilo de pintura o las características de un determinado tipo de mapa. Luego, otro algoritmo ayuda a refinar el rendimiento del primero al tratar de detectar cuándo se ha manipulado una imagen.

Al igual que con los videoclips deepfake que pretenden mostrar a personas en situaciones comprometedoras, estas imágenes podrían engañar a los gobiernos o difundirse en las redes sociales, sembrando información errónea o dudas sobre información visual real.

«Creo absolutamente que este es un gran problema que puede no afectar a la persona promedio mañana, pero jugará un papel mucho más importante entre bastidores durante la próxima década», dijo Grant McKenzie, profesor asistente de ciencia geoespacial en la Universidad McGill en Canadá. que no estuvo involucrado en el trabajo.

«Imagínese un mundo en el que un gobierno estatal u otro actor pueda manipular imágenes de manera realista para mostrar nada o un diseño diferente», dice McKenzie. «No estoy exactamente seguro de qué se puede hacer para detenerlo en este momento».

Algunas imágenes satelitales extremadamente manipuladas ya se han vuelto virales en las redes sociales, incluida una foto que supuestamente muestra a la India encendida durante el festival hindú de Diwali, que parece haber sido retocada a mano. Solo puede ser cuestión de tiempo antes de que se utilicen imágenes de satélite «deepfake» mucho más sofisticadas, por ejemplo, para ocultar instalaciones de armas o para justificar falsamente acciones militares.

Gabrielle Lim, investigadora del Centro Shorenstein de la Escuela Kennedy de Harvard que se centra en la manipulación de los medios, dice que las tarjetas se pueden usar para engañar sin IA. Ella aparece Imágenes difundidas en Internet sugiriendo que Alexandria Ocasio-Cortez no estaba donde decía estar durante el Levantamiento del 6 de enero, así como pasaportes chinos que muestran una región en disputa del Mar de China Meridional como parte de China. “No es tecnología sofisticada, pero puede lograr objetivos similares”, dice Lim.

Las imágenes aéreas manipuladas también podrían tener importancia comercial, ya que estas imágenes son enormemente valiosas para la cartografía digital, el seguimiento de los sistemas meteorológicos y la orientación de las inversiones.

Las agencias de inteligencia estadounidenses han reconocido que las imágenes satelitales comprometidas son una amenaza creciente. «Los adversarios pueden usar información falsificada o manipulada para influir en nuestra comprensión del mundo», dice un portavoz de la Agencia Nacional de Inteligencia Geoespacial, que es parte del Pentágono y supervisa la recopilación, análisis y distribución de información geoespacial.

El portavoz dice que el análisis forense puede ayudar a identificar imágenes falsificadas, pero admite que el advenimiento de la falsificación automatizada puede requerir nuevos enfoques. El software puede potencialmente detectar signos reveladores de manipulación, como: B. Artefactos visuales o cambios en los datos de un archivo. Pero la IA puede aprender a eliminar tales señales, creando un juego del gato y el ratón entre falsificadores y falsificadores.

«Es cada vez más importante conocer, validar y confiar en nuestras fuentes, y la tecnología juega un papel importante para que eso suceda», dice el portavoz.

El reconocimiento de imágenes manipuladas por IA se ha convertido en un área importante de investigación académica, industrial y gubernamental. Las grandes empresas de tecnología como Facebook, preocupadas por la propagación de información errónea, están respaldando los esfuerzos para automatizar la identificación de video deepfake.

Zhao, de la Universidad de Washington, planea buscar formas de identificar automáticamente imágenes satelitales falsificadas. Él dice que estudiar cómo cambian los paisajes con el tiempo podría ayudar a identificar características sospechosas. “Los patrones espacio-temporales van a ser realmente importantes”, dice.

Sin embargo, Zhao señala que incluso si el gobierno tiene la tecnología para detectar tales falsificaciones, el público puede ser tomado por sorpresa. «Si hay una imagen de satélite que se comparte ampliamente en las redes sociales, eso podría ser un problema», dice.

Esta historia apareció por primera vez en wired.com.

Más populares

To Top