Los riesgos de la tecnología deepfake

La publicación de noticias falsas, al igual que los montajes de fotografías, se han convertido en cosa de todos los días, lo cual ya representa un problema en la difusión de información, pero la aparición de los videos deepfake es un problema mucho más grande.

Lo que comenzó como una invención de un usuario del portal Reddit, se convirtió en una amenaza para la información. El deepfake consiste en superponer imágenes en videos ya existentes, con ayuda de la inteligencia artificial que en un lapso de 12 horas logra aprender los gestos de una persona. Es decir, se utilizan fotografías y videos de una persona para superponerlos en un video ya existente, haciendo parecer que la persona de las fotografías es quien está hablando.

Esta tecnología ha avanzado muchísimo en muy poco tiempo, volviendo este tipo de videos cada vez más fáciles de editar. De estar en otra situación, estos avances tan rápidos serían celebrados, pero al tratarse de un programa que permitiría a prácticamente cualquier persona crear sus propios videos es preocupante.

La edición y manipulación de videos no es algo nuevo: la industria del cine se ha ayudado de este tipo de herramientas por años para poder incluir actores o personajes que de otra forma hubiera sido imposible ver en el filme. Uno de los ejemplos más recientes de ésta técnica es la inclusión de una joven princesa Leia en la película “Rogue One: Una Historia de Star Wars”. Gracias a esta tecnología fue posible superponer el rostro de Carrie Fisher sobre el de la actriz encargada de ocupar su lugar durante la filmación.

Pero no todos los usos que se le dan a esta tecnología son inofensivos. Circulaba en redes un video de apenas un minuto de duración en el que se podía ver al ex-presidente Obama hablar frente a la cámara sobre diversos temas, utilizando palabras altisonantes poco propias de él.

La publicación de este video significa que sólo es cuestión de tiempo para que los deepfake comiencen a utilizar a más políticos y líderes de opinión para difundir mensajes de odio o información falsa, y así obtener un beneficio o incluso perjudicar la carrera y reputación de la persona que pareciera aparece en la grabación.

¿Cómo identificar los deepfake?

Como sucede con las fake news y montajes de fotografía, es posible identificar los deepfake gracias a detalles como la cantidad de veces que parpadea la persona en el video. El algoritmo de los deepfake no ha logrado replicar esta acción en su totalidad, haciendo que en el material parpadee pocas veces, cuando los humanos lo hacemos una vez cada 2 a 8 segundos. Que la cara, cuello y expresiones faciales coincidan, la correcta sincronización del audio con el movimiento de los labios, así como la duración del video y también son elementos que nos ayudarán a detectar si estamos frente a un montaje o un video real. Por su complejidad, este tipo de videos no duran más que unos segundos, a comparación de una entrevista real.

Por último, como sucede con cualquier noticia, el verificar la fuente de la publicación es primordial para saber si se trata de información verídica o no.

Lo más recomendable en estos casos es no compartir o difundir información si no estamos completamente seguros de su veracidad.

Fuentes: https://www.cadena3.com/noticias/una-manana-para-todos/que-tecnologia-deepfake-como-funciona_145638

https://www.iebschool.com/blog/deepfakes-como-detectarlas-business-tech/

https://www.xataka.com/inteligencia-artificial/posible-saber-video-deepfake-solo-abrir-cerrar-ojos-literalmente-quizas-eso-no-sea-suficiente

https://inteligenciaartificial.io/deep-fake/

 @moodgeek

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s