Deepfakes: no te creas nada de lo que veas

Facebook
Twitter
LinkedIn
WhatsApp

La difusión de mentiras en campaña electoral se ha convertido en una amenaza para partidos políticos y candidatos. Pero, como todo es susceptible de empeorar, la política se enfrenta ahora a una nueva amenaza: videos de líderes políticos diciendo cosas que no han dicho. No es ciencia ficción. Se llaman deepfakes (ultrafalso) y son videos creados con inteligencia artificial que mezclan situaciones falsas con personas de verdad. Ante la inminente campaña electoral, todas las alarmas han saltado en Estados Unidos. Algunos estados han comenzado a legislar contra lo que ya es una realidad de imprevisibles consecuencias.

Tras las elecciones del 10N, por nuestros teléfonos móviles ha corrido como la pólvora un video viral en el que los cinco candidatos de los principales partidos políticos aparecen en la piel de los protagonistas de la mítica serie Equipo A. Esta versión ibérica, llamada Equipo E, ha sido creada y compartida por FaceToFake en Youtube, donde ya acumula más de un millón de visualizaciones. La tecnología de aprendizaje automático que ha hecho posible la parodia se denomina deepfake, y consiste en colocar el rostro de una persona en el cuerpo de otra que se encuentra en movimiento.

El equipo E ha provocado diversión y asombro por la perfección que es capaz de alcanzar esta tecnología. Sin embargo, los deepfakes no siempre son tan graciosos. La alteración directa de sonidos y efectos visuales marca un nuevo paso en lo referente a la falsificación de noticias. La posibilidad videos falsos donde aparecen políticos en medio de actos ilegales o realizando afirmaciones polémicas podrían tener un efecto inmediato sobre el resultado de unas elecciones y suponen una grave amenaza para el periodismo y la convivencia.

Fabricar amenazas y provocar una crisis política e incluso un accidente de seguridad podrían dejar de ser el argumento de una película de ficción para convertirse en realidad. De hecho, ya existen episodios de esta naturaleza. Tras el pirateo de la agencia de noticias de Qatar, se atribuyeron unas declaraciones al emir que desencadenaron una disputa diplomática con países vecinos. Éstos utilizaron los comentarios para justificar un boicot económico al emirato.

Deepfake pornográfico

La situación podría volverse preocupante para el debate público, si bien es en la pornografía donde esta tecnología está permitiendo a algunos hacer su agosto. Según un estudio realizado por la empresa de ciberseguridad Deeptrace, el 96 por ciento de las animaciones que existen tienen carácter pornográfico. La mayoría de estos videos se construyen con el rostro de un famoso (casi siempre famosa) generado por ordenador y que reemplaza al del actor porno original en una escena sexual. Las webs que promocionan estos contenidos, y que han recibido más de 134 millones de visitas en todo el mundo, cobran por la visualización de los mismos.

Según esta consultora, el deepfake pornográfico es un fenómeno real, y como en tantas otras cosas, son las mujeres las principales perjudicadas. La actriz Scarlett Johansson ha sido víctima de este tipo de vídeos.

Puede que nos cuestionamos la veracidad de un video en el que un líder español pueda estar revelando la connivencia con un grupo terrorista internacional, pero con excéntricos personajes tipo Donald Trump puede pasar cualquier cosa, todo es creíble. ¿Qué ocurriría si de pronto aparece un líder mundial confesando actividades ilegales o revelando secretos de estado que puedan hacer tambalear la democracia? Una vez echada a rodar, la mentira sería imparable y, a escasas horas de unas elecciones, de consecuencias imprevisibles.

Las empresas se encuentran entre los sectores más vulnerables ante los deepfakes. Ante la falta de recursos para detectar falsificaciones, la viralización de un video de esta naturaleza podría suponer pérdidas millonarias, así como un desprestigio y menoscabo en su imagen, con la consiguiente caída de las ventas. Estas falsificaciones también podrían alterar los precios de la bolsa o utilizarse para timos, estafas y extorsiones.

Una compañía aseguradora ha revelado que su cliente, del que sólo ha dicho que se trata de una compañía energética británica, ha sido víctima de una ciberestafa mediante el uso de la inteligencia artificial para reproducir exactamente la voz de un directivo. En realidad, se trataba de un delincuente que ordenó una transferencia de 220.000 euros a la cuenta de un supuesto proveedor húngaro.

Alterar las elecciones

El Congreso de Estados Unidos considera que existe una amenaza para la seguridad nacional y la desinformación con vistas a las elecciones de 2020, y en algunos estados ya se están aprobando leyes contra manipulaciones con deepfakes que tengan por objetivo alterar los comicios.

Desmentir una noticia falsa es prácticamente misión imposible porque las fake news invaden el terreno de lo emocional y nuestro cerebro se muestra impermeable a los datos y los hechos que, aunque sean ciertos, pretenden desmontar nuestras propias convicciones. Si ya la situación es compleja, el fenómeno deepfake sólo viene a empeorarla, y para cuando se haya logrado desmontar una campaña de desinformación, probablemente el daño ya estará hecho.

Esta tecnología lleva años desarrollándose, y desde 2018 se encuentra al alcance de todo el mundo con el lanzamiento de una app, FakeApp. No obstante, no es fácil crear un deepfake con el que engañar a la población. Se necesita una formación muy sólida y especializada, si bien no está descartado que en el futuro aparezcan sencillas aplicaciones con las que cualquier neófito pueda realizar falsificaciones que consigan engañarnos.

Los expertos consideran que el fenómeno deepfake será cada vez más difícil de detectar, y ya existen casos en los que sólo se puede descubrir si un video es falso con técnicas de informática forense. Los mortales tendremos que conformarnos con pequeñas señales a nuestro alcance que puedan ponernos sobre la pista de que estamos ante una falsificación, como que los personajes de las deepfakes parpadean menos que los reales, gestos desacompasados o diferentes tonos de piel y de iluminación.

Aunque se espera que la técnica para el perfeccionamiento de los deepfakes evolucione a la par que los métodos para su detección, no se descarta, sin embargo, que tengamos que ser nosotros mismos quienes tomemos nuestras propias precauciones al consumir y difundir este tipo de videos. Observando el contexto podremos obtener información valiosa sobre quien lo ha creado, cómo se está moviendo por las redes sociales y con qué fines.

Facebook
Twitter
LinkedIn
WhatsApp

Suscríbete al Blog

Más artículos publicados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *