Tendencias: deepfake, el nuevo método de los estafadores
En las redes sociales están circulando promociones de productos denominados “milagrosos” para diferentes tipos de enfermedades, donde son mal utilizadas imágenes de personalidades reconocidas a nivel nacional o internacional, con el fin de dar credibilidad a las campañas.
Marcelo Blanco
La deepfake es una nueva forma de estafar que se identificó en Bolivia con diferentes campañas en las que se promocionan productos no autorizados que buscan crear falsas expectativas en salud, utilizando especialmente la imagen de personalidades de diferentes ámbitos, cuyo fin es el robo de dinero e información personal.
De las once publicaciones identificadas que usan la imagen de personas reconocidas para engañar, cinco son deepfakes y las otras son artes montados; todos los contenidos sin consentimiento. Estas publicaciones superan las mil reacciones y comentarios.
¿De quiénes usaron su imagen? En las verificaciones realizadas, se identificaron de nueve personalidades nacionales y dos internacionales.
El total de esta gráfica es de 13, no de 11 porque en algunas verificaciones se identificó un contenido que usaba la imagen de dos personalidades.
De las deepfakes encontradas, la imagen del exministro de Salud Edgar Pozo Valdivia fue la más utilizada (1, 2), mientras que en los montajes fue de la presentadora Myriam Claros de la red Bolivisión (1, 2).
¿Qué es la deepfake?
Una deepfake es una técnica de manipulación de video o audio que utiliza inteligencia artificial, específicamente aprendizaje profundo (deep learning) para crear contenido falso en el que se superpone la apariencia o la voz de una persona. Es decir, se ve y escucha a alguien decir algo que jamás lo hizo. Para este fin, son utilizados algoritmos de generación de imágenes y audio que pueden analizar y sintetizar el rostro como la voz de una persona.
Usando este método, los estafadores promocionan programas contra la diabetes, la hipertensión y remedios no autorizados para males crónicos.
El programa o cura contra la diabetes es la campaña que más publicaciones falsas generó, tanto en deepfake como en montajes.
Modus operandi
Las publicaciones fueron encontradas en Facebook en una publicación que adjuntaba el enlace de una página web, al ingresar a la misma aparece un registro, información sobre la enfermedad sin ningún sustento y la opción de compra del medicamento ofertado.
El objetivo de estas publicaciones es de robar dinero, datos personales o generar trafico en una página incompleta para luego venderla.
¿Cómo prevenirlo?
En este tipo de casos es recomendable utilizar la herramienta Deepware.ai que analiza los videos para determinar si fueron creados con inteligencia artificial. También se aconseja dudar de los videos que se encuentren publicados en cualquier red social en páginas que no sean oficiales, pese a que pueda aparecer el rostro y la voz de una autoridad o alguna personalidad.
La verificadora española Newtral habló con creadores de este tipo de contenidos para que informen sobre los datos que uno debe tener en cuenta para no caer en el engaño.
Son seis los detalles que uno debe apuntar para no ser víctima de esta desinformación:
- Las luces y sombras aún no son bien hechas por la inteligencia artificial; es decir, puede estar una sombra en el lado izquierdo de una persona y de otra al lado contrario.
- Los ojos en una deepfake no tienen reflejos. El ojo es como un cristal; sin embargo, estos contenidos no crean ese reflejo porque demora mucho. "Mucho trabajo para lo poco rentable que es", afirmó uno de los entrevistados por Newtral.
- Las manos, los dientes, las orejas y las articulaciones son difíciles de hacer para la inteligencia artificial, por eso, puede crear manos con más de cinco dedos o una boca con menos o más dientes, además de tener distorsiones.
- Una deepfake usualmente está en mala calidad, no tiene mucha nitidez.
- Las proporciones del cuerpo, la piel, el cabello o los movimientos no suelen ser iguales en la persona a la que están recreando. Se notan variaciones de colores de la piel o movimientos extraños.
- Un fondo sin mucho detalle o con partes difuminadas.
El equipo de prensa de Bolivia Verifica realizó hasta agosto 452 verificaciones, de esas, 64 se centraron en estafas digitales, siendo una de las corrientes más identificadas en este 2023.