En los últimos meses, el término “Deepfake” saltó de los foros de tecnología a las conversaciones cotidianas. Hoy cualquiera puede crear un audio, video o imágenes sintéticas que imitan a una persona real con precisión. Esa capacidad vuelve a los Deepfakes una herramienta para suplantación, extorsión y fraude, al explotar en lo que más confiamos: la voz y el rostro.
Organismos internacionales advierten del aumento de estafas que con videos fabricados para pedir transferencias, datos o validaciones urgentes de seguridad (Europol, FBI). En México, el fraude cibernético crece en volumen y sofisticación; aunque los Deepfakes son una porción aún pequeña del total de ataques, su crecimiento es acelerado. En 2023, las quejas por fraudes cibernéticos ante la CONDUSEF aumentaron 20.1% respecto a 2022 y sumaron 1.57 millones, con 92% asociados al comercio electrónico.
¿Qué es el fraude Deepfake y cómo funciona?
Hablamos de este fraude cuando se emplea contenido sintético (audio, video o imagen) generado con IA para hacerse pasar por otra persona y obtener dinero o información. Técnicamente, se crean con modelos de IA como redes generativas y métodos de difusión entrenados con muestras de voz, fotos o video de la víctima. Con pocos segundos de audio se pueden clonar timbre y entonación; además de gestos para recrear videos.