En la política mexicana, hace ya un buen rato que la calumnia y la desinformación políticas dejaron de oler a tinta indeleble y tachaduras; ahora huele a código binario, a “render” en alta definición y a voz sintética. La manipulación ya no se imprime: se genera, se clona y se viraliza; y lo mejor —o lo peor— de todo, es que ya ni siquiera hay que contratar acarreados y pagarles con una torta y un refresco, basta con un par de GPUs bien alimentadas y un operador con más malicia que escrúpulos. Es decir, hoy por hoy, ni siquiera necesitamos narcos ni mapaches electorales… ahora tenemos ingenieros de software con tiempo libre y ganas de fregar.
Sin embargo, hablar de México en ese contexto resulta aburrido porque, como es de esperar, estamos en pañales; no en los ataques —que conste— sino en los mecanismos tendentes a prevenir o proteger a la población, políticos o no, de este tipo de abusos.
Miremos mejor el panorama global reciente, que es mucho más ilustrativo:
Ucrania, 2022: circuló un video “deepfake” donde el presidente Volodymyr Zelenskyy supuestamente ordenaba a sus tropas rendirse ante Rusia; la manipulación apareció en cadenas de TV y redes sociales, fue difundida por medios rusos y fue rápidamente descalificada por plataformas como Facebook y YouTube;[1]
Filipinas, 2024: un audio falsificado atribuido al presidente Bongbong Marcos lo hacía ordenar a las Fuerzas Armadas prepararse para actuar en el conflicto del mar del Sur de China; el gobierno lo desmintió y se abrió investigación por posible intervención extranjera;[2]
India, 2024: “deepfakes” se usaron para traducir discursos de políticos fallecidos y difundirlos en lenguas regionales, extendiendo su “presencia” en campañas;[3]
Reino Unido, 2024: videos “deepfake” mostraron a líderes como Rishi Sunak afirmando que enviaría jóvenes a zonas de guerra, o a Keir Starmer insultando a su equipo. Algunos de esos clips superaron el medio millón de vistas antes de ser marcados;[4]
Ghana, 2024: se identificó una red de cuentas falsas generadas por IA (ChatGPT, entre otras) que promovían sin transparencia al partido gobernante, en lo que fue catalogado como la primera campaña AI-partidista encubierta en el país,[5] y
Canadá, 2025: se alertó que actores estatales como China y Rusia podrían desplegar campañas con IA generativa para influir en comunidades de votantes mediante desinformación sofisticada.[6]
Y sí, ni países semibananeros, como el nuestro, se han salvado; en San Luis Potosí, en 2024, un candidato de la coalición Fuerza y Corazón por México fue blanco de un “deepfake” que imitaba su rostro y voz; el video se lanzó como un misil teledirigido en plena campaña; y la ONU lo catalogó como el primer caso confirmado de manipulación sintética en una elección activa en México.[7]
¿Qué nos queda? El Buki ya se nos anticipó y lo dijo muy claro hace unos años: “¿A dónde vamos a parar?”. Misterio. En un país donde se nos miente a diario y donde temas como salud o seguridad importan un pepino al gobierno federal, la seguridad cibernética ni siquiera figura en el último borrador del informe más pinchurriento sobre ciberseguridad; y si figurara, no pasaría de ser otra retórica hueca, más vacía que la cabeza de político morenista promedio.
El tema es preocupante porque, ya hablando en serio, un reporte de Microsoft reveló que grupos vinculados al Kremlin usaron un “deepfake” de Tom Cruise para atacar a la Organización Olímpica antes de París 2024, y desplegaron campañas alarmistas diseñadas para infundir miedo.[8] En una base de datos académica especializada, se recopilaron 82 “deepfakes” políticos en 38 países, algunos en plenas campañas electorales, mostrando que el problema es ya sistémico.[9]
Aguas. Porque cuando la mentira ya no necesita boca para hablar ni manos para escribir, la democracia deja de ser un campo de debate y se convierte en un teatro de sombras… y el titiritero es un algoritmo sin rostro, sin escrúpulos y con un guion escrito para que todos perdamos.
Contácteme a través de mi correo electrónico o sígame en los medios que gentilmente me publican, en Facebook o también en mi blog: https://unareflexionpersonal.wordpress.com/
Luis Villegas Montes.
luvimo6608@gmail.com, luvimo6614@hotmail.com
[1] Artículo de James Pearson y Natalia Zinets titulado: “Deepfake footage purports to show Ukrainian president capitulating”, publicado el 17 de marzo de 2022 [En línea]. Visible en el sitio: https://www.reuters.com/world/europe/deepfake-footage-purports-show-ukrainian-president-capitulating-2022-03-16/ Consultado el 10 de agosto de 2025 a las 14.00 hrs.
[2] Artículo editado por Anjali Thakur titulado: “Deepfake Audio Of Philippine President Urging Military Action Against China Sparks Concerns”, publicado el 25 de abril de 2024 [En línea]. Visible en el sitio: https://www.ndtv.com/world-news/deepfake-audio-of-philippine-president-urging-military-action-against-china-sparks-concerns-5517913 Consultado el 10 de agosto de 2025 a las 14.05 hrs.
[3] Artículo del Times: “Why dead leaders are hitting the campaign trail in India’s election”, publicado el 5 de abril de 2022 [En línea]. Visible en el sitio: https://www.thetimes.com/world/article/india-elections-2024-ai-campaigning-6mhfljf2w Consultado el 10 de agosto de 2025 a las 14.10 hrs.
[4] Artículo de Ben Quinn titulado: “Slew of deepfake video adverts of Sunak on Facebook raises alarm over AI risk to election”. Publicado el 12 de enero de 2024 [En línea]. Visible en el sitio: https://www.theguardian.com/technology/2024/jan/12/deepfake-video-adverts-sunak-facebook-alarm-ai-risk-election Consultado el 10 de agosto de 2025 a las 14.15 hrs.
[5] [En línea]. Visible en el sitio: Ghana: Freedom on the Net 2024 Country Report | Freedom House Consultado el 10 de agosto de 2025 a las 14.20 hrs.
[6] Artículo de Alexander Martin titulado: “Canadian intelligence agency warns of threat AI poses to upcoming elections”. Publicado el 7 de marzo de 2025 [En línea]. Visible en el sitio: https://therecord.media/canada-cyber-agency-elections-warning-ai- Consultado el 10 de agosto de 2025 a las 14.25 hrs.
[7] Artículo titulado: “Acciones contra la desinformación en tiempos electorales” publicado el 23 mayo 2024 [En línea]. Visible en el sitio: https://mexico.un.org/es/269499-acciones-contra-la-desinformaci%C3%B3n-en-tiempos-electorales Consultado el 10 de agosto de 2025 a las 14.30 hrs.
[8] Artículo de Dan Milmo titulado: “Russia targets Paris Olympics with deepfake Tom Cruise video” publicado el 3 junio 2024 [En línea]. Visible en el sitio: https://www.theguardian.com/technology/article/2024/jun/03/russia-paris-olympics-deepfake-tom-cruise-video Consultado el 10 de agosto de 2025 a las 14.35 hrs.
[9] Artículo titulado: “Targets, Objectives, and Emerging Tactics of Political Deepfakes” publicado el 24 de septiembre 2024 [En línea]. Visible en el sitio: https://www.recordedfuture.com/research/targets-objectives-emerging-tactics-political-deepfakes Consultado el 10 de agosto de 2025 a las 14.45 hrs.