Falso Falso Falso Falso Falso Falso Falso Falso
Falso
En Instagram y Tiktok (1, 2) circula un video con el título “audio explosivo. Prueba irrefutable de manipulación en las elecciones en Venezuela” (sic), en el cual se escucha supuestamente al gobernante de Venezuela, Nicolás Maduro, conversar con el presidente del Consejo Nacional Electoral (CNE) de ese país, Elvis Amoroso, para coordinar un fraude electoral en las presidenciales del 28 de julio.
Esto es parte de lo que dice el diálogo:
Maduro: Hola, cómo estás, Elvis (…) ¿me dices que ya estás totalizando?
Amoroso: Buenas noches, presidente. Sí, hemos recibido aproximadamente el 45% de las actas a esta hora.
Maduro: Qué bueno. Pero dime, ¿Cómo ves el panorama a esta hora?
Amoroso: Presidente, está negativo. 30% por ciento abajo vamos.
Maduro: Pero cuéntame, Elvis. ¿En lo que falta todavía por transmitir hay chance de revertir esa tendencia?
Amoroso: No, mi presidente. Es matemáticamente imposible. Debemos pasar a la acción.
Maduro: Coño, qué vaina, pues, no queda de otra. Me paralizas ya la totalización. Que no le entreguen más actas a los testigos. ¿Estás escuchando?
Este audio también fue difundido por el aparente medio de comunicación Continental News, en su canal de YouTube, donde recibió más de 213.000 vistas, y en su página de Facebook. A esta cuenta, sin embargo, la hemos chequeado antes por desinformar en contra del gobierno de Gustavo Petro con videos que se hacen pasar como informativos (1, 2, 3).
En Colombiacheck verificamos el contenido y concluimos que es falso. Con base en análisis de detectores de audios de inteligencia artificial (IA), las voces de Maduro y Amoroso no coinciden con las reales. Además, existe evidencia de que pudieron haber sido clonadas con esta tecnología. Otros elementos en el audio también apuntan a que se trata de una manipulación.
Este mismo audio ya ha sido desmentido por nuestros colegas venezolanos de Efecto Cocuyo, Cotejo Info y el Observatorio Venezolano de Fake News en septiembre y octubre, en medio de la crisis política posterior a los comicios en cuestión.
Recordemos que, tras esa jornada, el CNE dio como ganador a Maduro para un tercer mandato presidencial consecutivo sin presentar pruebas de los supuestos resultados que anunció. Entre tanto, las actas de escrutinio recabadas por testigos electorales y publicadas en internet le dan la victoria al diplomático opositor Edmundo González.
Durante el contexto poselectoral también verificamos una portada falsa de la BBC que se viralizó y la cual hablaba del supuesto soborno de Maduro a Elvis Amoroso para manipular el resultado electoral en el país.
Los aliados de Efecto Cocuyo enviaron vía correo el audio de redes a la plataforma VerificAudio, de la consultora tecnológica Minsait y Google News Initiative, que se enfoca en la detección de audios falsos o deepfakes generados con voces sintéticas o alteradas con tecnología. Al comparar el audio sospechoso con las voces reales de Maduro y Amoroso, la herramienta determinó que no coincidían.
Según su escala de análisis, la aplicación registró valores de 0,50 o superiores, mientras que una voz auténtica se ubica en valores inferiores a 0,35. Por lo tanto, concluyó que se trataba de “diferentes interlocutores”.
Resultados de VerificAudio.
También escaneamos el audio con TrueMedia, otra herramienta para detectar manipulaciones con inteligencia artificial, y arrojó un 50% de probabilidades de que se tratase de una clonación de voz con IA. La plataforma además analizó la conversación y señaló que, por el lenguaje, tono y contenido, pudo haber sido inventada.
“El lenguaje utilizado es informal y coloquial, con frases como ‘Coño, qué vaina, pues’, lo que sugiere un diálogo informal, posiblemente guionado, en lugar de una conversación formal u oficial. La mención de ‘Vladimir’ [Padrino López, en referencia al ministro de Defensa, quien es mencionado en el audio hacia el final] y el contexto de alteración de los resultados electorales implican además un escenario ficticio o dramatizado en lugar de un evento real. El tono y el contenido sugieren que podría ser una pieza inventada destinada a imitar una conversación clandestina”, explicó.
El clasificador de voz de Eleven Labs, una empresa de software especializada en síntesis de voz y conversión de texto a voz con sonido natural, mostró solo un 2% de probabilidades de que las supuestas voces hubiesen sido generada con sus programas de IA. Sin embargo, esto no descarta que hayan podido usar herramientas desarrolladas por otra compañía.
Varios elementos hacen sospechar de la presunta llamada entre Maduro y Amoroso, entre ellos, que el diálogo suena rígido, no a una conversación; las voces siempre mantienen la misma entonación, a pesar de que ambos personajes están hablando de un resultado electoral desfavorable; la voz no comete errores de dicción y tampoco se escuchan marcas orales habituales como las pausas inesperadas, la repetición de palabras o el tartamudeo. En varios chequeos hemos explicado que estos rasgos son indicativos de que alguien pudo haber escrito un guion y le pidió a una IA que lo leyera (1, 2).
Hace pocos días, además, en un chequeo sobre un video falso del presidente electo de Estados Unidos, Donald Trump, mostramos que en Internet existen páginas para clonar voces con IA de líderes políticos y ponerles a decir lo que se quiera.
En una búsqueda en Google mediante palabras claves como "audio filtrado" + "maduro" + "amoroso" y “audio” + “maduro” + “amoroso”, tratamos de ubicar noticias o notas de prensa que hablaran sobre la aparente filtración; sin embargo, solo encontramos las verificaciones mencionadas de nuestros aliados y ningún medio que confirmara la veracidad del material.
En conclusión, calificamos de falso el supuesto audio entre Nicolás Maduro y Elvis Amoroso. Los análisis con detectores de audio basados en inteligencia artificial revelaron que las voces atribuidas a los políticos no corresponden con las originales. Asimismo, presenta varios elementos que sugieren que pudieron ser creadas con esta tecnología.