Pasar al contenido principal

Falso Falso Falso Falso Falso Falso Falso Falso

Falso

Sábado, 17 Febrero 2024

Con falso ‘análisis de IA’ califican de ‘montaje’ audios de investigación contra fiscal Mancera

Por María Mónica Acuña Berrio

Cuentas desinformadoras atacan a la Revista Raya y RTVC por sus revelaciones en el caso de presunto encubrimiento a narcotraficantes que hoy salpica a la hoy encargada de la Fiscalía.

3 DATOS CLAVE:

  1. Cuentas desinformadoras en la plataforma X afirman que la investigación periodística de Revista Raya y RTVC Noticias sobre la nueva fiscal general encargada, Martha Mancera, es un "montaje" creado con la tecnología ChatGPT.
  2. Audio Transcriber no puede verificar la autenticidad de audios, ni determinar si han sido generados por inteligencia artificial.
  3. Audio Transcriber solo ofrece transcripciones detalladas y sigue el tono del audio, pero no tiene las capacidades para detectar si un audio ha sido manipulado o creado artificialmente.


En la plataforma X circula una publicación que asegura que Audio Transcriber, un complemento del generador de texto por inteligencia artificial ChatGPT, analizó los audios de una investigación periodística de Revista Raya y RTVC Noticias contra la nueva fiscal general encargada, Martha Mancera, y supuestamente determinó que se trataba de un “montaje” elaborado con esa misma tecnología.

El señalamiento es falso, ya que Audio Transcriber no sirve para hacer ese tipo de análisis, solo para transcribir. De hecho, aún no hay tecnologías que permitan corroborar con certeza si un audio ha sido creado con inteligencia artificial (IA) o no, como ya lo señalamos en el explicador “Posibles audios creados por IA llegan a las elecciones regionales, ¿qué tan factible es identificarlos?”, de octubre de 2023.

La desinformación viralizada

Según la investigación de Raya, una de las grabaciones prueban que, en 2021, la entonces vicefiscal sí recibió denuncias de dos agentes que habían señalado al director del Cuerpo Técnico de Investigación (CTI) de la Fiscalía en Buenaventura, Francisco Martínez,  ‘Pacho Malo’, como parte de una banda narcotraficante en el puerto. En otro, un investigador del CTI asegura que ella estaba presionando para cerrar la operación encubierta que había llevado a esos hallazgos y que terminó con el asesinato de uno de los investigadores, Mario Herrera.

Frente a estas revelaciones, la cuenta @ByViral24, una desinformadora frecuente, hizo una publicación con el siguiente mensaje: “ATENCIÓN. Tras Análisis de inteligencia Artificial a los audios presentados por @RTVCnoticias se evidenció que son un MONTAJE y fueron creados con Inteligencia Artificial en Contra la vicefiscal Marta Mancera, esto para desprestigiarla y presionar a la @CorteSupremaJ para se elija fiscal a fin del gobierno @petrogustavo” (sic). 

El texto se complementa con una imagen que muestra una captura de pantalla en la que la herramienta “Audio Transcriber de ChatGPT-4 en su versión paga” da esa conclusión escrita tras un supuesto análisis, según dice ahí mismo. “Esta determinación se basa en características específicas de la producción de IA”, detalla.

La publicación de By Viral 24 ha recibido 171.002 visualizaciones, 1.999 republicaciones y 2.840 ‘me gusta’.

Además, la usuaria @bettycriticonaa, a la que también le hemos verificado múltiples desinformaciones, divulgó el mismo pantallazo con el siguiente texto: “La tal Prueba Reina que difunden RTVCco y Daniel Coronell contra la vicefiscal Martha Mancera es un montaje, los audios fueron generados con inteligencia artificial. Están presionando fuerte para que elijan como nueva Fiscal a la abogada de Coronell. Muy bajos !!” (sic); y tuvo 13.007 visualizaciones, 512 retuits y 618 ‘me gusta’.

Cabe destacar que los dos perfiles que desinforman en este caso cuentan con la insignia azul de verificación que ahora cualquiera puede pagar como parte de la suscripción a X Premium. Ya no sirve para identificar cuentas auténticas de figuras públicas o entidades.

Audio Transcriber no identifica audios de IA

ChatGPT es un modelo de lenguaje con capacidades para generar texto, traducir idiomas, escribir contenido y responder preguntas. No analiza audios ni sirve para determinar su veracidad u origen.

Audio Transcriber es un complemento (plugin, en inglés) de esa plataforma. En Colombiacheck le consultamos a la propia herramienta si podría identificar la autenticidad de audios y cuáles son sus funciones. En su respuesta, la herramienta señaló que solo transcribe archivos de audio y no verifica su autenticidad.

“Este chatbot no está específicamente diseñado para identificar si un audio ha sido generado por inteligencia artificial o no. Su principal función es transcribir audios, reconociendo y etiquetando a los distintos hablantes dentro del audio según la información proporcionada. Aunque puede ofrecer transcripciones detalladas y seguir el tono del audio, la detección de si el audio ha sido generado por IA requiere análisis técnicos y herramientas especializadas que van más allá de las capacidades de transcripción de este chatbot”, dijo.

¿Hay herramientas para identificar con total certeza un audio creado con IA?

La respuesta, por el momento, es no. No existe un programa o aplicación infalible para verificar la autenticidad de un audio supuestamente generado por inteligencia artificial. Las soluciones actuales son limitadas e inexactas.

El periodista de tecnología y anfitrión del podcast Hard Fork del New York Times, Casey Newton, citado en el explicador de Colombiacheck de octubre pasado sobre este tema, afirma que “por el momento las herramientas que tenemos para evaluar la autenticidad de los medios digitales (audios y videos) son limitadas y a menudo inexactas".

El realizador audiovisual Ricardo Vélez, profesor de Comunicación Social de la Universidad Autónoma del Caribe, nos contó que la detección de audios falsos requiere un enfoque multifacético, ya que las creaciones de IA se están volviendo cada vez más sofisticadas y es posible que algunas puedan pasar desapercibidas, incluso por las herramientas que avanzan en el desarrollo de su detección. Por ello, sugiere utilizar una combinación de herramientas y técnicas para identificar falsificaciones con un alto grado de certeza.

Por estas razones, concluimos que es falso el supuesto análisis de inteligencia artificial que supuestamente determinó que los audios revelados en la investigación de Raya y RTVC son supuestos montajes creados con esa misma tecnología. La supuesta fuente que sale en el pantallazo con el que buscan desacreditar el trabajo periodístico, Audio Transcriber de ChatGPT, solo sirve para transcribir audios, como su nombre lo indica, y no para determinar su veracidad. Esto último no se puede hacer aún de forma certera con ninguna herramienta de detección digital por sí sola, sino que requiere análisis técnicos más complejos.