Pasar al contenido principal
Lunes, 28 Marzo 2022

Polarización y desinformación: cómo los grupos más partidarios difundieron desinformación sobre la pandemia

Por Chequeado y CLIP

Desde que comenzó la pandemia Chequeado publicó casi 500 verificaciones desmintiendo distintas falsedades sobre la COVID-19, principalmente sobre su origen, medidas para protegerse y su tratamiento. En esta investigación, te contamos en qué grupos abiertos de Facebook circularon y quiénes las difundieron. Desde gente reunida en torno a teorías conspirativas o por ser antivacunas, hasta grupos sobre políticos o periodistas hiperpolarizados

Autor: 

  • Martín Slipczuk

Que no hay que usar barbijos porque generan enfermedades. Que el creador de los PCR dijo que no sirven. Que un médico del Hospital Muñiz falleció por coronavirus y ningún medio te lo cuenta. Que las vacunas nos hacen infértiles. Todo esto es falso, pero hubo millones de personas que vieron pasar estos contenidos por redes sociales en los últimos años en la Argentina.

Chequeado y el Centro Latinoamericano de Investigación Periodística (CLIP) en la colaboración periodística transfronteriza Mentiras Contagiosas, que reúne a diez medios latinoamericanos, revisaron casi 500 verificaciones desmintiendo este tipo de falsedades que circularon en el país sobre el coronavirus.

Muchas desinformaciones fueron generadas por organizaciones que se encargaron de difundir contenidos falsos constantemente, como “Médicos por la Verdad” o los “Epidemiólogos Argentinos Metadisciplinarios”. Si no conocen ese nombre, tal vez conozcan a su integrante más conocida: Chinda Brandolino, quien no sólo difundió falsedades en redes sociales sino también en canales de televisión.

Pero, si bien hubo caras visibles de esta desinformación pandémica, también hubo muchísimas personas desconocidas que participaron activamente en la difusión de desinformaciones en redes sociales.

En esta investigación nos propusimos entender en qué grupos abiertos de Facebook circuló principalmente la desinformación sobre coronavirus en la Argentina durante la pandemia. Así que, si estás listo, prepará tu barbijo, lávate bien las manos y prepará tu carnet de vacunación, que nos vamos a adentrar en un mundo bastante peligroso.

En qué grupos de Facebook circularon las desinformaciones

La primera desinformación sobre el coronavirus en la Argentina Chequeado la identificó el 27 de febrero de 2020, incluso antes de que se confirmara el primer caso en el país, informado el 3 de marzo. Ese mismo día desmentimos un supuesto caso en Chaco y en Santiago del Estero -ambas noticias falsas creadas en un sitio destinado a hacer bromas-, así como un video que circulaba en redes sociales donde supuestamente se mostraba a un policía en China deteniendo a una persona infectada con el virus, pero que en realidad se trataba de un simulacro.

desinformación-Chequeado-Investigaciones-FB-1024×768

Desde ese 27 de febrero de 2020 hasta finales de 2021, en Chequeado identificamos más de 3.300 posteos públicos con desinformaciones en Facebook o Instagram, de los cuales 1.900, más de la mitad, fueron sobre coronavirus. Analizando estos casi 2 mil posteos desinformantes sobre coronavirus, identificamos que en el 8% de esos posteos están citados o participaron de su difusión personajes que desinformaron sistemáticamente en la pandemia, como los participantes del grupo Médicos por la Verdad.

Sería necesario un estudio mucho más profundo para ver si los desinformantes difundieron ese contenido en grupos cerrados a los que no podemos acceder o si incluso publicaron ese contenido inicialmente y luego lo borraron, sin dejar rastro de ser los creadores de dicha desinformación. Pero este análisis preliminar muestra que las desinformaciones no estarían especialmente centralizadas en el país. Hay muchos posteos con muchísimo impacto de personas que no necesariamente son desinformantes seriales.

Lo que sí identificamos es que muchas desinformaciones circulaban muchas veces por los mismos grupos públicos de Facebook. Desde febrero de 2020 hasta fines de 2021, identificamos que circularon desinformaciones sobre la pandemia en casi 170 grupos abiertos. Y, de ellos, el 70% podría separarse entre 3 grandes tipos: los relacionados a teorías conspirativas; los unidos por ser antivacunas: y los que giran en torno a partidos, dirigentes políticos e incluso a periodistas o medios polarizados o hiperpolarizados.

Para conocer un poco mejor las diferencias entre los 3 grupos, acá van algunos ejemplos:

  • Conspiraciones: muchos de los links o posteos desinformantes -casi el 23% del total- se compartieron en grupos relacionados con teorías conspirativas que existían incluso antes de la pandemia. Por ejemplo, hay distintos grupos que se muestran en contra de los iluminatis o reptilianos (como el grupo “Reptilianos entre nosotros al descubierto” creado en 2018 con 134 mil miembros o “Anti-iluminatis” de 2017 con casi 52 mil miembros).

Hay otros grupos que en su título hablan de un “nuevo orden mundial”, de “resistencia” o de “despertar”. Por supuesto también están aquellos que giran en torno a teorías conspirativas más conocidas, como la que sostiene que la Tierra es plana.

No es casualidad que, ante una pandemia, los grupos conspiranoicos se hagan notar. Muchas veces las teorías conspirativas pueden darnos una sensación de protección ante lo desconocido, por lo que los pensamientos conspiranoicos se agudizan en momentos de incertidumbre, así como también pueden brindar una sensación de seguridad y hacernos sentir dentro de un grupo de pertenencia, como explica el documento “Las creencias en teorías conspirativas” de Africa Check, Chequeado y Full Fact.

Incluso hay estudios que muestran que, a veces, a pesar de saber que es una desinformación, la gente comparte teorías conspirativas para poder generar un mayor impacto en sus redes y es una rueda que no para de girar: al recibir feedback positivo hay más chances de que sigan compartiendo posteos sobre conspiraciones.

  • Antivacunas: otro tipo de grupos donde se difundieron desinformaciones son aquellos que directamente en el nombre se mostraban en contra de la vacunación contra la COVID-19 o hacían alusión a médicos o personajes que desinformaron sistemáticamente sobre la pandemia. Acá se incluyen poco más del 16% de los posteos o links que analizamos.

Por ejemplo, en la Argentina el caso más conocido es el de Chinda Brandolino, quien forma parte de la agrupación Médicos por la Verdad y difundió numerosas falsedades en relación al virus. Hay diversos grupos en torno a ella: “Quiero a la Dra. Brandolino ministro de Salud del pueblo argentino” creado en mayo de 2020 y con casi 14 mil miembros, “Chinda Brandolino.- Noticias y Difusión” un grupo creado en noviembre de 2020 por ella con casi 10 mil usuarios y “La mujer de la ola celeste”, como la nombran muchos de sus seguidores en alusión a su posición en contra la legalización del aborto, creado en junio de 2019 y que tiene más de 33 mil miembros.

En estos grupos se difunden actividades de Brandolino, pero también en distintos posteos se incluyen a otros desinformantes, como Eduardo Yahbes -un médico imputado por expedir certificados falsos que contraindicaban la vacuna contra el coronavirus- o Andreas Kalcker -uno de los principales difusores a nivel mundial del dióxido de cloro, una sustancia tóxica, como supuesta cura ante distintas enfermedades y que actualmente está imputado en una causa donde la Justicia argentina investiga la venta de este líquido-.

 

  • Polarizados: un tercer tipo de grupo donde circularon estas desinformaciones sobre la pandemia tiene que ver con el apoyo a dirigentes, partidos políticos, funcionarios judiciales o hasta periodistas y medios polarizados o hiperpolarizados.

En esta tipificación entran casi el 60% de los posteos o links desinformantes que se compartieron en grupos abiertos. Y muchas de las desinformaciones que se compartieron en estos grupos profundizaban los sesgos de cada sector.

Por ejemplo, en grupos como “Unidad Nacional y Popular” creado por la página “Yo apoyo a Cristina”, en alusión a la vicepresidenta Cristina Fernández de Kirchner, se compartió una desinformación que decía que el periodista Diego Leuco dijo haber festejado el aumento de casos de COVID-19 porque “odia al Gobierno”.

Mientras que en páginas en apoyo a Juntos por el Cambio, como “Lilita Carrió la más valiente” -en apoyo a la ex diputada nacional Elisa Carrió- se compartió una nota que criticaba la gestión del Gobierno y sostenía falsamente que la Argentina tenía la tasa más alta de personal de salud infectado con coronavirus a nivel mundial. Esta desinformación también circuló en grupos en apoyo al diputado libertario Javier Milei, como “Movimiento Libertario – Milei Presidente 2023”.

En el caso de grupos sobre periodistas, vale aclarar que los grupos no están directamente relacionados con estos periodistas, sino que fueron creados por “fans”.

Por ejemplo, hay grupos en alusión a Alfredo y Diego Leuco, periodistas más cercanos a la oposición, como “Leucoperiodismo” con 67 mil miembros. O grupos en torno a Víctor Hugo Morales, más cercano al oficialismo, como “Victor Hugo Morales ,club de seguidores” (sic) con 131 mil miembros o “Victor Hugo Morales, un guerrero ideològico” (sic) con 52 mil usuarios. También circularon desinformaciones en otros grupos relacionados directamente a medios, como “C5N DEBATE” con 133 mil miembros.

Y en estos grupos también generalmente las desinformaciones que se comparten guardan relación con la posición política de dichos periodistas. Por ejemplo, en “Leucoperiodismo” se compartió una desinformación que decía, falsamente, que el director del Hospital de Clínicas falsificó certificados de defunción para aumentar los datos de muertos por coronavirus. En los de Víctor Hugo Morales, en cambio, se compartió una desinformación que decía que Noam Chomsky aseguró que el nuevo coronavirus fue creado por los Estados Unidos, algo que también era falso.

Esta relación entre política y grupos de periodistas se ve claramente en el grupo “Lanata sin filtro”, un grupo en relación a Jorge Lanata que tiene casi 39 mil miembros. Ese grupo nació en 2016 y tuvo nombres como “Macri para todos y todas” o “MM 2019”, en alusión al ex presidente Mauricio Macri.

Todos tendemos a compartir lo que confirma algo que ya creemos y dudamos de pruebas que desafían nuestras creencias, independientemente de a qué partido apoyemos o cuáles sean nuestros ideales. Este proceso, que los científicos llaman “razonamiento motivado”, es fundamental para entender por qué gran parte de estas desinformaciones se comparten en estos grupos conspiranoicos o partidarios, sobre todo al tratarse de temas polarizados.

“Quienes participan de grupos y comparten un tipo de desinformaciones claras, de las que van en contra de lo que se sabe cuando se consideran las mejores evidencias disponibles, son muchas veces individuos muy movilizados en defender la postura que sostienen. Eso hace que se tomen el trabajo de escribir, y por eso se vuelven más ‘visibles’ esas posturas. Son quizá pocas personas, pero participan mucho. Este comportamiento es algo que vemos mucho en quienes creen ideas conspirativas o en las posturas antivacunas más extremas”, explicó a Chequeado Guadalupe Nogués, doctora en Ciencias Biológicas por la Universidad de Buenos Aires (UBA) y autora del libro Pensar con otros: una guía de supervivencia en tiempos de posverdad.

Además, en cuanto a la partidización de temas pandémicos, Nogués comparó la situación de la Argentina, donde ya el 80% de personas recibieron su esquema completo, con otros países como Estados Unidos, donde la campaña de vacunación tiene, por lo menos hasta ahora, peores resultados.

“En Estados Unidos, por ejemplo, hubo mucha alineación entre la postura política, las actitudes hacia la pandemia o las vacunas, y el comportamiento: en líneas generales hubo mucha brecha entre republicanos y demócratas, en donde los republicanos se oponían más al confinamiento, uso de tapabocas y vacunación. Ahora esa brecha está disminuyendo, pero hasta hace poco era mucho más probable que un adulto no vacunado contra COVID-19 fuera republicano”, explicó Nogués sobre la situación estadounidense.

Pero en la Argentina pasó algo diferente: “Aunque se vio una partidización a nivel del discurso público, en el comportamiento no hubo diferencias apreciables: la mayoría de la ciudadanía usó tapabocas y se vacunó, independientemente de su postura partidaria”.

Al ser consultados por esta nota, desde Meta, la empresa que controla a Facebook, afirmaron que tomaron “varias medidas para combatir la desinformación en los grupos, como reducir su distribución para que sea menos probable que las personas vean el contenido”. Además, agregaron que “aquellos grupos que reiteradamente comparten contenido calificado por verificadores de información como falso o alterado enfrentarán sanciones que pueden durar 90 días, como perder su capacidad de publicitar”. Y también aclararon que tienen políticas especiales durante emergencias de salud pública, como la pandemia de COVID-19, ya que definieron eliminar “la desinformación que puede exponer a las personas a un daño físico inminente, incluyendo las teorías conspirativas relacionadas con las vacunas».

Sabemos que muchas personas han creído alguna de estas cientos de desinformaciones que circularon en el país durante la pandemia. Y también sabemos que muchas de las desmentidas no tuvieron el mismo alcance que las desinformaciones que desmentían. Conocer cómo actuaron estos distintos actores desinformantes durante la pandemia no va a ser suficiente para reparar el enorme daño que hicieron en la salud pública mundial, pero saber quiénes son, cómo funcionan y qué buscan estos grupos desinformantes seguro va a ayudar a que en la próxima pandemia el daño sea menor.

Equipo de Mentiras Contagiosas:

Ilustración para logo: Miguel Méndez; Caricatura portada: Santiago Quintero.

Mentiras Contagiosas tuvo el apoyo de la Open Society Foundations, The Atlantic Foundation y Logan Foundation

 

Mentiras Contagiosas es un trabajo coordinado por el Centro Latinoamericano de Investigación Periodística – CLIP en el que participan Chequeado de Argentina, Bolivia Verifica de Bolivia, Aos Fatos de Brasil, Colombiacheck y Cuestión Pública de Colombia, Efecto Cocuyo de Venezuela, Agencia Ocote de Guatemala, Animal Político de México y El Detector de Univisión de Estados Unidos.

Viernes, 25 Marzo 2022

La ciencia que sí dominan los propagadores del dióxido de cloro

Por Colombiacheck y CLIP

Al seguir cómo y quiénes distribuyeron miles de mensajes, citando hallazgos de ensayos clínicos que pretendían probar el poder curativo del dióxido de cloro, se devela cómo la Coalición Mundial por la Salud y la Vida ha perfeccionado su efectivo método desinformador.

Autores

  • Jose Luis Peñarredonda
  • Jeanfreddy Gutiérrez
  • Sharon Mejía
  • Pablo Medina

En los dos años de pandemia ha sido persistente y amplia la conversación digital sobre las supuestas propiedades milagrosas del dióxido de cloro para tratar el Covid-19. Tan solo en español han aparecido 680.000 menciones de la sustancia química en redes sociales y sitios virtuales en América Latina. Dentro de esta gran charla virtual, la promoción que hace la Coalición Mundial por la Salud y la Vida (Comusav), una red de devotos del químico extendida por la región, es pequeña. Sus menciones apenas representan el 1,9 por ciento del total de las referencias. Sin embargo, su influencia ha sido muy efectiva para legitimarlo.

¿Por qué ha llegado tan lejos la propaganda de la Comusav? ¿Cuál es fórmula de mercadeo estos curanderos del siglo XXI para encantar a tanta gente, convenciéndola de que su químico —prohibido por su potencial toxicidad en muchos países del mundo — es medicina salvadora?

Un análisis de cómo fluyeron y se compartieron esos mensajes de la Comusav realizado por el Centro Latinoamericano de Investigación Periodística (CLIP), con el apoyo pro bono de Constella Intelligence, una firma mundialmente conocida en análisis de big data de la conversación pública, le siguió los pasos a la receta desinformadora de Comusav y descubrió cómo es que convence a sus entusiastas y consumidores. Este análisis hace parte de la investigación periodística transfronteriza y colaborativa Mentiras Contagiosas, sobre la desinformación y el Covid-19 en América Latina. Los socios de este proyecto coordinado por el CLIP —Univisión (Estados Unidos), Animal Político (México), Agencia Ocote (Guatemala), Efecto Cocuyo (Venezuela), Colombia Check y Cuestión Pública (Colombia), Bolivia Verifica (Bolivia), Chequeado (Argentina) y Aos Fatos (Brasil) son medios independientes de la región, muchos de ellos con una larga experiencia en la verificación de información pública, han producido una decena de piezas periodísticas que muestran cómo ha cundido la información deliberadamente falseada, quiénes han estado detrás y cuáles son los intereses que los empujan.

En efecto, los mercaderes de Comusav, cuyo entramado empresarial y político revelamos en otra de las historias de esta investigación colectiva, influyen más que otros actores de mayor actividad digital. “Son mayoritariamente presentados como doctores o expertos y participan en diferentes eventos o jornadas, o conceden entrevistas a televisiones o radios”, explican los analistas de Constella. Así buscan legitimar el discurso alrededor de esta sustancia. “Por esa pátina de respetabilidad pueden hacer sus teorías algo más permeables que las de otros, tal vez negacionistas más influyentes y activos en redes”, argumenta la firma.

El CLIP le hizo seguimiento a dos estudios médicos firmados por algunos de sus asociados y descubrió cómo a pesar de su falta de base científica, fluyeron mensajes aseverando que eran pruebas contundentes de la eficacia de la solución mineral por 65 grupos y canales en Telegram —un servicio de mensajería de origen ruso que es hoy un canal central de difusión de desinformación en contra de las vacunas— y por Facebook.

La prueba clínica que no fue

Un primer ejemplo de esta estrategia es la difusión de una prueba clínica de dióxido de cloro en pacientes con COVID-19, que se inició en 2020 con 20 pacientes en Bogotá y Madrid (un municipio aledaño a la capital colombiana) y en cuya documentación dice que finalizó en junio de ese año, pero no incluye resultados.

La prueba fue organizada por los colombianos, el médico Eduardo Insignares Carrione, quien fue presidente de Comusav Colombia (y que según el registro único colombiano de talento humano se graduó de medicina en mayo de 1982) y su esposa Blanca Bolaño. Insignares además firma sus artículos académicos como director de investigación de en una empresa del alquimista e inventor alemán Andreas Kalcker, principal promotor del dióxido de cloro en Latinoamérica, obispo de la iglesia que repartía como sacramento el dióxido de cloro G-2, y citada autoridad en la materia. (Ver su historia en En virus revuelto ganancia de charlatanes). También participó Yohanni Andrade, quien prestaba servicios profesionales en el Hospital San Carlos de la capital colombiana.

ClinicalTrials.org, un sitio especializado en informar sobre pruebas o tests, anunció el 13 de abril de 2020, que el test de Insignares se llevaría a cabo entre abril y junio de ese año, con “un diseño cuasi experimental en dos centros de atención médica en una muestra de veinte pacientes”. Aseguraron que entre los pacientes habría varios profesionales de la salud relacionados con la Fundación Génesis (no tiene relación con la iglesia) y pacientes voluntarios y que recibirían “la preparación de base de dióxido de cloro de 3.000 partes por millón (ppm) con instrucciones escritas y precisas sobre cómo prepararla y tomarla”.

Apenas dos días después de publicado el anuncio del test, personas en Facebook empezaron a compartir la liga o link a ese anuncio. Un grupo que promueve al partido español de ultraderecha Vox, con una cifra de seguidores relativamente modesta, fue el primero de republicarlo. Otros grupos pequeños, que difunden teorías de conspiración y de ideas conservadoras, también compartieron el anuncio de la prueba, con poco éxito. Pero el 18 de abril lo publicó un grupo con 300.000 fanáticos de temas esotéricos, administrado desde España, y ahí se propagó velozmente.

A medida que fue pasando de mano en mano, el mensaje fue cambiando. Un contenido que se volvió viral dice, por ejemplo, que “el instituto de salud norteamericano” era el responsable de la prueba, aunque lo único que había era un anuncio de que se haría un test en un hospital de Bogotá, en el que se advierte de que “el registro de este estudio no significa que éste haya sido evaluado por el gobierno de EE. UU”.

El contenido viral también argumentaba que esta prueba era el “resultado” de la decisión del entonces presidente estadounidense Donald Trump de retirar a su país de la OMS, una movida que fue celebrada por los promotores de las falsas curas contra el Covid como un respaldo a sus teorías alternativas. Estas falsedades se repitieron al menos en otros ocho mensajes difundiendo el estudio en Facebook y Telegram.

Coincidencialmente, a los pocos días de publicado este estudio, el entonces presidente Trump les sugirió a miembros de su equipo científico que investigaran si una inyección de lejía (decol o hipoclorito sódico) podría curar el Covid.

Estos mensajes, entre otros, circularon en Telegram y Facebook difundiendo elestudio clínico.

Además, este grupo de seguidores de lo esotérico publicó el enlace junto a un video de Andreas Kalcker en el que describía el mecanismo por el cual el dióxido de cloro “oxida” a las células y “cura” el Covid. El mensaje de Kalcker fue desmentido al poco tiempo por medios de verificación como Chequeado, pionero en la verificación de noticias falsas en Argentina que conforma esta alianza periodística.

En Facebook, el enlace al estudio clínico fue compartido 771 veces, en grupos y páginas de temas tan variados como esoterismo, partidos políticos de líneas opositoras e incluso avisos clasificados. En promedio, estas páginas o grupos tenían una audiencia 30.000 usuarios cada uno, pero al menos ocho de ellos pasaban de los 300.000.

En Telegram, la noticia de la prueba clínica también voló. El primer mensaje que la llevaba apareció el 21 de abril de 2020, en un grupo que apoyaba las marchas pro dióxido de cloro que por esa época se organizaban en Perú. Desde entonces y hasta febrero de 2022, según las cifras que arrojó nuestro análisis, el enlace al estudio clínico se replicó al menos en 81 ocasiones adicionales por esa red, en mensajes que fueron vistos 527.000 veces.

Los grupos o canales que difundieron el supuesto éxito del ensayo clínico para demostrar que el dióxido era panacea para el Covid-19 eran menos diversos que los de Facebook. La mayoría están dedicados a promocionar el químico. También vimos que unos de estos eran administrados por personas cercanas a Kalcker o a Comusav y a veces sin ninguna afiliación aparente, manejados por usuarios anónimos.

Algunos de estos grupos incluso difunden instrucciones para consumirlo y listados de vendedores; y otros son largas conversaciones entre usuarios de la sustancia.

Unos pocos grupos que distribuyeron la noticia del test clínico abarcan un espectro más amplio, pues también difunden contenidos antivacunas y relacionados a otras supuestas curas milagrosas contra el Covid-19. Así mismo la prueba resultó atractiva entre quienes propagan teorías de conspiración, discursos antisemitas y propaganda de ultraderecha cercana a la teoría de la conspiración Q-Anon, que ha sido vinculada a aliados del ex presidente Trump.

Made with Flourish

La página web del ensayo nunca reportó resultados, y según un comunicado del Hospital San Carlos, solo tres pacientes alcanzaron a consumir la sustancia. En la comunicación, el hospital rechazó el estudio y el uso del dióxido de cloro, y desmintió tener vinculación laboral con Insignares. Luego se conoció que la institución rescindió el contrato de Andrade, el otro médico que, según el anuncio, había participado en él.

En entrevista con esta alianza periodística, Insignares dijo que el estudio no se concluyó “para evitar conflictuar y generar más ruido en medios”, a pesar de que tenían “un comité de ética aprobado por el hospital”.

No obstante, en su comunicado el hospital aseguró entonces que “no hay ningún documento oficial de dicha investigación en la institución”.

Incluso después de conocerse este fiasco, los amigos del dióxido de cloro siguieron promocionado la fallida prueba clínica como evidencia de sus afirmaciones falsas. El enlace de ClinicalTrials.gov ha sido compartido más de 14.000 veces y ha generado más de 48.500 interacciones en Facebook, según Crowdtangle, una herramienta de medición de redes sociales.

Made with Flourish

Lejos de desprestigiarlo, este revés volvió a Insignares una especie de héroe para los promotores del dióxido de cloro. En Colombia, un grupo de abogados que entabló una acción judicial (una tutela o derecho de amparo) que buscaba frenar el Plan Nacional de Vacunación y también pretendía ordenar al Instituto Nacional de Vigilancia de Medicamentos y Alimentos (INVIMA), el regulador colombiano equivalente al FDA estadounidense, que aprobara “de forma inmediata el estudio del doctor Eduardo Insignares, que avala el dióxido de cloro para la prevención y tratamiento del coronavirus”.

Durante todo 2020, Insignares apareció en entrevistas en medios de comunicación en diferentes países. Dijo a una radio en Honduras el 8 de junio de 2020 que “hay dos mandatarios que están coqueteando con la posibilidad” de aprobar el uso del dióxido de cloro. Y un mes después, mientras Bolivia discutía la aprobación del uso de la sustancia, hizo una gira de medios en en ese país. Fue entrevistado en el noticiero Bolivisión y en la cadena de radio Fides, ambos de alcance nacional. Ya no hay rastro del contenido de la nota en televisión, pero en radio dijo que no había evidencias de su toxicidad. Aseguró además que su familia toma el químico y que “la investigación profunda del dióxido de cloro apenas está empezando”.

La entrevista fue conducida por el periodista John Arandia, uno de los más escuchados de Bolivia. Quizás por eso fue ampliamente difundida en grupos de Facebook en el país. La republicación más popular alcanzó 875.000 reproducciones, y fue compartida más de 26.000 veces en esa red social. Fue el contenido más popular de Insignares desde en esa red social desde el comienzo de la pandemia, en febrero de 2020. No fue este el último experimento del médico colombiano.

Un cuasiexperimento

El 8 de marzo de 2021 se publicó un artículo titulado “Determinación de la efectividad del dióxido de cloro en el tratamiento del Covid-19” en una revista llamada Journal of Molecular and Genetic Medicine. El documento fue firmado por Insignares, Bolaño, Andrade, y los bolivianos Patricia Callisperis (entonces presidenta de Comusav en ese país), Ana María Suxo, Arturo Bernardo Ajata San Martín y Camila Ostria Gonzales.

En él se afirma que se encontró una mejoría del 95% de los pacientes tras 14 días de tomar la sustancia. El estudio dice estar basado en la prueba clínica hecha en Bogotá —cuyos resultados nunca fueron publicados oficialmente—, pero sostiene que fue “multicéntrica” porque incluyó a 20 pacientes en Ecuador, Bolivia, México y Perú, pero ninguno en Colombia. Los pares académicos revisaron el artículo en tiempo récord. En sólo siete días, del 22 de febrero al 1 de marzo de 2021, ya concluyeron que el estudio era válido.

Los cortos tiempos de revisión son un indicio de la baja calidad científica de la revista que publicó el documento. Distintos medios de verificación de hechos, como Colombiacheck o Chequeado (los dos forman parte de esta alianza periodística), anotaron en verificaciones independientes que el estudio tiene fallas metodológicas, de lenguaje científico, de forma e incluso errores geográficos. Los autores se presentaron con credenciales institucionales dudosas y con muchas citas autorreferenciales, incompletas o erráticas que impiden saber a ciencia cierta el origen de la información. Además, la revista ha sido cuestionada por cobrar 2200 dólares por publicar artículos sin hacerles una exhaustiva revisión.

A una conclusión similar llegó un análisis publicado en The Conversation por Tania Romero Allsop y Kevin Navarrete, quienes trabajan como investigadores en el Instituto de Microbiología de la Academia Checa de Ciencias. Allí se detalló el error de hacer un “cuasiexperimento” en que cada participante decidió si tomar o no el dióxido, lo que indujo a posibles sesgos a la hora de valorar si el químico tenía o no efecto. Para que fuera válido el estudio, dicen estos investigadores, tendría que haber sido ‘doble-ciego’ y aleatorio. Es decir, que ni investigadores ni pacientes supieran quién tomó placebo y quién dióxido de cloro hasta el final de los resultados, y que las probabilidades de estar en uno u otro grupo fueran las mismas al comienzo de la prueba.

Además, el estudio no determina si una persona se curó del virus con una prueba reconocida como PCR o medición de la carga viral, lo que daría certeza, sino con una descripción de los síntomas. “Se evaluaron variables subjetivas como el dolor o los escalofríos, justo las características que son más influenciadas por el efecto placebo”, dicen los investigadores.

El artículo es tan problemático que hasta algunos de sus coautores han intentado desmarcarse de él. En abril de 2021, Suxo le dijo a un medio español que promociona el dióxido de cloro y reporta sobre las movidas de Comusav que le parece que el estudio carece de credibilidad y que el contingente boliviano ha intentado que quiten sus nombres de él, sin mayor éxito.

Ante estos señalamientos, Insignares le dijo a este equipo periodístico que las estadísticas de impacto y relevancia de la publicación conde apareció el artículo la hacen “una revista aceptable y promedio”. Dijo además que el mismo documento admite la posibilidad de que se presenten sesgos y efecto placebo. Pero explicó que cuando desaparecen la fiebre y los escalofríos no se puede pensar que esto es un efecto placebo. “Intente quitarse una fiebre con la mente y verá lo difícil que es”, dijo.

Sobre las limitaciones de la metodología del estudio, el médico Insignares admitió que si hubieran utilizado métodos aleatorios y de doble ciego hubiera sido mejor, pero asegura que él y sus colegas no podían correr con los costos de un estudio así y que, aun así, el experimento que hicieron tiene validez científica. “Nosotros hicimos lo mejor que pudimos con los que teníamos a disposición de recursos, siendo metodológicamente estrictos”.

Sobre las diferencias con sus coautores, Insignares dice que se trató de un enfrentamiento personal “bastante incómodo para mí” entre Andreas Kalcker y los coautores bolivianos de la investigación, el cual —asegura — no tiene relación con el contenido del estudio.

Contactada, Patricia Callisperis dijo que no contestaría sin que primero el periodista le enviara su registro de periodista y su curriculum “para enviar a la Asociación Internacional de Periodismo para que estén presentes el día de la entrevista, si esta se realiza. Así no se tergiversarán los hechos”. En Bolivia no existe un registro oficial de periodistas y esta asociación a la que se refiere es desconocida. Al insistirle optó por no dar la entrevista.

La falta de evidencia sólida del estudio de bajos recursos no impidió que los promotores del dióxido de cloro hicieran circular este artículo en redes sociales como supuesta prueba definitiva de la eficacia de la sustancia como tratamiento anticovid. El 8 de abril, en un escueto video difundido en uno de los canales oficiales de Comusav en Telegram, Insignares daba la “primicia” sobre su estudio.

Pronto comenzó una ola de mensajes que lo difundían en el original en inglés o su traducción al español, que muchas veces repetían o incluso exageraban las afirmaciones que están en él. “El dióxido de cloro sí cura el covid 19, después de casi un año de estudios y probado con cientos de personas”, dice un texto del que encontramos 46 republicaciones en esta plataforma. Otro texto, que fue republicado al menos 21 veces, dice que el estudio probaba que “es innecesario cualquier medicamento alternativo o inyección experimental”, refiriéndose a las vacunas.

En total, encontramos 132 mensajes que difundían el artículo en nuestro seguimiento de Telegram, que fueron vistos 1,2 millones de veces en esa plataforma. Es interesante notar que los mensajes más sobrios venían de los canales oficiales de Kalcker o Comusav, mientras que los que distorsionaban los supuestos hallazgos normalmente venían de grupos sin una afiliación aparente.

En Facebook, la difusión de este documento fue inferior a la que obtuvo el estudio clínico. Encontramos 96 republicaciones del artículo, la mayoría de ellas en páginas y grupos dedicados a la difusión de temas esotéricos o teorías de la conspiración, con una audiencia promedio cada uno de 24.700 usuarios. Los posts tuvieron un total de 1.286 interacciones, una fracción de las obtenidas por el link del estudio clínico publicado en 2020.

Made with Flourish

El estudio encontró eco en algunos sitios web. El más popular fue un medio costarricense llamado Cambio Político, cuyo reporte (hoy borrado) obtuvo 10.000 interacciones en Facebook y fue compartido en una veintena de grupos y páginas, según Crowdtangle. Además, la boliviana Karla Revollo, con gran influencia en redes, entrevistó a Insignares en su programa de radio que difunde terapias medicinales alternativas. Revollo es la directora internacional de comunicación de Comusav.

Así, Insignares ha construido una influencia que le permite hoy presentarse como un supuesto líder científico. Cada vez que le dan la oportunidad, aparece en los congresos de América Latina pidiendo «apoyo para hacer más estudios científicos y clínicos”. También ha dicho que las muertes se han subido después de la vacunación, una afirmación contraria a la realidad de Latinoamérica, un continente en el que en la mayoría de los países el 70 por ciento de la gente tiene al menos una dosis de la vacuna (ver mapa interactivo Los pasos de Comusav en América).

Del análisis de estos dos estudios espurios se puede ver con claridad que sí hay un método probado que estos promotores del dióxido de cloro de Comusav dominan bien. Pero no es la ciencia para curar el Covid-19, sino la de cómo diseminar su desinformación con eficacia.

Producen “estudios” que en apariencia parecen sustentados. Sus propios militantes producen los documentos, los publican en medios que también tienen la pose de contener ciencia, pero no resisten una verificación. Su red o la de sus aliados los comentan y comparten profusamente en comunidades digitales de promotores y simpatizantes del dióxido de cloro y simpatizantes de las teorías de conspiración. Y de vez en cuando consiguen que la apariencia de ciencia legítima convenza a incautos, que asustados por el mortal virus, y sin vacunas accesibles, se vuelvan clientes de los múltiples negocios que han montado alrededor del dióxido de cloro. Desafortunadamente, algunos de esos mensajes también son republicados sin chistar por medios de comunicación, que por supuesto masifican a la fraudulenta cura.

Carolina Méndez, Joaquín Martela y Marcelo Blanco de Bolivia Verifica hicieron reportería desde Bolivia. Mago Torres, parte del equipo de CLIP, colaboró en el diseño del análisis de datos de redes sociales.

Equipo de Mentiras Contagiosas:

Dirección y edición: Pablo Medina Uribe y María Teresa Ronderos; Producción: Luisa Fernanda López; Desarrollo web: Diego Arce; Análisis y visualización de datos: Rigoberto Carvajal y José Luis Peñarredonda; Gerencia: Emiliana García; Grabación testimonios: Àngela Cantador; Ilustración para logo: Miguel Méndez; Caricatura portada: Ditto.

Este trabajo contó con apoyo en Investigación de Olaya Grueso de Correctiv. El 20 hizo la revisión legal de los textos.

Mentiras Contagiosas tuvo el apoyo de la Open Society Foundations, The Atlantic Foundation y Logan Foundation

Mentiras Contagiosas es un trabajo coordinado por el Centro Latinoamericano de Investigación Periodística – CLIP en el que participan Chequeado de Argentina, Bolivia Verifica de Bolivia, Aos Fatos de Brasil, Colombiacheck y Cuestión Pública de Colombia, Efecto Cocuyo de Venezuela, Agencia Ocote de Guatemala, Animal Político de México y El Detector de Univisión de Estados Unidos.