Visitanos tambien en:

viernes, 10 de julio de 2020

FALLARON CIFRAS del "MODELO MIENTOMATICO": MALA CALIDAD de los DATOS HA HECHO ERRAR al "MALETA de GATELL"...como en toda la 4T,la intención es buena,el método es bueno,su implementación es mala.

En un hecho inusual, el subsecretario de prevención y promoción de la Secretaría de Salud, Hugo López-Gatell, realizó el pasado 25 de junio un alegato en defensa de sus estimaciones sobre la duración de la pandemia causada por el virus SARS-Cov-2 en México. 
Apoyado en un vídeo en el que reiterativamente aparece como protagonista principal, sostuvo que desde que comenzó la propagación de covid-19 en México, había dicho que sería una epidemia larga. El estímulo que provocó su alocución, fue una nota aparecida la mañana de ese mismo día en la primera plana del periódico Reforma y en otros medios —ampliamente difundida en las redes sociales— en la que se recordaba al epidemiólogo que dos meses atrás, apoyado en una gráfica con las estimaciones surgidas de un modelo matemático sobre el curso de la epidemia en el Valle de México, había dicho que ésta concluiría precisamente el 25 de junio, fecha en la que lejos de terminar, el número de contagios seguía creciendo, concentrando el mayor número de casos confirmados y muertes a nivel nacional.
En mi opinión, en este episodio el tema relevante no es la obsesión del subsecretario por mostrar que siempre tiene razón y que la estrategia diseñada por él ha sido exitosa, a pesar de esta y otras evidentes fallas, sino el papel que hasta ahora han desempeñado los modelos matemáticos en el manejo de la epidemia. La gráfica en cuestión, era una de las primeras predicciones que se hacía pública sobre la evolución de los contagios en la Ciudad de México y su zona conurbada; fue difundida en presencia del presidente Andrés Manuel López Obrador y adoptada como modelo del comportamiento de la enfermedad a nivel nacional.
Como no soy matemático me voy a referir sólo a los aspectos del modelo que me parecen de interés general. Los lectores interesados en los detalles del mismo, pueden consultar el artículo o preprint de los autores a quienes me referiré a continuación, y de otros expertos que citaré adelante.
Secrecía y posterior apertura
En nuestro país los pronósticos probabilísticos de la pandemia de covid-19 se realizan a partir de los modelos que son elaborados por especialistas mexicanos. Los que ha venido utilizando la Secretaría de Salud (SSA), son creados por expertos de dos instituciones: Marcos Capistrán y Andrés Chisten, del Centro de Investigación en Matemáticas (Cimat), uno de los 26 Centros Públicos de Investigación adscritos al Consejo Nacional de Ciencia y Tecnología (Conacyt); y Antonio Capella, investigador del Instituto de Matemáticas de la Universidad Nacional Autónoma de México (UNAM). Juntos han creado el modelo AMA (siglas que corresponden a sus nombres, Antonio, Marcos y Andrés). El proyecto forma parte del “Grupo de Respuesta COVID19” del Conacyt, coordinado por Paola Villareal Rodríguez, y María Elena Álvarez-Buylla Roces, coordinadora de Proyectos de Ciencia de Datos y directora general de ese organismo, respectivamente.
Estos modelos han servido para hacer predicciones sobre el comportamiento en el tiempo del número de contagios, la ocupación de camas en hospitales (generales y de cuidados intensivos) y las muertes por covid-19, datos que han servido para la toma de decisiones ante la epidemia (o al menos para aparentar un sustento científico en algunos mensajes políticos). Sobre las características del modelo, salvo algunas consideraciones generales reveladas por los investigadores citados en entrevista realizada por una publicación virtual, durante varios meses permanecieron en un inexplicable hermetismo.
Una nota publicada en el diario español El País, dio cuenta de la declaración del doctor José Luis Alomía Zegarra, director general de epidemiología de la SSA, quien ante la pregunta sobre las características de este modelo matemático, aseguró que era “propiedad intelectual de Conacyt” y, por ahora, no es público. Así, el halo de secreto en torno al modelo AMA comenzó a crear inquietud y gran inconformidad en diversos sectores de la comunidad científica.
Ante la evidente confusión en la presentación de los resultados de las predicciones, en aspectos como el punto máximo en el ascenso de las curvas de contagios en diversas entidades federativas, y la duración y fin de la epidemia, las preguntas crecían sobre la forma en la que se realizaban estas estimaciones. También había dudas sobre el origen de los datos para los cálculos matemáticos, pues se había pasado de la exaltación al abandono de los surgidos del modelo centinela examinados por Arturo Ederly (lo mismo ocurrió con una fugaz estrategia basada en los llamados “municipios de la esperanza” libres o con reducido número de contagios, también desechada). Lo anterior revelaba amplias oscilaciones en las ideas de las autoridades responsables del manejo de la epidemia.
Especialistas en diversas disciplinas realizaron críticas públicas a las predicciones, señalando los efectos negativos de mantener ocultas las características del modelo. Para el doctor Andreu Comas, por ejemplo, “seguimos sin conocer la metodología del modelo AMA incluyendo su estructura de ecuaciones, los supuestos bajo los cuales trabaja, sus parámetros y limitaciones, lo que dificulta un diálogo enriquecedor entre la comunidad científica”.
En una conferencia a la que amablemente fui invitado por el Planetario de Cozumel Cha`an Ka`an el 24 de mayo, hice notar la contradicción entre la secrecía en la que se mantenían las actividades coordinadas por el Conacyt –no sólo en el caso de los modelos– con los principios expresados por el presidente respecto a información sobre la pandemia, así como con las leyes de nuestro país. El jefe del Ejecutivo había dicho en reiteradas ocasiones que por “honestidad, convicción y principios” en el manejo de la información de la pandemia debían prevalecer la verdad y la transparencia.
La Ley de Ciencia y Tecnología en sus artículos 64 y 65, es muy clara al señalar que es función del Conacyt democratizar la información científica, poniendo el conocimiento al alcance de especialistas y la población en general; establece el acceso abierto a “materiales educativos, académicos, científicos, tecnológicos y de innovación, financiados con recursos públicos o que hayan utilizado infraestructura pública en su realización”. Por si fuera poco el recientemente reformado Artículo Tercero Constitucional en su fracción V indica: “(…) El Estado apoyará la investigación e innovación científica, humanística y tecnológica, y garantizará el acceso abierto a la información que derive de ella”.
Así, no había justificación alguna para invocar derechos de propiedad intelectual o acuerdos de confidencialidad sobre las características del modelo.
En medio de este debate se produjo por fin un cambio en la postura del Conacyt y el 5 de junio organizó el seminario titulado: “Pronósticos de demanda hospitalaria por brotes epidémicos de COVID-19”, en el que los tres científicos creadores del modelo explicaron sus características. Además de que con ello el Conacyt intentaba dejar atrás las nociones de propiedad intelectual invocadas por Alomía, el evento permitió ver muchas otras cosas. Primero, el gran compromiso de los científicos mexicanos para enfrentar los efectos de la pandemia en México, en este caso desde el área de las matemáticas, una ciencia que por falta de información se piensa alejada de la realidad y de la solución de problemas específicos. Quedó plenamente demostrado que esa apreciación es falsa.
En el seminario, Capella, Capistrán y Christen explicaron que el propósito del modelo AMA era responder a preguntas específicas: a) la fecha del pico máximo o acmé del brote, b) la demanda de camas de hospital y c) la de unidades de terapia intensiva.
En su exposición, se centraron en las proyecciones de la demanda de camas hospitalarias para pacientes con covid-19 y los que requieren unidades de cuidados intensivos. Sus cálculos, según lo explicaron, fueron muy cuidadosos y empleando márgenes holgados, conscientes de que ahí se juegan vidas humanas. Fueron cuidadosos también en no desacreditar cifras y acciones del gobierno en el manejo de la epidemia, aunque en la parte final mostraron que su modelo puede ser útil también para revelar inconsistencias en los datos.   

Las inconsistencias

El último en tomar la palabra fue Antonio Capella, (el único perteneciente a una institución autónoma) quien fue más allá de la estimación de los requerimientos hospitalarios y se refirió de forma breve (pero sustanciosa) al cálculo del pico en el número de casos y a las muertes. La evolución en el número de infectados en el Valle de México mostraba una clara discrepancia con las predicciones del modelo (rebasando los márgenes superiores estimados), inconsistencia que obligó a los matemáticos a realizar una modificación importante. En los casos confirmados lograron hacer la corrección, sustituyendo el dato original considerando ahora la fecha de inicio de los síntomas, con lo cual lograron un ajuste más satisfactorio. Lo anterior demostraba que el modelo era muy sensible a las cualidades de los datos que lo alimentan.
Pero a pesar de este ajuste las inconsistencias continuaron. En la conferencia vespertina del 8 de junio, López-Gatell mostró nuevamente la gráfica correspondiente al Valle de México, siendo más que evidente que los datos reales rebasaban nuevamente la predicción del modelo. Insistió en que el pico máximo se alcanzó en la fecha que él había anticipado (6-8 de mayo) pero el número de casos se ha mantenido posteriormente en lo que él considera una meseta (habría que ver cuál es la función que mejor se ajusta a la totalidad de esos datos) que para ese momento duraba ya más de 20 días. Ante esta discrepancia, el subsecretario no ofreció una explicación satisfactoria, aunque insinuó, que había “modificaciones en la conducta social”. Dicho en otras palabras, la culpa de que las predicciones del modelo no correspondieran con la realidad, era de la gente.

De mal en peor

Como ocurre con todos los elementos que no concuerdan con su narrativa, López-Gatell comenzó a restar valor al modelo y relativizar su importancia, como se desprende de sus dichos en la conferencia vespertina del 13 de junio, en la que subrayó la gran incertidumbre en la que se mueven los modelos:
Las predicciones o proyecciones matemáticas no son un acto de magia, son una proyección, una predicción que utiliza métodos robustos para intentar tener una representación de un fenómeno que en sí mismo tiene una gran incertidumbre, igual que la predicción de huracanes, igual que la predicción de terremotos…
Unos días después, durante su conferencia del 17 de junio, se hizo aún más patente la discordancia entre las curvas estimadas con el modelo AMA y los datos en varios parámetros. El caso del Valle de México fue sin duda uno de los más llamativos, no solamente porque el número de casos confirmados y las hospitalizaciones escaparon completamente a la predicción matemática, sino porque además, como señalé arriba, había servido como representativa del comportamiento de la epidemia a nivel nacional, y se había utilizado para hacer decir al presidente el día en el que supuestamente se alcanzaría el acmé de la curva, el aplanamiento” de la misma y presumir que la epidemia había sido domada. En el mismo caso se encontraban la mayor parte de los estados o ciudades seleccionados ese día, entre ellos Sonora, Veracruz, Tijuana, Mexicali, Cancún, Culiacán, Villahermosa y Acapulco. En suma, un desastre.
En síntesis, no funcionó el modelo para anticipar el fenómeno en su totalidad, y eso no lo digo yo. En su informe correspondiente al 18 de junio, Capella, Capistrán y Christen señalan: “A partir de los últimos reportes es claro que el modelo AMA ha perdido capacidad predictiva y no ajusta bien la dinámica de la epidemia después de los acmés” (así lo escribieron, en negritas).

¿Por qué no funcionó?

La gran pregunta es, desde luego, por qué los pronósticos con esta herramienta matemática no se ajustan o lo hacen parcialmente a la realidad. Hay al menos tres elementos que habría que considerar: a) las limitaciones del propio modelo, b) los “cambios en la conducta social” y c) los datos suministrados. Sobre el primer punto los autores reconocieron desde el principio que había limitaciones y dijeron cuáles eran. Primero, su alcance no es nacional, funciona a nivel de ciudades y si acaso para algunos estados de la República. Pero esta no es una causa que explique la falta de ajuste en casos locales, como el del Valle de México y otras regiones o entidades.
Es cierto que el modelo no considera la percepción de riesgo que pueden tener los individuos. Este punto es importante, pues abre la puerta a los argumentos del subsecretario Hugo López-Gatell sobre “cambios en la conducta social” como explicación de las inconsistencias. Estas modificaciones se refieren principalmente al incremento de la movilidad. El método de evaluación con que cuenta la SSA, se basa las mediciones que realiza un equipo del Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (Infotec), también adscrito al Conacyt, quienes analizan datos de las redes sociales, en especial de Facebook, Google y Twitter.
Es muy aventurado pensar que toda la población tiene acceso a internet o tiene cuentas en estas redes, pero aceptando que fuera un buen indicador de la movilidad, para el caso de la Ciudad de México este argumento no resulta sólido, pues ha sido una de las entidades federativas más disciplinadas. El primero de junio, al concluir la jornada de confinamiento (sana distancia), la reducción de la movilidad era de -64 %. No queda claro si este dato considera a los municipios del Estado de México (Edomex) que integran la zona conurbada, pero si se observa a esta última entidad por separado, se aprecia en ese momento una disminución en la movilidad mexiquense de -49 %.
Posteriormente, la movilidad si aumenta, pero a partir de la etapa conocida como “Nueva Normalidad”, que implica el retorno paulatino a las actividades productivas y que fue una especie de llamado a salir a las calles. Sin embargo, en la Ciudad de México se incrementa ligeramente a -56 % (que en mi opinión sigue siendo muy buena) y en el  Edomex a -42 %. Se podría afirmar entonces que el cambio en la conducta social, evaluado como aumento de la movilidad, no es por responsabilidad de las personas, sino en todo caso respondería al llamado del gobierno a retornar a las actividades productivas y la puesta en marcha de un semáforo cuyos colores, aunque no están definidos por criterios médicos y científicos, estimulan a la población a salir de sus casas.
El tercer aspecto es muy interesante, pues los creadores del modelo identificaron varios problemas relacionados con los datos de entrada, entre ellos la continua actualización de los registros pues, según dijeron, por ejemplo los días 22 y 27 de mayo, se actualizaron los casos confirmados y los decesos de un mes antes “algo que no se había observado con anterioridad durante el brote”.
Al respecto, Raúl Rojas profesor de la Universidad libre de Berlín comentó en un texto periodístico: “Aunque se utilizara el mejor modelo matemático posible, si éste es alimentado con datos erróneos o incompletos, no va a proporcionar un reflejo fehaciente de la realidad”. Esta explicación nunca ha formado parte las hipótesis que hasta ahora han planteado las autoridades sanitarias.
Es importante subrayar que el punto de partida, es decir, los datos que alimentan el modelo, provienen solamente de una fuente, la SSA, y son sólo dos, de acuerdo con lo dicho por los investigadores en el seminario: a) los casos confirmados hospitalizados y b) las muertes por covid-19 confirmadas. Si es así, pues estamos perdidos.
Para decirlo rápido, en México no sabemos cuántas personas se han contagiado. Sí, es un problema no sólo de nuestro país, pues lo enfrentan casi todas las naciones del mundo. Pero no hacer pruebas suficientes impide no sólo llevar un conteo eficiente del número de casos, sino además, impulsar una estrategia adecuada de contención. No voy a abundar aquí sobre el bajo número de pruebas que se realizan en México pues es algo sobre lo que ya ha corrido mucha tinta. Simplemente quiero añadir mi sorpresa, pues negar valor a un número suficiente de pruebas, se ha convertido incluso en timbre de orgullo de nuestras autoridades sanitarias, como puede constatarse en la declaración del secretario de salud, Jorge Alcocer Varela del 5 de mayo en la conferencia matutina del presidente López Obrador:
(…) quisiera yo que me acompañaran en esta reflexión del informe que todos los días, día tras día, presenta el doctor Hugo López-Gatell, y que hoy no faltará. Trae consigo la emergencia de un nuevo científico, una nueva forma de pensar en la ciencia, diciendo no a la recolección ciega de hechos y sí a la interpretación racional de los datos.
Esta arrogancia supondría que en la mayoría de las naciones del mundo que han tenido éxito en el control de la pandemia, los médicos y científicos que encabezan los sistemas de salud y que realizan un gran número de exámenes, son unos tontos que no se han dado cuenta que no hacer pruebas o hacerlas en poca cuantía es el fundamento de un nuevo paradigma científico…
Sobre el segundo insumo, las muertes, como se ha documentado en varios estudios lo que predomina es una gran incertidumbre. Mediante la revisión de las bases de datos publicadas por la Dirección General de Epidemiología de la SSA, Jorge Andrés Castañeda y Sebastián Garrido, han analizado la variación temporal del número de muertes que ocurren en una fecha específica. Demuestran con gran detalle que no hay certeza sobre el número de decesos de personas con covid-19 que ocurren y se informan cada día, pues para una fecha determinada, se incluyen los decesos ocurridos en los días anteriores, proceso que pueden abarcar incluso las tres semanas previas. El conocimiento de las muertes que realmente ocurren en un día en particular, requiere de un tiempo de espera que puede extenderse a varias semanas. Aunque el trabajo citado se dirige principalmente al análisis de los fallecimientos, incluye un apartado en la que muestran que la misma incertidumbre se observa en las fechas de inicio de los síntomas de los casos confirmados. Los autores advierten que esto tiene implicaciones importantes en la manera en que se entiende y comunica la evolución de la pandemia, las decisiones de política pública que se toman para enfrentarla y, desde luego, para la construcción de modelos.
Sobre las muertes prácticamente no sabemos nada. Los excelentes artículos de Mario Romero Zavala y Laurianne Despeghel publicados en Nexos, en los que realizan el examen comparativo de las actas de defunción en el Registro Civil de la Ciudad de México, revela un exceso de la mortalidad de 14, 868 casos hasta el 31 de mayo de 2020 respecto al promedio de fallecimientos acumulados entre 2016 y 2019 en el mismo periodo. Desde luego, no significa que esta gran diferencia (190 %) corresponda en su totalidad a covid-19, pero refuerza la idea de la gran subestimación en los datos de muertes por esta enfermedad reportadas por las autoridades. A la misma conclusión han llegado otros especialistas empleando diferentes abordajes. Esto ha sido reconocido ya por el subsecretario López-Gatell, quien en una entrevista al diario The Whashington Post, aceptó que las cifras de muertes puede ser tres veces más alta de la reportada todos los días en sus informes. Ahora, junto con las autoridades del gobierno de la Ciudad de México, se realiza un examen más a fondo de las actas del Registro Civil de la entidad. Como quiera que sea, puede afirmarse que los insumos proporcionados a los investigadores para echar a andar el modelo AMA, no corresponden con la realidad.
Quizás por esta razón, Antonio Capella, Marcos Capistrán y Andrés Chisten decidieron crear otro modelo, que se llama AMA-2, el cual suponen puede tener un valor predictivo que alcance la totalidad del fenómeno. La nueva versión requerirá, desde luego, de una explicación y quizá de un seminario adicional. 
Es importante señalar que los especialistas creadores del modelo AMA, han actuado con gran honestidad, exponiendo con claridad no sólo las ventajas, sino también las limitaciones del modelo. Luego de su presentación pública, creo que se han empoderado, lo cual es muy positivo, pues el mensaje entre líneas –que al menos subjetivamente yo recibí– durante su presentación, es que no van a ser utilizados como instrumento para justificar nada. Esperemos que así sea.
Finalmente, para responder a la pregunta inicial, creo que todo lo anterior permite proponer que el modelo matemático no fue lo que falló, y que el origen de las discrepancias se encuentra en la mala calidad de los datos con los que fue alimentado dicho modelo. 
fuente.-Javier Flores
Médico y periodista científico.(imagen/twitter)

No hay comentarios.:

Publicar un comentario

Tu Comentario es VALIOSO: