Desarrollo de un clasificador de imágenes
con una herramienta Non-Code para procesamiento
de electrocardiograma con IAM

https://doi.org/10.22201/dgtic.30618096e.2025.3.4.139
Vol. 3, Núm. 4. octubre-diciembre 2025

Desarrollo de un clasificador de imágenes con una herramienta Non-Code para procesamiento de electrocardiograma con IAM

Información del reporte:

Licencia Creative Commons

El contenido de los textos es responsabilidad de los autores y no refleja forzosamente el punto de vista de los dictaminadores, o de los miembros del Comité Editorial, o la postura del editor y la editorial de la publicación.

Para citar este reporte técnico:

Borrayo Sánchez, B., Lima Sánchez, D. N., Camacho Morales, J. A., y Aloya Sansores, A. (2025). Desarrollo de un clasificador de imágenes con una herramienta Non-Code para procesamiento de electrocardiograma con IAM. Cuadernos Técnicos Universitarios de la DGTIC, 3 (4). https://doi.org/10.22201/dgtic.30618096e.2025.3.4.139

Gabriela Borrayo Sánchez

Facultad de Medicina
Universidad Nacional Autónoma de México

gabriela.borrayo@unam.mx

ORCID: 0000-0001-8531-9923

Dania Nimbe Lima Sánchez

Facultad de Medicina
Universidad Nacional Autónoma de México

dlima@facmed.unam.mx

ORCID: 0000-0002-3647-6540

Jorge Alejandro Camacho Morales

Facultad de Medicina
Universidad Nacional Autónoma de México

jacm@facmed.unam.mx

ORCID: 0009-0009-2987-3079

Alejandro Alayola Sansores

Facultad de Medicina
Universidad Nacional Autónoma de México

ale.alayola@unam.mx

ORCID: 0009-0002-8864-4152

Resumen:

El infarto agudo de miocardio con elevación del ST representa una emergencia médica que requiere una intervención inmediata. Se evaluó un modelo de inteligencia artificial multimodal que integró datos visuales de electrocardiogramas y texto clínico, con el fin de mejorar la precisión diagnóstica en comparación con la evaluación realizada por especialistas. El estudio fue de tipo observacional retrospectivo, empleando datos previamente recolectados. Se aplicaron procesos de limpieza de imágenes y textos, se utilizó una arquitectura basada en redes neuronales convolucionales y recurrentes, así como se realizó una validación cruzada con métricas como área bajo la curva y F1-score. Los resultados mostraron una precisión diagnóstica del 90% para la identificación de infarto de miocardio con elevación del segmento ST y una concordancia con el especialista medida por el coeficiente Kappa de Cohen de 0.90. Estos hallazgos indicaron que el modelo multimodal podría representar una herramienta eficaz para apoyar el diagnóstico clínico. Se concluyó que es necesaria la optimización del modelo para clasificar electrocardiogramas normales y su reentrenamiento con datos poblacionales específicos para evitar sobreajuste.

Palabras clave:

Inteligencia artificial, electrocardiograma, diagnóstico, infarto agudo de miocardio, modelo multimodal.

Abstract:

Acute ST-segment elevation myocardial infarction represents a medical emergency requiring immediate intervention. A multimodal artificial intelligence model that integrated visual data from electrocardiograms and clinical text was evaluated to improve diagnostic accuracy compared to specialist evaluation. The study was retrospective, observational and used previously collected data. Image and text cleaning processes were applied, an architecture based on convolutional and recurrent neural networks was used, and cross-validation was performed with metrics such as area under the curve and F1 score. The results showed a diagnostic accuracy of 90% for the identification of ST-segment elevation myocardial infarction and specialist agreement measured by Cohen's Kappa coefficient of 0.90. These findings indicated that the multimodal model could represent an effective tool to support clinical diagnosis. It was concluded that model optimization is necessary to classify normal electrocardiograms and retrain it with specific population data to avoid overfitting.

Keywords:

Artificial intelligence, electrocardiogram, diagnosis, acute myocardial infarction, multimodal model.

1. Introducción

El Infarto Agudo de Miocardio (IAM) es una patología crítica caracterizada por la necrosis del tejido miocárdico debido a una isquemia prolongada. Es una de las principales causas de muerte a nivel mundial (Thygesen et al., 2018). Esta condición afecta a millones de personas cada año y representa un desafío significativo para los sistemas de salud pública en términos de prevención, diagnóstico y tratamiento oportuno. Los factores de riesgo asociados al IAM son múltiples e incluyen hipertensión arterial, diabetes mellitus, dislipidemias, tabaquismo y antecedentes familiares de enfermedad cardiovascular El diagnóstico de IAM tradicionalmente depende del reconocimiento de síntomas clínicos (como dolor torácico), hallazgos electrocardiográficos característicos y la elevación de biomarcadores específicos como la troponina (La et al., 2025). Sin embargo, existen presentaciones atípicas y subtipos como el infarto con arterias coronarias no obstructivas (MINOCA), que complican el diagnóstico y exigen herramientas más sensibles y precisas (Tognola et al., 2025).

Dado el aumento en la incidencia de IAM y la carga sobre los sistemas de salud, se requiere un modelo automatizado para apoyar el diagnóstico oportuno. Los electrocardiogramas (ECG) son clave en la detección de eventos cardiacos, pero su interpretación depende del especialista y puede ser propensa a errores humanos, especialmente con personal no entrenado en su interpretación, zonas remotas y con dificultades en la accesibilidad de un especialista; sin embargo, sigue siendo el método más usado debido a su facilidad de uso y naturaleza no invasiva (Strodthoff et al., 2021).

En los últimos años, los avances en Inteligencia Artificial (IA) y aprendizaje profundo han permitido el desarrollo de modelos capaces de detectar patrones complejos en datos clínicos. Esta metodología ha sido justificada en estudios previos que muestran mejoras diagnósticas al integrar modalidades múltiples en medicina cardiovascular. Particularmente, los modelos multimodales que integran información visual (como las imágenes de ECG) con información textual (parámetros clínicos, antecedentes, anotaciones médicas) se han posicionado como una estrategia emergente para mejorar la precisión diagnóstica y apoyar a los médicos en la toma de decisiones (Strodthoff et al., 2021).

Entre los principales avances para el diagnóstico, se han establecido algoritmos con descomposición modal variacional, optimizados con modelos de enjambre de partículas de peso difuso, los cuales han demostrado aumentar la precisión de los modelos obteniendo valores de exactitud de 99.1 %, especialmente con el trabajo de extracción de características y filtrado de ruido (Saranya & Vennila, 2025). Además, existen redes residuales profundas que han mejorado la clasificación del infarto agudo al miocardio, mejorando el sobreajuste y obteniendo valores de detección muy altos (La et al., 2025).

Asimismo, las herramientas basadas en inteligencia artificial han permitido la evaluación en tiempo real de eventos coronarios críticos, como lo demuestran los avances del estudio TIMI AI-ECG, que optimiza la toma de decisiones durante procedimientos invasivos (Herman et al., 2025). En paralelo, se ha propuesto una reformulación de los paradigmas diagnósticos tradicionales —como la clasificación IAMCEST/IAMSEST— hacia modelos centrados en el concepto de infarto de miocardio oclusivo (IMO), dado que un porcentaje significativo de pacientes con Infarto de Miocardio con Elevación del Segmento ST (IAMCEST) podría presentar oclusiones coronarias sin elevaciones típicas del ST, situación en la que las redes neuronales profundas han mostrado capacidad para detectar sutiles variaciones del trazo electrocardiográfico que serían imperceptibles para el clínico entrenado o incluso a la percepción de visual (Ayyad et al., 2025).

Por otra parte, la integración de dispositivos portátiles de monitoreo continuo, como parches suaves que se colocan en múltiples derivaciones, ha permitido una detección ambulatoria con una alta precisión (hasta 99.93 %), lo que ha apoyado a que se pueda hacer también un diagnóstico no sólo intra hospitalario, sino que pueda también potenciarse la telemedicina, permitiendo el inicio de diagnóstico y seguimiento de las indicaciones de tratamiento que puedan ser llevadas de forma ambulatoria en un contexto extrahospitalario (Zhang et al., 2025).

A pesar de estos avances, persiste el reto de garantizar la interpretabilidad clínica de los modelos predictivos, ya que, generalmente, los parámetros que tome la red neuronal no serán los mismos que utilizan los clínicos para realizar el diagnóstico y es necesario presentar transparencia en el uso de los modelos de inteligencia artificial. Por lo anterior, existen también estudios que se han centrado en clarificar qué tipo de interpretación realizan los modelos de inteligencia artificial, especialmente en la detección de imágenes. Estas investigaciones utilizan diferentes estrategias, entre ellas, la identificación de las áreas de la imagen que tuvieron una mayor carga o prominencia en el diagnóstico, lo que permite tener una mejor explicabilidad y ayudar a los médicos y personal de salud a tener una mejor confianza en la toma de decisiones que realizan con el uso de estas herramientas tecnológicas. Además, este tipo de análisis puede ser un campo de estudio para evaluar qué otras variables detectadas por el algoritmo podrían ser usadas para realizar un diagnóstico con mayor sensibilidad y especificidad; asimismo, permite buscar si existe algún tipo de plausibilidad biológica que explique la diferencia en estas áreas detectadas y así ver si dicha área puede volverse también un área de investigación básica y clínica donde se puedan desarrollar nuevas líneas de investigación que promuevan el desarrollo de tecnología y mejora en la calidad de la atención, eficacia y, finalmente, mejoría en la sobrevida de los pacientes, así como en su calidad de vida (Zhang et al., 2025).

Sin embargo, existen desafíos debido a la disponibilidad limitada de conjuntos de datos públicos completos que contengan electrocardiogramas, especialmente en la población mexicana. Esto ha propiciado el desarrollo de una variedad de algoritmos para la detección de infarto al miocardio que incluyen la segmentación de las ondas P-QRS-T o fases de preprocesamiento para mejorar la calidad de la señal, ya que los electrocardiogramas pueden presentar ruido que puede interferir con los análisis automatizados.

Este proyecto se propone aprovechar estas capacidades para enfrentar una de las principales causas de morbimortalidad global, mediante el desarrollo de un sistema automatizado que apoye el diagnóstico temprano del IAM en la población mexicana. Esta innovación contribuirá a reducir errores de interpretación, optimizar recursos clínicos y mejorar los desenlaces en salud cardiovascular, así como al uso de herramientas educativas para enseñanza de alumnos del área de la salud.

El objetivo fue desarrollar, validar y evaluar un sistema automatizado, basado en un modelo multimodal de inteligencia artificial, para la detección de ataques cardíacos, utilizando imágenes de ECG y características clínicas del paciente.

2. Desarrollo técnico

2.1 Metodología

Se llevó a cabo un proceso exhaustivo de recolección de imágenes de electrocardiogramas que incluyó tanto registros correspondientes a sujetos sin evidencia de infarto agudo al miocardio con elevación del segmento ST (no IAMCEST), como trazos electrocardiográficos representativos de casos con diagnóstico confirmado de IAMCEST. Esta recopilación se realizó mediante la consulta de bases de datos abiertas reconocidas en el ámbito médico-científico y a través de la extracción manual de imágenes de electrocardiogramas contenidas en estudios clínicos y reportes de caso disponibles en la literatura científica internacional. Esta estrategia permitió asegurar la heterogeneidad del conjunto de datos, incorporando registros de distintas configuraciones, calidades de imagen y contextos clínicos, lo cual enriqueció la robustez y representatividad del modelo entrenado.

Una vez recolectadas las imágenes, se procedió a la codificación estructurada de las variables clínicas asociadas a cada trazo. En esta etapa, se construyó una base de datos organizada donde se categorizaron las variables más relevantes para el análisis clínico y estadístico. Las variables de tipo binario, como la presencia o ausencia de síntomas clínicos típicos (dolor torácico, disnea, diaforesis, etc.), fueron clasificadas de manera dicotómica. Por su parte, los datos de laboratorio (como niveles de troponina, CK-MB y otros marcadores cardiacos) y otras variables clínicas cuantitativas fueron conservadas en su formato numérico original. Además, se realizó una recodificación de las variables categoriales jerárquicas —como antecedentes médicos, clasificación funcional o resultados de imagen— con el objetivo de unificar criterios de análisis y facilitar su interpretación por parte del modelo de aprendizaje automático.

Posteriormente, las imágenes recolectadas fueron sometidas a un riguroso proceso de preprocesamiento digital, el cual incluyó múltiples etapas: primero, se llevó a cabo la normalización de dimensiones para asegurar la uniformidad del tamaño de las imágenes, facilitando así su procesamiento por parte de la red neuronal; luego, se aplicaron técnicas de mejora de contraste para optimizar la visibilidad de las ondas P, QRS y T, elementos fundamentales en la detección de patrones isquémicos; finalmente, se aplicaron filtros para la reducción de ruido digital, minimizando artefactos que pudieran interferir con el reconocimiento automático de características.

Con esta base de datos preprocesada, se procedió al entrenamiento de un modelo de clasificación binaria utilizando la herramienta Teachable Machine, desarrollada por Google. Este entorno fue seleccionado por su capacidad de implementar modelos de aprendizaje profundo de manera accesible y eficiente. El modelo se estructuró mediante una red neuronal convolucional (CNN), ideal para el análisis de imágenes médicas, que permite identificar y extraer patrones espaciales relevantes sin necesidad de intervención manual. Los modelos fueron entrenados mediante la plataforma Teachable Machine de Google, la cual genera modelos compatibles con TensorFlow.js. La ejecución del modelo se realiza del lado del cliente, directamente en el navegador web, aprovechando los recursos locales del equipo de cómputo del usuario, sin requerir un servidor intermedio basado en Node.js. Como resultado del proceso, se obtuvo un modelo en formato JSON listo para implementación, lo cual permite su integración en plataformas web, aplicaciones clínicas o sistemas embebidos para apoyo al diagnóstico automatizado. El modelo fue configurado específicamente para diferenciar entre dos clases: IAMCEST (infarto agudo al miocardio con elevación del ST) y no IAMCEST (electrocardiogramas normales o no indicativos de infarto agudo).

El entrenamiento se realizó por 50 épocas, con un tamaño de lote de 16 y una tasa de aprendizaje de 0.001. Se realizó una validación cruzada tipo k-fold, cálculo de métricas como precisión, sensibilidad, especificidad, F1-score y área bajo la curva (AUC).

3. Resultados

El modelo fue entrenado utilizando un total de 620 imágenes correspondientes a electrocardiogramas que evidenciaban Infarto Agudo al Miocardio con Elevación del Segmento ST (IAMCEST), las cuales fueron recopiladas de una variedad de fuentes, incluyendo reportes clínicos publicados, bases de datos abiertas reconocidas en el ámbito académico y repositorios de imágenes públicas validadas. Estas imágenes patológicas fueron comparadas con un conjunto de control conformado por 176 electrocardiogramas que no presentaban alteraciones diagnósticas, también obtenidos de fuentes abiertas y verificadas para asegurar la ausencia de patología cardiovascular evidente. Esta diferenciación permitió establecer una base robusta de entrenamiento supervisado para el modelo de aprendizaje profundo.

El modelo fue ajustado para ejecutarse a lo largo de 50 épocas, seleccionando un tamaño de lote de 16 muestras por iteración, lo cual permitió un balance adecuado entre estabilidad del entrenamiento y eficiencia computacional. Se utilizó una tasa de aprendizaje inicial de 0.001, configurada para optimizar la convergencia del modelo, minimizando el error de predicción sin inducir oscilaciones ni divergencias en las primeras fases del entrenamiento. Esta arquitectura permitió la identificación precisa de patrones electrocardiográficos compatibles con eventos isquémicos agudos, resultando en una exactitud del 90 % para la detección de IAMCEST. En contraste, la clasificación de electrocardiogramas sin alteraciones patológicas alcanzó una exactitud más moderada del 74 %, resultado que evidencia la complejidad de distinguir entre trazos normales y condiciones no isquémicas sutiles.

Con el objetivo de validar clínicamente el desempeño del modelo, se realizó un análisis de concordancia inter-observador utilizando como referencia la interpretación diagnóstica de un médico especialista en cardiología. El grado de acuerdo se midió mediante el coeficiente Kappa de Cohen, el cual alcanzó un valor de 0.90 con un intervalo de confianza del 95 % entre 0.68 y 1.11, lo que representa una concordancia alta según los estándares aceptados en medicina basada en evidencia. Este resultado refuerza la fiabilidad del modelo no sólo desde el punto de vista computacional, sino también clínico.

Además, se evaluó el rendimiento global del modelo mediante el análisis de curvas ROC (Receiver Operating Characteristic), obteniéndose un área bajo la curva (AUC) promedio de 0.91, con una sensibilidad del 88 % y una especificidad del 85 %. Estos valores indican una alta capacidad discriminativa del algoritmo para distinguir entre eventos isquémicos y trazos normales. El análisis detallado de la matriz de confusión permitió identificar errores de clasificación recurrentes, principalmente asociados a imágenes de ECG con artefactos técnicos o borrosidad en la señal, factores previamente definidos como criterios de exclusión en la etapa de preprocesamiento de datos.

Por último, durante el entrenamiento, se observó una ligera tendencia al sobreajuste, especialmente en clases minoritarias con menor representación dentro del conjunto de entrenamiento. Este fenómeno fue mitigado mediante el ajuste de pesos de clase dentro de la función de pérdida, lo que permitió equilibrar el aprendizaje del modelo y mejorar su capacidad de generalización en escenarios clínicos diversos. Estos hallazgos sugieren que, con un ajuste y validación continuos, el modelo podría ser integrado de manera efectiva en sistemas automatizados de interpretación de ECG para el apoyo al diagnóstico temprano del infarto agudo al miocardio. Estos datos se presentan en la Figura 1.

Figura 1

Rendimiento del modelo ajustado a 50 épocas, con tamaño de lote de 16 y una tasa de aprendizaje de 0.001

Este modelo fue desplegado en un servidor dedicado, lo cual permitió controlar completamente el entorno de ejecución y garantizar un rendimiento estable, seguro y optimizado para las necesidades del proyecto. Se procedió a modificar el entorno gráfico del usuario (frontend) para incorporar una identidad visual personalizada que facilitara la interacción intuitiva, además de reforzar la coherencia institucional del sistema mediante elementos de diseño visualmente adaptados. Esta personalización del frontend no solo mejoró la experiencia de uso, sino que también fue fundamental para establecer una interfaz amigable y funcional destinada a profesionales de la salud, especialmente en contextos de urgencias médicas (ver Figura 2).

Figura 2
Captura de Pantalla del Sistema para subir las imágenes en el clasificador entrenado y el diagnóstico realizado por el entrenamiento

Nota. Disponible en: https://saluddigital.facmed.unam.mx/cardio/

Posteriormente, se llevaron a cabo pruebas formales de validación y análisis de usabilidad, enfocadas en determinar la eficiencia, claridad y utilidad de la plataforma para sus usuarios objetivo. Dichas evaluaciones incluyeron pruebas de funcionalidad con escenarios simulados y retroalimentación directa de usuarios clínicos, lo cual permitió realizar ajustes iterativos para optimizar la navegación, el tiempo de respuesta del sistema y la comprensión de los resultados mostrados por el modelo. Estos aspectos son fundamentales para lograr la adopción de herramientas basadas en inteligencia artificial dentro del flujo clínico real, donde cada segundo y decisión tienen implicaciones críticas.

Adicionalmente, para evaluar la precisión del sistema en la detección de casos de Infarto Agudo al Miocardio con Elevación del ST (IAMCEST), se llevó a cabo una validación clínica con la colaboración de un médico especialista en cardiología, quien analizó e interpretó los mismos electrocardiogramas evaluados por el modelo. A partir de esta revisión cruzada, se determinó el nivel de concordancia diagnóstica entre el algoritmo y el criterio clínico experto, lo cual sirvió como una verificación externa crítica del rendimiento del sistema en condiciones realistas. Esta evaluación médica fue determinante no sólo para validar la eficacia del modelo, sino también para generar confianza en su uso clínico y establecer un punto de partida para futuras aplicaciones del sistema.

4. Conclusiones

El modelo de inteligencia artificial desarrollado demostró una alta capacidad diagnóstica para la detección automatizada del Infarto Agudo al Miocardio con Elevación del Segmento ST (IAMCEST), alcanzando métricas de rendimiento clínicamente relevantes y comparables a las obtenidas por médicos generales en escenarios reales (La et al., 2025). Esta precisión, respaldada por un valor elevado del coeficiente Kappa y un área bajo la curva ROC (AUC) destacada, valida la utilidad del modelo como herramienta complementaria en contextos clínicos donde la interpretación inmediata del electrocardiograma es crítica, como los servicios de urgencias, unidades de primer contacto o regiones con limitada disponibilidad de especialistas (Shah et al., 2022). El uso de un enfoque multimodal es clave para mejorar la sensibilidad diagnóstica, reducir falsos negativos y reforzar la confianza en las decisiones generadas por el sistema. Esta integración de datos, como se ha evidenciado en estudios recientes, representa una estrategia eficaz para abordar la variabilidad en la presentación clínica del IAM y mejorar la precisión diagnóstica en escenarios complejos.

No obstante, durante el desarrollo y validación del sistema, se identificaron áreas de mejora significativas. Una de las principales observaciones fue la necesidad de fortalecer la representación de la clase "no IAMCEST" en el conjunto de datos, ya que su menor proporción contribuyó a una disminución relativa en la precisión de clasificación para ECG normales o no patológicos. Esta desproporción, frecuentemente presente en bases de datos abiertas, podría generar sesgos algorítmicos en la predicción, limitando su utilidad como herramienta de tamizaje universal (Tognola et al., 2025). Por ello, es fundamental ampliar la muestra de trazos normales provenientes de diversas fuentes y contextos poblacionales, especialmente considerando que gran parte de los algoritmos actuales han sido entrenados en poblaciones no latinoamericanas, lo que afecta su aplicabilidad y precisión en grupos específicos como la población mexicana (Zhang et al., 2025).

En el marco de una estrategia de mejora continua, se estableció un protocolo para el reentrenamiento periódico del modelo utilizando nuevos datos clínicos y operativos, con el fin de garantizar su actualización conforme a la variabilidad epidemiológica y tecnológica. Este plan incluye una metodología de validación cruzada tradicional, distribuyendo el 70 % de los datos para entrenamiento y reservando el 30 % para validación independiente, con el objetivo de preservar la estabilidad de las métricas diagnósticas, evitar el sobreajuste y mejorar la capacidad de generalización del sistema ante nuevas muestras. Este enfoque es fundamental cuando se busca escalar la herramienta hacia diferentes entornos institucionales o poblacionales, y permite mantener la fidelidad diagnóstica a través del tiempo, incluso en presencia de nuevas variantes clínicas, tecnologías de adquisición o patrones demográficos.

De manera adicional, se identificó la necesidad de incorporar técnicas de regularización más avanzadas para contrarrestar el sobreajuste en clases minoritarias y mejorar la robustez general del sistema. Esto incluye la ponderación de clases, el uso de data augmentation para ECG normales y la inclusión de trazos sintéticos generados por redes generativas adversariales (GANs), los cuales podrían enriquecer la diversidad de escenarios clínicos presentados al algoritmo. También se sugiere implementar validaciones externas con médicos especialistas de diferentes regiones para evaluar la concordancia diagnóstica interinstitucional y validar el sistema en escenarios clínicos reales, no simulados (Herman et al, 2025).

Finalmente, se recomienda avanzar hacia la integración de este tipo de modelos de inteligencia artificial como herramientas auxiliares dentro de los sistemas de salud digital, con un enfoque centrado en el apoyo diagnóstico, la toma de decisiones basada en evidencia y la educación médica continua. Esta implementación deberá realizarse bajo marcos éticos estrictos, que incluyan el consentimiento informado, la transparencia algorítmica y la trazabilidad de decisiones clínicas, de modo que se respete la autonomía del paciente y se promueva una relación médico-tecnología confiable (Zhang et al., 2025).

La incorporación progresiva de estas tecnologías puede contribuir no sólo a reducir los errores de interpretación, sino también a optimizar recursos, fortalecer la equidad en el acceso al diagnóstico y, en última instancia, mejorar la sobrevida y la calidad de vida de los pacientes con enfermedad cardiovascular. También se plantea la posibilidad de que estos algoritmos se puedan utilizar en la enseñanza en el área de la salud, utilizándolos como herramienta para realizar ejercicios con alumnos de diferentes fases de entrenamiento, con el fin de mejorar su precisión diagnóstica y, por ende, la calidad de la formación médica del personal sanitario. Es importante lograr la autonomía en tecnología, especialmente en entrenamientos de algoritmos con datos mexicanos que permitan crear una aplicación personalizada para nuestra población específica.

Referencias

Ayyad, M., Albandak, M., Gala, D., Alqeeq, B., Baniowda, M., Pally, J., & Allencherril, J. (2025). Reevaluating STEMI: The Utility of the Occlusive Myocardial Infarction Classification to Enhance Management of Acute Coronary Syndromes. Current Cardiology Reports, 27(1), 75. https://doi.org/10.1007/s11886-025-02217-8

Herman, R., Kisova, T., Belmonte, M., Wilgenhof, A., Toth, G., Demolder, A., Rafajdus, A., Meyers, H. P., Smith, S. W., Bartunek, J., & Barbato, E. (2025). Artificial Intelligence-Powered Electrocardiogram Detecting Culprit Vessel Blood Flow Abnormality: AI-ECG TIMI Study Design and Rationale. Journal of the Society for Cardiovascular Angiography & Interventions, 4(3Part B), 102494. https://doi.org/10.1016/j.jscai.2024.102494

La, S., Tavella, R., Wu, J., Spertus, J. A., Pasupathy, S., Girolamo, O., Zeitz, C., Worthley, M., Arstall, M., Sinhal, A., & Beltrame, J. F. (2025). The patient journey in chronic coronary syndromes with/without obstructive coronary arteries. European Heart Journal - Quality of Care and Clinical Outcomes, 0, 1–10. https://doi.org/10.1093/EHJQCCO/QCAF012

Saranya, P., & Vennila, C. (2025). Myocardial Infarction Detection using Variational Mode Decomposition with Fuzzy Weight Particle Swarm Optimization and Depthwise Separable Convolutional Network. Computers in Biology and Medicine, 193. https://doi.org/10.1016/J.COMPBIOMED.2025.110329

Shah, T., Kapadia, S., Lansky, A. J., & Grines, C. L. (2022). ST-segment elevation myocardial infarction: sex differences in incidence, etiology, treatment, and outcomes. Springer, 24(5), 529–540. https://doi.org/10.1007/S11886-022-01676-7

Strodthoff, N., Wagner, P., Schaeffter, T., & Samek, W. (2021). Deep Learning for ECG Analysis: Benchmarks and Insights from PTB-XL. IEEE Journal of Biomedical and Health Informatics, 25(5), 1519–1528. https://doi.org/10.1109/JBHI.2020.3022989

Tognola, C., Maloberti, A., Varrenti, M., Mazzone, P., Giannattasio, C., & Guarracini, F. (2025). Myocardial Infarction with Nonobstructive Coronary Arteries (MINOCA): Current Insights into Pathophysiology, Diagnosis, and Management. Diagnostics, 15(7), 942. https://doi.org/10.3390/DIAGNOSTICS15070942

Thygesen, K., Alpert, J. S., Jaffe, A. S., Chaitman, B. R., Bax, J. J., Morrow, D. A., White, H. D., & Executive Group on behalf of the Joint European Society of Cardiology (ESC)/American College of Cardiology (ACC)/American Heart Association (AHA)/World Heart Federation (WHF) Task Force for the Universal Definition of Myocardial Infarction (2018). Fourth Universal Definition of Myocardial Infarction (2018). Journal of the American College of Cardiology, 72(18), 2231–2264. https://doi.org/10.1016/j.jacc.2018.08.1038
Zhang, K., Wang, P., Wu, L., Wang, S., Jia, Y., & Yang, J. (2025). A Soft Patch for Dynamic Myocardial Infarction Monitoring. ACS Applied Materials & Interfaces, 17(11), 16479–16488. https://doi.org/10.1021/acsami.4c18868