Análisis, implementación y validación de modelos biológicos y computacionales basados en el electrocardiograma de superficie

Título

Análisis, implementación y validación de modelos biológicos y computacionales basados en el electrocardiograma de superficie

Colaborador

Arini, Pedro D.
Bonomini, María P.

Editor

Universidad de Buenos Aires. Facultad de Ingeniería

Fecha

2021-07-15

Extensión

xvii, 98 p.

Resumen

Las enfermedades cardiovasculares (ECV) son una de las principales causas de muerte en el mundo. Según datos de la organización mundial de la salud (OMS), en el 2018 tan sólo en Argentina el 35% del total de muertes registradas se debió a las ECV. Estas patologías se manifiestan como alteraciones en el comportamiento eléctrico del corazón, que pueden ser detectadas y clasificadas de acuerdo con variaciones en la forma que sigue un electrocardiograma (ECG) normal. A partir de esto, pueden ser identificados problemas como arritmias, bloqueos, fibrilación, isquemias, infartos, entre otros. Desde el mundo de la ingeniería han sido desarrollados y adaptados un gran número de métodos de procesamiento y análisis del ECG, permitiendo la detección y diagnóstico temprano de las ECV. Sin embargo, la escasez de bases de datos específicas hacen difícil optimizar las técnicas computacionales usadas, generando un gran número de falsos positivos y una baja especificidad en los diagnósticos automatizados. Una solución a este tipo de problema ha sido la creación de sistemas de modelado matemático/computacional que permiten recrear diversas y complejas situaciones electrofisiológicas. En este documento se presentan tres aproximaciones de modelado usando como punto de partida la señal del ECG. En el primer trabajo se aborda el problema de pérdida de datos en series temporales de variabilidad de la frecuencia cardiaca (en inglés, Heart Rate Variability - HRV), obtenidas a partir de registros electrocardiográficos medidos en ratas de laboratorio con diferentes condiciones cardiovasculares. Este tipo de problemas afecta considerablemente el cálculo de parámetros de la HRV utilizados para la cuantificación del riesgo cardiovascular. De esta manera, como primer paso procedimos a buscar y cuantificar pérdidas de latidos cardiacos con el fin de determinar la cantidad y ocurrencia de estos artefactos en nuestra base de datos. Con esta información construimos un modelo generador de pérdida de latidos y posteriormente se aplicaron distintas técnicas de corrección. Los métodos utilizados en esta etapa del trabajo fueron eliminación directa, interpolación lineal, interpolación cúbica, ventana de media móvil modificada e interpolación predictiva no lineal. El desempeño de las anteriores técnicas de corrección fue evaluado a través del cálculo de diferentes índices de la HRV usados ampliamente en detección y estimación del riesgo cardiovascular. En este trabajo, tales índices fueron calculados en las señales de la HRV sin presencia de pérdidas y luego de realizar las respectivas correcciones. A partir de los resultados encontrados, podemos establecer que para bajos niveles de pérdidas de información la mayoría de los métodos corrigen las series temporales de forma eficiente; obteniendo índices de la HRV muy similares en todas las situaciones analizadas. Sin embargo, cuando se modela un porcentaje alto de perdida de latidos se observa un bajo desempeño en casi todas las técnicas de corrección, excepto por el método de interpolación predictiva no lineal. Por tal motivo, y gracias a la posibilidad de modelar diferentes tipos de perdidas, podemos establecer que el anterior método es la técnica más efectiva para realizar recuperación de latidos perdidos en series de la HRV, sin alterar ni agregar información de sus parámetros lineales y no lineales. El segundo y tercer trabajo presentan dos aproximaciones desarrolladas para modelado y síntesis de señales del ECG con isquemia de miocardio por oclusión de una de las arterias coronarias principales. En una primera aproximación se utilizó el sistema de modelado conocido como ECGSyn, el cual esta basado en un sistema de ecuaciones diferenciales no lineales acopladas y alimentadas con parámetros específicos (ancho: ai, alto: bi, localización: ti) extraídos de las ondas P, Q, R, S, T de la señal de ECG. En esta caso, con la participación de un cardiólogo experto, se seleccionaron señales electrocardiográficas provenientes de oclusiones en la arteria coronaria derecha y sin presencia de otras patologías cardiovasculares. A continuación, todos los latidos fueron segmentados y sometidos a un proceso de extracción de características mediante un procedimiento de ajuste no lineal, usando una suma de 5 funciones Gaussianas y el método del gradiente descendente no lineal. Además, todos los parámetros característicos fueron ajustados mediante funciones de distribución normales y de esta forma se representó el comportamiento poblacional de los pacientes analizados. De este modo fue posible generar parámetros aleatorios para el modelo ECGSyn y producir latidos cardiacos artificiales con características isquémicas. Finalmente, pudimos comprobar que los latidos simulados son altamente comparables con las señales reales, presentando una dinámica morfológica que sigue la misma tendencia de los latidos reales y con variaciones del complejo ST-T acordes con lo observado en la base de datos original. La anterior aproximación de modelado mostró algunos problemas en las etapas de caracterización de datos y generación de latidos para niveles avanzados de isquemia, introduciendo alteraciones morfológicas importantes. Con el fin de encontrar una solución, se utilizó un modelo de mezcla de Gaussianas (en inglés, Gaussian Mixture Models - GMM) con el objetivo de aprender la dinámica de los datos y generar morfologías del ECG en pacientes que sufrieron oclusión en la arterias coronaria derecha y descendente anterior izquierda. Toda la información obtenida fue clasificada de acuerdo con la arteria y las derivaciones del ECG correspondientes, y a continuación, se realizó el entrenamiento y validación de cada uno de los GMM usados. Con cada modelo entrenado, el paso final consistió en la generación de latidos artificiales para las distintas arterias coronarias implicadas. Los resultados mostraron un mejor desempeño en comparación con el modelo anterior, el ECGSyn, ya que posibilitó la generación de morfologías más complejas y la inclusión de nuevos sitios de oclusión. Podemos concluir que a través del modelado de pérdida de latidos cardiacos es posible comparar cuantitativamente métodos de corrección de series RR. Además, fue posible generar señales electrocardiográficas con morfología isquémica. Estas últimas permitan el entrenamiento y validación de sistemas automáticos de detección, así como la optimización de algoritmos para supresión de ruido en este tipo de registros biomédicos.
Cardiovascular diseases (CVD) are one of the leading causes of death in the world. According to data from the World Health Organization (WHO), in 2018 in Argentina, 35% of all registered deaths were due to CVD. These pathologies are manifested as alterations in the electrical behaviour of the heart, which can be detected and classified according to alterations in the shape of an electrocardiogram (ECG) trace. From this, problems such as arrhythmias, ventricular blocks, fibrillation, ischemia, infarction, among others, can be identified. The engineering field has developed and adapted a large number of methods for processing and analyzing ECG signals, making great strides in the detection and early diagnosis of CVDs. However, in some cases the lack of specific databases make it difficult to optimize computational techniques, resulting in an increase of the number of false positives and a low specificity when a computer-assisted diagnosis is made. One solution to this type of problems have been the creation of mathematical/computational modeling systems for cardiac electrical activity, which make it possible to recreate diverse and complex electrophysiological situations. This document is composed of three papers that used as starting point the ECG signal. The first paper discusses the problem of data loss in Heart Rate Variability (HRV) time series obtained from electrocardiographic recordings, measured in laboratory rats with different cardiovascular conditions. This kind of problem has a several impact on calculation of HRV indices used to stratify cardiovascular risk. As initial step, we proceeded to detect and quantify heartbeat losses and determine the number and occurrence of these artifacts in our database. Throught this information we built a heartbeat loss generator model and test some artifactcorrection algorithms. Five correction methods were used to deal with this problem: Deletion, Linear Interpolation, Cubic Spline interplation, modified Average Moving Window and Nonlinear Predictive Interpolation. The performance of the above correction methods was evaluated through the calculation of different HRV indices, which have been widely used in several investigations to detect and estimate cardiac risk. In this work, such indices were calculated from HRV signals without the presence of losses and after the respective artifact corrections. From the results we found, we can establish that at low levels of information losses most of the correction methods solve the problem efficiently; obtaining very similar HRV indices in all the analyzed situations. However, when we model a high percentage of missing heartbeats, we observe a low performance in almost all correction techniques, except for the nonlinear predictive interpolation method. For this reason, and thanks to the possibility of modeling different types of losses, we can establish that the previous algorithm is the most effective method to recover lost heartbeats in HRV series, without altering or adding information in its linear and nonlinear parameters. The second and third papers present two approaches developed for modeling and synthesis of ECG signals with myocardial ischemia due to occlusion of one of the main coronary arteries. First, the modeling system known as ECGSyn was used, which is based on a system of coupled nonlinear differential equations supplied with specific parameters (width: ai, height: bi, location: ti) extracted from the P, Q, R, S and T waves of the ECG signal. In this case, with the participation of an expert cardiologist, electrocardiographic signals were selected from occlusions in the right coronary artery and without presence of other cardiovascular pathologies. Then, all heartbeats were segmented and submitted to a feature extraction process by a nonlinear fitting procedure that use the sum of 5 Gaussian functions and the nonlinear gradient descent method. All the characteristic parameters were adjusted by means of normal distribution functions and thus represented the population behavior of the analyzed subjects. In this way, it was possible to generate random parameters for the ECGSyn model and generate artificial heartbeats with ischemic features. Finally, we verified that the simulated beats are highly comparable with the real signals, presenting morphological dynamics that follow the same trend as the real heartbeats and with variations of the ST-T complex in concordance with the observations from the original database. The previous modeling approach showed some problems in the data characterization and heartbeat generation stages for high levels of ischemia, introducing important morphological alterations. In order to find a solution, a Gaussian mixture model (GMM) was used to learn the dynamics of the data and generate ECG signals from patients who suffered occlusion in the right and left anterior descending coronary arteries. All the information was classified according to the involved coronary artery and its corresponding ECG leads; then, this data was used to train an validate each GMM. Final step consisted of generating artificial heartbeats for the different coronary arteries involved in this work. The results showed a better performance in comparisson to the previous model, ECGSyn, as it permitted the generation of more complex morphologies and the inclusion of new occlusion sites. We can conclude that through the modeling of heartbeat loss it is possible to quantitatively compare methods used for artifact correction in RR series. In addition, it was possible to generate electrocardiographic signals with ischemic morphology. The latter allow the training and validation of automatic detection systems, as well as the optimization of algorithms for noise suppression in this kind of biomedical recordings.