Grado obtenido: Doctor de la Universidad de Buenos Aires. Área Ingeniería]]> Disciplina: Ingeniería]]> Fil: Fernandez Biscay, Carolina. Universidad de Buenos Aires. Facultad de Ingeniería]]> Lugar de trabajo: Instituto de Ingeniería Biomédica, Facultad de Ingeniería, UBA. Instituto Argentino de Matemática “Alberto P. Calderón”, CONICET]]> La isquemia cardíaca es la principal causa de muerte en el mundo, es por este motivo la importancia en la prevención y detección temprana de estos eventos. Tradicionalmente, la isquemia se detecta analizando el nivel del segmento ST en el electrocardiograma (ECG). Si bien se han utilizando numerosos métodos para mejorar la detección de eventos isquémicos, en los centros de salud continúa siendo necesaria la interpretación del ECG por parte de un profesional. Esto es debido a que los algoritmos de monitoreo fueron creados intencionalmente para obtener una alta sensibilidad a expensas de la especificidad, detectando así una gran cantidad de falsos positivos. La principal fuente de falsos positivos son eventos que producen alteraciones en el nivel ST por motivos distintos a los eventos isquémicos, como por ejemplo, cambios en la frecuencia cardíaca, modificaciones en la conducción ventricular y en la dirección del eje eléctrico cardíaco. En este trabajo, con el objetivo de reducir la alta tasa de falsos positivos, se diseñó un clasificador de eventos isquémicos y no isquémicos, en donde a los parámetros comúnmente utilizados en el dominio temporal se le agregaron dos nuevos parámetros obtenidos de aplicar la Transformada Wavelet Continua (CWT, del inglés Continuous Wavelet Transform) a la señal de ECG. Para esto se utilizó una base de datos que fue especialmente diseñada para estudiar este problema, denominada Long Term ST Database. Dicha base de datos contiene registros Holter de aproximadamente 24hs de duración, con anotaciones realizadas por especialistas indicando inicio y fin de eventos isquémicos y de los eventos no isquémicos comúnmente interpretados por los detectores como eventos isquémicos. Al evaluar el clasificador diseñado en esta base de datos se logró separar eventos isquémicos de no isquémicos con una sensibilidad y especificidad del 84% y 93%, respectivamente. Los resultados obtenidos superaron a los del estado del arte, por lo que se concluyó que los parámetros propuestos a partir de la CWT eran útiles para distinguir exitosamente los eventos isquémicos de los no isquémicos. En un segundo trabajo, se decidió diseñar un detector de isquemia. Mientras que en el trabajo anterior se tomaban episodios detectados como isquémicos y se los clasificaba entre verdaderamente isquémicos y falsos positivos, en este segundo trabajo se diseñó un detector de isquemia a partir de la señal de ECG. Con los resultados alentadores del clasificador, se decidió analizar la señal de ECG utilizando Descomposición Empírica de Modos (EMD, del inglés Empirical Mode Decomposition). La ventaja de esta descomposición es que puede utilizarse para señales no estacionarias y, a diferencia de la CWT, para señales no lineales. Por lo que es una técnica muy útil para procesar la señal de ECG. De esta manera, la señal de ECG se descompuso en sus funciones intrínsecas de modos de donde se extrajeron dos parámetros, uno basado en frecuencia y otro en amplitud. A partir de estos parámetros se diseñó un detector de isquemia. Para evaluar al detector se utilizaron los registros correspondientes a la derivación MLIII y V4 de la base de datos European ST-T Database. Esta base de datos fue creada específicamente para evaluar detectores de isquemias, ya que todos los registros tienen eventos isquémicos anotados por especialistas. Al evaluar el detector con los registros de la derivación MLIII se obtuvo una sensibilidad y predicción positiva del 88%. A su vez, al realizar la detección con dos derivaciones (MLIII y V4), se obtuvo una sensibilidad y predicción positiva del 92% y 80%, respectivamente. Los resultados obtenidos demostraron la utilidad de esta descomposición y de los parámetros extraídos para la detección de isquemia cardíaca. Con los resultados de ambos trabajos se pudo concluir que las técnicas utilizadas, Transformada Wavelet Continua y Descomposición Empírica de Modos, brindaron información relevante para mejorar la detección y clasificación de eventos isquémicos.
]]>
Cardiac ischemia is the leading cause of death in the world, as a consequence it is important to prevent and detect these events earlier. Traditionally, ischemia is detected by analyzing the level of the ST segment on the electrocardiogram (ECG). Although numerous methods have been used to improve the detection of ischemic events, interpretation of the ECG by a professional is still necessary in health centers. This is because the detection algorithms were intentionally created to obtain high sensitivity at the expense of specificity, thus detecting a large number of false positives. The main source of false positives are events that produce alterations in the ST level but are not caused by an ischemia, such as changes in heart rate, changes in ventricular conduction and in the direction of the cardiac electrical axis. In this work, with the aim of reducing the high rate of false positives, a classifier of ischemic and non-ischemic events was designed, where two new parameters obtained from applying the Continuous Wavelet Transform (CWT) to the ECG signal, were added to the parameters commonly used in the temporal domain. For this, the Long Term ST Database was used, a database specially designed to study this problem. It contains Holter records of approximately 24 hours with annotations made by specialists indicating the beginning and end of ischemic events and non-ischemic events, commonly interpreted by detectors as ischemic events. The performance obtained by our classifier in this database was a sensitivity and specificity of 84% and 93%, respectively. With the results obtained, it was concluded that the parameters proposed from the CWT were useful to successfully distinguish ischemic from nonischemic events. Based on the encouraging results of the first work, it was decided to analyze the ECG signal using Empirical Mode Decomposition (EMD) to perform an ischemia detector. The advantage of this decomposition is that it can be used for nonlinear and non-stationary signals. In this way, the ECG signal was decomposed into its intrinsic mode functions from which two parameters were extracted. Based on these parameters, an ischemia detector was designed. To evaluate the performance of the detector, the records corresponding to the MLIII and V4 leads of the European ST-T Database were used. This database was created specifically to evaluate ischemia detectors, since all registries have ischemic events annotated by specialists. The sensitivity and positive predictivity obtained when evaluating the detector in registers of MLIII lead was of 88%. When using the multi-lead detection with leads MLIII and V4, the sensitivity and positive predictivity obtained was of 92% and 80%, respectively. The results obtained demonstrated the usefulness of this decomposition and of the extracted parameters for the detection of cardiac ischemia. With the results of both works, it was possible to conclude that the techniques used, Continuous Wavelet Transformation and Empirical Mode Decomposition, provided relevant information to improve the detection and classification of ischemic events.
]]>
Fernandez Biscay, Carolina]]>
Grado obtenido: Doctor de la Universidad de Buenos Aires]]> Disciplina: Ingeniería]]> Fil: Rincón Soler, Anderson Iván. Universidad de Buenos Aires. Facultad de Ingeniería]]> Lugar de trabajo: Instituto de Ingeniería Biomédica, Facultad de Ingeniería - UBA.
Instituto Argentino de Matemática “Alberto P. Calderón”]]>
Las enfermedades cardiovasculares (ECV) son una de las principales causas de muerte en el mundo. Según datos de la organización mundial de la salud (OMS), en el 2018 tan sólo en Argentina el 35% del total de muertes registradas se debió a las ECV. Estas patologías se manifiestan como alteraciones en el comportamiento eléctrico del corazón, que pueden ser detectadas y clasificadas de acuerdo con variaciones en la forma que sigue un electrocardiograma (ECG) normal. A partir de esto, pueden ser identificados problemas como arritmias, bloqueos, fibrilación, isquemias, infartos, entre otros. Desde el mundo de la ingeniería han sido desarrollados y adaptados un gran número de métodos de procesamiento y análisis del ECG, permitiendo la detección y diagnóstico temprano de las ECV. Sin embargo, la escasez de bases de datos específicas hacen difícil optimizar las técnicas computacionales usadas, generando un gran número de falsos positivos y una baja especificidad en los diagnósticos automatizados. Una solución a este tipo de problema ha sido la creación de sistemas de modelado matemático/computacional que permiten recrear diversas y complejas situaciones electrofisiológicas. En este documento se presentan tres aproximaciones de modelado usando como punto de partida la señal del ECG. En el primer trabajo se aborda el problema de pérdida de datos en series temporales de variabilidad de la frecuencia cardiaca (en inglés, Heart Rate Variability - HRV), obtenidas a partir de registros electrocardiográficos medidos en ratas de laboratorio con diferentes condiciones cardiovasculares. Este tipo de problemas afecta considerablemente el cálculo de parámetros de la HRV utilizados para la cuantificación del riesgo cardiovascular. De esta manera, como primer paso procedimos a buscar y cuantificar pérdidas de latidos cardiacos con el fin de determinar la cantidad y ocurrencia de estos artefactos en nuestra base de datos. Con esta información construimos un modelo generador de pérdida de latidos y posteriormente se aplicaron distintas técnicas de corrección. Los métodos utilizados en esta etapa del trabajo fueron eliminación directa, interpolación lineal, interpolación cúbica, ventana de media móvil modificada e interpolación predictiva no lineal. El desempeño de las anteriores técnicas de corrección fue evaluado a través del cálculo de diferentes índices de la HRV usados ampliamente en detección y estimación del riesgo cardiovascular. En este trabajo, tales índices fueron calculados en las señales de la HRV sin presencia de pérdidas y luego de realizar las respectivas correcciones. A partir de los resultados encontrados, podemos establecer que para bajos niveles de pérdidas de información la mayoría de los métodos corrigen las series temporales de forma eficiente; obteniendo índices de la HRV muy similares en todas las situaciones analizadas. Sin embargo, cuando se modela un porcentaje alto de perdida de latidos se observa un bajo desempeño en casi todas las técnicas de corrección, excepto por el método de interpolación predictiva no lineal. Por tal motivo, y gracias a la posibilidad de modelar diferentes tipos de perdidas, podemos establecer que el anterior método es la técnica más efectiva para realizar recuperación de latidos perdidos en series de la HRV, sin alterar ni agregar información de sus parámetros lineales y no lineales. El segundo y tercer trabajo presentan dos aproximaciones desarrolladas para modelado y síntesis de señales del ECG con isquemia de miocardio por oclusión de una de las arterias coronarias principales. En una primera aproximación se utilizó el sistema de modelado conocido como ECGSyn, el cual esta basado en un sistema de ecuaciones diferenciales no lineales acopladas y alimentadas con parámetros específicos (ancho: ai, alto: bi, localización: ti) extraídos de las ondas P, Q, R, S, T de la señal de ECG. En esta caso, con la participación de un cardiólogo experto, se seleccionaron señales electrocardiográficas provenientes de oclusiones en la arteria coronaria derecha y sin presencia de otras patologías cardiovasculares. A continuación, todos los latidos fueron segmentados y sometidos a un proceso de extracción de características mediante un procedimiento de ajuste no lineal, usando una suma de 5 funciones Gaussianas y el método del gradiente descendente no lineal. Además, todos los parámetros característicos fueron ajustados mediante funciones de distribución normales y de esta forma se representó el comportamiento poblacional de los pacientes analizados. De este modo fue posible generar parámetros aleatorios para el modelo ECGSyn y producir latidos cardiacos artificiales con características isquémicas. Finalmente, pudimos comprobar que los latidos simulados son altamente comparables con las señales reales, presentando una dinámica morfológica que sigue la misma tendencia de los latidos reales y con variaciones del complejo ST-T acordes con lo observado en la base de datos original. La anterior aproximación de modelado mostró algunos problemas en las etapas de caracterización de datos y generación de latidos para niveles avanzados de isquemia, introduciendo alteraciones morfológicas importantes. Con el fin de encontrar una solución, se utilizó un modelo de mezcla de Gaussianas (en inglés, Gaussian Mixture Models - GMM) con el objetivo de aprender la dinámica de los datos y generar morfologías del ECG en pacientes que sufrieron oclusión en la arterias coronaria derecha y descendente anterior izquierda. Toda la información obtenida fue clasificada de acuerdo con la arteria y las derivaciones del ECG correspondientes, y a continuación, se realizó el entrenamiento y validación de cada uno de los GMM usados. Con cada modelo entrenado, el paso final consistió en la generación de latidos artificiales para las distintas arterias coronarias implicadas. Los resultados mostraron un mejor desempeño en comparación con el modelo anterior, el ECGSyn, ya que posibilitó la generación de morfologías más complejas y la inclusión de nuevos sitios de oclusión. Podemos concluir que a través del modelado de pérdida de latidos cardiacos es posible comparar cuantitativamente métodos de corrección de series RR. Además, fue posible generar señales electrocardiográficas con morfología isquémica. Estas últimas permitan el entrenamiento y validación de sistemas automáticos de detección, así como la optimización de algoritmos para supresión de ruido en este tipo de registros biomédicos. ]]> Cardiovascular diseases (CVD) are one of the leading causes of death in the world. According to data from the World Health Organization (WHO), in 2018 in Argentina, 35% of all registered deaths were due to CVD. These pathologies are manifested as alterations in the electrical behaviour of the heart, which can be detected and classified according to alterations in the shape of an electrocardiogram (ECG) trace. From this, problems such as arrhythmias, ventricular blocks, fibrillation, ischemia, infarction, among others, can be identified. The engineering field has developed and adapted a large number of methods for processing and analyzing ECG signals, making great strides in the detection and early diagnosis of CVDs. However, in some cases the lack of specific databases make it difficult to optimize computational techniques, resulting in an increase of the number of false positives and a low specificity when a computer-assisted diagnosis is made. One solution to this type of problems have been the creation of mathematical/computational modeling systems for cardiac electrical activity, which make it possible to recreate diverse and complex electrophysiological situations. This document is composed of three papers that used as starting point the ECG signal. The first paper discusses the problem of data loss in Heart Rate Variability (HRV) time series obtained from electrocardiographic recordings, measured in laboratory rats with different cardiovascular conditions. This kind of problem has a several impact on calculation of HRV indices used to stratify cardiovascular risk. As initial step, we proceeded to detect and quantify heartbeat losses and determine the number and occurrence of these artifacts in our database. Throught this information we built a heartbeat loss generator model and test some artifactcorrection algorithms. Five correction methods were used to deal with this problem: Deletion, Linear Interpolation, Cubic Spline interplation, modified Average Moving Window and Nonlinear Predictive Interpolation. The performance of the above correction methods was evaluated through the calculation of different HRV indices, which have been widely used in several investigations to detect and estimate cardiac risk. In this work, such indices were calculated from HRV signals without the presence of losses and after the respective artifact corrections. From the results we found, we can establish that at low levels of information losses most of the correction methods solve the problem efficiently; obtaining very similar HRV indices in all the analyzed situations. However, when we model a high percentage of missing heartbeats, we observe a low performance in almost all correction techniques, except for the nonlinear predictive interpolation method. For this reason, and thanks to the possibility of modeling different types of losses, we can establish that the previous algorithm is the most effective method to recover lost heartbeats in HRV series, without altering or adding information in its linear and nonlinear parameters. The second and third papers present two approaches developed for modeling and synthesis of ECG signals with myocardial ischemia due to occlusion of one of the main coronary arteries. First, the modeling system known as ECGSyn was used, which is based on a system of coupled nonlinear differential equations supplied with specific parameters (width: ai, height: bi, location: ti) extracted from the P, Q, R, S and T waves of the ECG signal. In this case, with the participation of an expert cardiologist, electrocardiographic signals were selected from occlusions in the right coronary artery and without presence of other cardiovascular pathologies. Then, all heartbeats were segmented and submitted to a feature extraction process by a nonlinear fitting procedure that use the sum of 5 Gaussian functions and the nonlinear gradient descent method. All the characteristic parameters were adjusted by means of normal distribution functions and thus represented the population behavior of the analyzed subjects. In this way, it was possible to generate random parameters for the ECGSyn model and generate artificial heartbeats with ischemic features. Finally, we verified that the simulated beats are highly comparable with the real signals, presenting morphological dynamics that follow the same trend as the real heartbeats and with variations of the ST-T complex in concordance with the observations from the original database. The previous modeling approach showed some problems in the data characterization and heartbeat generation stages for high levels of ischemia, introducing important morphological alterations. In order to find a solution, a Gaussian mixture model (GMM) was used to learn the dynamics of the data and generate ECG signals from patients who suffered occlusion in the right and left anterior descending coronary arteries. All the information was classified according to the involved coronary artery and its corresponding ECG leads; then, this data was used to train an validate each GMM. Final step consisted of generating artificial heartbeats for the different coronary arteries involved in this work. The results showed a better performance in comparisson to the previous model, ECGSyn, as it permitted the generation of more complex morphologies and the inclusion of new occlusion sites. We can conclude that through the modeling of heartbeat loss it is possible to quantitatively compare methods used for artifact correction in RR series. In addition, it was possible to generate electrocardiographic signals with ischemic morphology. The latter allow the training and validation of automatic detection systems, as well as the optimization of algorithms for noise suppression in this kind of biomedical recordings.]]> Rincón Soler, Anderson Iván ]]>
Grado obtenido: Doctor de la Universidad de Buenos Aires]]> Disciplina: Ingeniería]]> Fil: Valverde, Esteban Raúl . Universidad de Buenos Aires. Facultad de Ingeniería]]> Introducción. La muerte súbita cardíaca (SCD, del inglés sudden cardiac death) ocurre cuando el corazón deja repentinamente de latir. Una actividad el´éctrica anormal genera cambios importantes en la secuencia de activación/inactivación produciendo arritmias cardíacas, las cuales afectan la capacidad del corazón para bombear sangre al organismo. Los eventos isquémicos, junto con el incremento de la dispersión de la repolarización ventricular (VRD, del inglés ventricular repolarization dispersion), son responsables en gran parte de las arritmias cardíacas, tales como la taquicardia ventricular (VT, del inglés ventricular tachycardia) que puede derivar en una SCD [9]. Los incrementos de la VRD pueden deberse a varios factores: diferencias en duración de los potenciales de acción (APs, del inglés action potential ), incrementos de los tiempos de activación, disminuci´on de la velocidad de conducción del impulso o caminos de conducción eléctrica alterados (anatómicos y/o funcionales). Por ello, cuando la VRD aumenta o se producen retrasos en la conducción, pueden generarse mecanismos de re-entrada capaces de inducir arritmias. Durante el periodo isquémico, las propiedades de la membrana de las células cardíacas están significativamente alteradas [65]. En consecuencia, los electrogramas (EGMs, del ingl´es electrograms) registrados en la superficie del corazón tienden a manifestarse de menor amplitud, más lentos y de mayor duración. Los cambios recién mencionados se reflejan como alteraciones latido-a-latido en el electrocardiograma (ECG) de superficie. Estos cambios pueden ser imperceptibles a la vista del cardiólogo siendo necesarias herramientas de procesamiento y análisis para detectarlos. Por ello, desde el ámbito de la Ingeniería Biomédica es importante el análisis matemático/computacional de los registros del ECG en presencia de las patologías cardíacas antes mencionadas, con el objetivo de mejorar el diagnóstico y seguimiento de los pacientes. El objetivo de la presente tesis fue cuantificar y analizar variaciones latido-a-latido que pudiesen desencadenar arritmias ventriculares malignas y/o SCD en corazones con isquemia aguda y/o infarto. Para ello se estudiaron los ECGs en animales y en humanos. Se propusieron nuevas herramientas de procesamiento y análisis del ECG y se las comparó con métodos estandarizados en la cardiología clínica. Además, el trabajo se orientó a comprender los procesos fisiológicos subyacentes en la isquemia aguda y en diferentes etapas post-infarto de miocardio (MI, del inglés myocardial infarction). Materiales y métodos. Modelo de infarto en animales. Se implementó en 34 conejos blancos de la raza Nueva Zelanda, a los que se les practicó una toracotomía intercostal izquierda. A 24 animales (infartados) se les realizó una ligadura en la arteria coronaria descendente anterior izquierda (LAD, del inglés left anterior descendent) de manera de provocarles un MI controlado. Al segundo grupo de 10 animales (sham) no se les realizó la oclusión. Se registraron tres ECGs, de aproximadamente 400 latidos: uno antes de la cirugía (control ), y otros dos a los 15 y 45 días post-MI. Se computó la varianza espectral de la onda T (TSV, del inglés T-wave spectral variance) con el fin de comparar ambos grupos en las tres instancias. Finalmente, los animales fueron sacrificados y los corazones fueron analizados histo-patol´ogicamente, clasific´andolos en tres subgrupos, dependiendo de la extensión y ubicación del área del MI. Modelo de isquemia aguda en humanos. Se estudió la base de datos STAFF III, del Centro Médico del área de Charleston, USA (STAFF-III), a cuyos pacientes se les practicó un procedimiento de Intervención Coronaria Percutánea (PCI, del inglés Percutaneous Coronary Intervention) en una o varias de sus arterias coronarias principales: en la LAD, en la circunfleja izquierda (LCx, del inglés left circunflex ), en la arteria coronaria derecha (RCA, del inglés right coronary artery) y en la izquierda principal (LM, del inglés left main). Las 12 derivaciones del ECG se agruparon en: 6 derivaciones frontales (FR), I a aVF; y 6 derivaciones precordiales (PR), V1 a V6. Además, se sintetizaron las tres derivaciones ortogonales (OR), VX, VY y VZ mediante la transformada de Kors [66]. La población total (TP) (n = 62) fue agrupada según la arteria coronaria ocluida: LM (n = 2), LAD (n = 21), LCx (n = 12) y RCA (n = 27). Se registraron tres ECGs: primero, dos registros control antes del procedimiento de PCI, y luego otro durante dicho procedimiento. La TSV se calculó en los ECGs con el objetivo de comparar las diferencias que puedan existir antes y durante el inflado del balón de angioplastía. Además, se obtuvo el cambio relativo (R) en cada derivación electrocardiográfica. A partir de los controles, se realizó el análisis de la variabilidad intra-sujeto e inter -sujeto para determinar estabilidad y confiabilidad de la TSV. Modelo de infarto en humanos: repolarización ventricular. Se utilizó la base de datos Physikalisch-Technische Bundesanstalt, del Instituto de Metrología Nacional de Alemania (PTB). Se seleccionaron los registros del ECG de los sujetos control , (n = 49), y de aquellos pacientes que no sufrieron una taquicardia y/o fibrilación ventricular (VT/VF, del inglés ventricular tachycardia and/or fibrillation) post-MI (n = 38), y de los cuales se disponen dos registros: uno dentro de primera semana del MI (MI7), denominada fase de curación (healing), y el otro a partir de los dos meses del MI (MI60), denominada fase de cicatrizado (healed). Por otra parte, los pacientes fueron agrupados por infarto anterior (n = 20) e inferior (n = 17). La TSV se calculó en las 12 derivaciones para el grupo control y durante healing y healed. Además, se obtuvo el R en cada derivación electrocardiográfica y se aplicó el criterio multi-derivación (ML, del inglés multi-lead) a partir de las denominadas derivaciones preferenciales. Los registros también fueron analizados mediante el índice de variabilidad del intervalo QT (QTVI, del inglés QT interval variability index ), que es un est´andar en la cardiología. Finalmente, se realizó el análisis de la variabilidad intra-sujeto e inter -sujeto para determinar si la TSV puede considerarse estable y confiable. Modelo de infarto en humanos: despolarización ventricular. Se utilizó la base de datos PTB. En este caso se analizaron los ECGs en las tres derivaciones ortogonales de Frank VX, VY y VZ. Se estudiaron: sujetos control , n = 48; y en pacientes post-MI: sin VT/VF en MI7, n = 84 y en MI60, n = 41; con VT/VF en MI7, n = 7 y en MI60, n = 6. Se calculó la varianza espectral del QRS (QRSSV, del ingl´es QRS spectral variance) en VX, VY y VZ para el grupo control y durante healing y healed con y sin VT/VF. Por otro lado, se procesaron los mismos registros mediante la técnica de la electrocardiografía de Señal Promediada (SaECG, del inglés Signal-averaged ECG), que es un estándar de la cardiología. Finalmente, se estudió la variabilidad intra-sujeto e inter - sujeto para determinar si la QRSSV es estable y confiable. Resultados. Modelo de infarto en animales. La TSV aumentó significativamente en ambos grupos (infartados y sham) a los 15 d´ıas de la cirugía. Sin embargo, a los 45 días, mientras la TSV del grupo sham retornó al valor equivalente al control , el grupo infartado se mantuvo significativamente mayor que el sham. Los corazones de los animales infartados fueron clasificados en: sin área visible infartada (n = 8), con infarto en el mesocardio (n = 5), y con infarto transmural (n = 12). La TSV fue mayor a medida que se extendía la región infartada, siendo significativamente mayor al grupo sham. Modelo de isquemia aguda en humanos. La TSV computada en el grupo TP aumentó significativamente durante la PCI respecto del control en todas las derivaciones del ECG. El R, para TP y para los pacientes agrupados seg´un el sitio de oclusión, presentaron una derivación preferencial que mejor evidencia el cambio de la TSV. Esto es, para TP: RI = 2,51, RV 3 = 4,94 y RZ = 3,41; para LAD: RI = 4,07, RV 3 = 3,85 y RY = 2,95; para LCx: RI = 3,31, RV 3 = 5,76 y RZ = 4,16; y para RCA: RaV L = 5,33, RV 3 = 5,40 y RZ = 6,41. Pudo observarse también que V3 es la derivación que mayor R mostró para TP y todos los sitios de oclusi´on. En todas las derivaciones, excepto en V6, el análisis intra-sujeto e inter -sujeto de la TSV mostró ser estable y confiable, con un coeficiente de confiabilidad (rik, del inglés reliability index ) > 0.6, en donde k = 1 . . .K son las derivaciones consideradas. Modelo de infarto en humanos: repolarización ventricular. Para todas las derivaciones, excepto la III, la TSV aumentó significativamente durante MI7 y luego descendió en MI60. Por otro lado, el R elevó su valor durante healing y luego descendió durante healed. Las derivaciones I, II, aVR, V4 y V5 conformaron las derivaciones preferenciales, a las que se les aplicó el criterio ML para luego obtener los valores medios por grupo: TSV C ML = 0,009 ± 0,001, TSV MI7 ML = 0,187 ± 0,032‡ y TSV MI60 ML = 0,100 ± 0,019‡,∗. Además, se calculó el QTVI en todos los sujetos; los resultados fueron: control (−1,21±0,06), MI7 (−0,01±0,10‡) y MI60 (−0,42±0,10‡,∗), siendo ‡ p < 0,0005 entre control y ambos grupos infartados y ∗ p < 0,05 entre MI7 y MI60. Los pacientes con MI anterior evidenciaron una mayor TSV en V4; los pacientes con MI inferior se observaron mejor en aVF. Finalmente, el análisis intra-sujeto e inter -sujeto de la TSV mostró ser estable y confiable, con un rik > 0.9 en todas las derivaciones consideradas. Modelo de infarto en humanos: despolarización ventricular. En pacientes sin VT/VF se observó un aumento significativo del QRSSV tanto en healing como en healed, respecto del control , siguiendo el mismo tipo de modulación que se observó en la TSV para los modelos anteriores. En los pacientes con VT/VF, se encontraron diferencias significativas en healing para VX y VY , y en healed para VY , respecto del control . La QRSSV también presentó modulación en la derivación VX, elevándose durante MI7 y decreciendo durante MI60. La proporción de potenciales tardíos (LPs, del inglés late potentials) en pacientes sin VT/VF no presentó diferencias entre grupos. Por otro lado, en pacientes con VT/VF se observaron diferencias significativas en |VFX|, |VFY | y |VFM|. Finalmente, el análisis intra-sujeto e inter -sujeto de la QRSSV mostró ser estable y confiable, con un rik > 0.95 en todas las derivaciones consideradas. Discusión y conclusiones. Modelo de infarto en animales. Este estudio experimental confirma la existencia de alteraciones latido-a-latido durante la repolarización ventricular en el peróodo post-MI. En este sentido, la TSV muestra ser un método no-invasivo para observar estas alteraciones. La oclusión de la LAD indujo diferentes grados de lesión en los corazones a los 45 d´ıas de la cirugía. Pudo observarse que existe una correlación entre el valor de la TSV y la extensión del área necrosada. Esta área podría estar conformada por regiones eléctricamente silentes que rodean tejido sano y que actúan como barreras que favorecen la fragmentación de la propagación del impulso. Esto da origen a diferentes patrones de activación y recuperación, que se estarían manifestando como alteraciones latido-a-latido, forzando el aumento del valor de la TSV. Modelo de isquemia aguda en humanos. En este estudio, al computar el R se encontraron derivaciones preferenciales de acuerdo al sitio de oclusión. El RLAD fue máximo en I, RLCx en V3 y RRCA en VZ, sugiriendo que existe una derivación que mejor evidencia el cambio de la TSV. Por otro lado, V3 manifestó el mayor R en PR para todas las oclusiones, coincidente con los resultados obtenidos en el Modelo de infarto en animales. La PCI ofrece un buen modelo para observar cambios electrofisiológicos durante la isquemia aguda, causada por el bloqueo abrupto y completo de alguna de las arterias coronarias [45,81]. Las zonas isquémicas actúan como barreras para la propagaci´on del impulso y para la recuperación ventricular, promoviendo APs deformados y en consecuencia EGMs anormales que se reflejan como cambios latido-a-latido en la morfología de las ondas T. En conclusión, la TSV pone en evidencia dichos cambios, aumentando su valor durante la isquemia. Modelo de infarto en humanos: repolarización ventricular. Los resultados mostraron ser más evidentes en las derivaciones preferenciales, y concuerdan con los observados en el Modelo animal. Estos nos permiten plantear la existencia de una modulación en ambas etapas del MI: una elevación significativa de la TSV durante MI7, y luego un descenso a un valor intermedio durante MI60. La zona del infarto en general está edematizada, en donde las uniones entre miocitos están rotas y hay una disminución de los discos intercalados [84]. Dicha zona abarca una región mayor a la del infarto, y presenta un aumento de la anisotropía no-uniforme, lo que podr´ıa explicar el aumento de la TSV. A los dos meses post-MI, los EGMs se vuelven m´as extensos en tiempo y de menor amplitud [61], manifestándose en el ECG como cambios latido-a-latido de muy baja magnitud, derivando en una TSV de menor magnitud. El estándar QTVI se modula de manera similar a la TSV. Sin embargo, la desventaja de la QTVI es la necesidad de medir el fin de la onda T con precisión, mientras que en la TSV no. Modelo de infarto en humanos: despolarización ventricular. La modulación de la QRSSV fue similar a los otros modelos de isquemia/infarto. Parece razonable pensar que las anormalidades durante ambas, activación y recuperación, juegan un rol importante en la arritmogénesis, evidenciándose en la modulación de los índices espectrales. Además, en healing, los caminos de re-entrada y bloqueo de conducción se manifiestan a causa del aumento el tejido conectivo y del edema [82]. En [61], se observaron EGMs fraccionados que producían activación lenta y discontinua, la cual frecuentemente cambiaba latido-a-latido. Por otro lado, cuando se consideraron pacientes sin VT/VF, la SaECG no detectó diferencias significativas. Sin embargo, sólo en algunas derivaciones y para los pacientes que presentaron VT/VF, ambas técnicas detectaron diferencias estadísticas en healing respecto del control . Concluimos de esta manera que el cálculo la QRSSV detecta las alteraciones repetibles y variables latido-a-latido (determinísticas y aleatorias), mientras que la técnica de la SaECG solo captura las alteraciones repetitivas, cancelando las variables a causa del promediado. Esto muestra la ventaja de la QRSSV respecto de la SaECG, debido a que aquellos pacientes post-MI sin VT/VF no fueron detectados como de riesgo mediante la SaECG.]]> Valverde, Esteban Raúl]]>