"Item Id","Item URI","Dublin Core:Date Available","Dublin Core:Creator","Dublin Core:Title","Dublin Core:Contributor","Dublin Core:Description","Dublin Core:Subject","Dublin Core:Publisher","Dublin Core:Date","Dublin Core:Extent","Dublin Core:Type","Dublin Core:Is Part Of","Dublin Core:Language","Dublin Core:Format","Dublin Core:Rights","Dublin Core:License","Dublin Core:Identifier","Dublin Core:Source","Dublin Core:Relation","Dublin Core:Coverage","Dublin Core:Abstract","Dublin Core:Date Accepted","Dublin Core:Table Of Contents","Dublin Core:Alternative Title","Dublin Core:Date Created","Dublin Core:Date Copyrighted","Dublin Core:Date Submitted","Dublin Core:Date Issued","Dublin Core:Date Modified","Dublin Core:Date Valid","Dublin Core:Access Rights","Dublin Core:Conforms To","Dublin Core:Has Format","Dublin Core:Has Part","Dublin Core:Has Version","Dublin Core:Is Format Of","Dublin Core:Is Referenced By","Dublin Core:Is Replaced By","Dublin Core:Is Required By","Dublin Core:Is Version Of","Dublin Core:References","Dublin Core:Replaces","Dublin Core:Requires","Dublin Core:Medium","Dublin Core:Bibliographic Citation","Dublin Core:Spatial Coverage","Dublin Core:Temporal Coverage","Dublin Core:Accrual Method","Dublin Core:Accrual Periodicity","Dublin Core:Accrual Policy","Dublin Core:Audience","Dublin Core:Audience Education Level","Dublin Core:Mediator","Dublin Core:Instructional Method","Dublin Core:Provenance","Dublin Core:Rights Holder","Item Type Metadata:AIG","Item Type Metadata:Signatura","Item Type Metadata:Barcode","Item Type Metadata:Jurado de la tesis","Item Type Metadata:Consultor de la tesis","Item Type Metadata:Traductor","Item Type Metadata:Co-tutor","Item Type Metadata:Supervisor de la tesis","Item Type Metadata:Inventario Digitalización","Item Type Metadata:Text","Item Type Metadata:Original format","Item Type Metadata:Player","Carga de Apuntes Elements:Nombre","Carga de Apuntes Elements:Apellidos","Carga de Apuntes Elements:DNI",tags,file,itemType,collection,public,featured
19371,https://bibliotecadigital.fi.uba.ar/items/show/19371,,"Zitto, Miguel Eduardo","Análisis de series temporales asociado a procesos estocásticos no estacionarios y no lineales aplicaciones a series climatológicas y de emisión acústica","Piotrkowski, Rosa^^Canziani, Pablo","Grado obtenido: Doctor de la Universidad de Buenos Aires. Área Ingeniería^^Disciplina: Ingeniería^^Fil: Romero, Valeria Carolina. Universidad de Buenos Aires. Facultad de Ingeniería^^Departamento Matemática, Facultad de Ingeniería , UBA",,"Universidad de Buenos Aires. Facultad de Ingeniería",2022-05-11,"xxv, 166 p. ","info:eu-repo/semantics/doctoralThesis^^info:ar-repo/semantics/tesis doctoral^^tesis doctoral",,spa,,info:eu-repo/semantics/openAccess,,,,,,"En esta Tesis se investigan procesos de sistemas estocásticos, complejos y de múltiples interacciones, por medio de series temporales que son observables emergentes de los mismos. Dichas series tienen componentes estocásticas con un alto grado de correlación, son no lineales y no estacionarias. Por lo tanto su análisis debe ser realizado con métodos adecuados, como los empleados en la presente Tesis. La Transformada Wavelet es dentro del campo matemático del análisis armónico la que provee la óptima resolución en el plano tiempo frecuencia, permitiendo de este modo una excelente caracterización de las series no estacionarias. La Coherencia Wavelet permite determinar la similitud de dos series en el plano tiempo frecuencia. Si esta información se complementa con modelos dinámicos adecuados puede llegar a determinarse relación causa efecto entre fenómenos. La no linealidad de las interacciones que ocurren entre el sistema considerado y el exterior o entre partes del sistema se traduce en la no linealidad de las series temporales emergentes. Esto determina la aplicación de otros métodos para el análisis de las series, desarrollados en las últimas dos décadas. Con la descomposición empírica en modos se logra el análisis de la serie con una base a posteriori, obtenida mediante un algoritmo que trabaja directamente con los datos. Los modos son funciones oscilantes con media cero y elevado grado de ortogonalidad mutua lo que permite una descomposición completa. Las componentes tienen un ancho de banda en frecuencias sucesivamente decrecientes. Cuando no pueden extraerse más oscilaciones la función remanente es uniformemente creciente o decreciente y representa la tendencia de la serie. Aplicando a las componentes o modos la transformada de Hilbert se obtiene la frecuencia instantánea. El procedimiento completo se llama Transformada de Hilbert- Huang y provee una precisión en el plano tiempo-frecuencia que supera en muchos casos a la Transformada Wavelet. El grado de información acerca de los sistemas estudiados, con características altamente aleatorias, fue evaluado mediante los cálculos de Entropía de Shannon que nos indica el ordenamiento de la serie temporal, y la Información Mutua que es una medida de la dependencia, lineal o no, entre dos variables aleatorias. En esta Tesis se aplicaron los análisis descriptos en cuatro trabajos, dos de ellos a temas y señales referentes al clima del Hemisferio Sur, y los otros dos a temas y señales de Emisión Acústica provenientes de fractura de hormigón armado en estructuras edilicias mediante ensayos sísmicos. En el primer trabajo referente al clima, se estudió la variabilidad multidecádica de la temperatura de la estación meteorológica de Orcadas, que cuenta con más de 100 años de datos observacionales, donde se aplicaron modelos no lineales para determinar la variabilidad para las distintas estaciones del año y se realizó un análisis sobre la tendencia de la serie buscando la posible influencia antropogénica en el calentamiento global. En el segundo trabajo relacionado al clima se investigó acerca de la concordancia de las distintas definiciones y cálculos del índice del Modo Anular del Hemisferio Sur, Southern Annular Mode (SAM), uno de los patrones de variabilidad climática más importante de latitudes medias y altas del Hemisferio Sur. En los trabajos sobre fractura de hormigón, se analizaron las series de Emisión Acústica. La primera estructura estudiada fue una losa de hormigón armado sometida a cargas crecientes que simulan un terremoto. Se estudió el daño de la estructura en la forma de fracturas, ya que se trata de un material esencialmente frágil. Los sucesivos ensayos fueron con aceleración creciente y se logró seguir las sucesivas etapas de microfracturas que coalescen produciendo macrofracturas y luego algunas de ellas al ser detenidas en alguna barrera producen nuevas microfracturas. Esto se consiguió aplicando la Transformada Wavelet a las señales de Emisión Acústica y determinando frecuencias características asociadas a la formación de macrofracturas, responsables de los mayores niveles de daño. En el último trabajo se avanzó estudiando el daño local sobre la unión viga columna en una estructura sometida a cargas sísmicas, y se pudo definir un índice denominado energy b-value, para la evaluación del daño local en la unión. Series originadas en sistemas aparentemente tan diferentes pudieron ser conveniente analizadas con las técnicas utilizadas en esta tesis, debido a que son generadas por procesos estocásticos no estacionarios y no lineales que entrañan en última instancia un alto grado de similitud.^^This thesis investigates processes of stochastic systems, with complex and multiple interactions using time series that are observably emerging from them. Such series have stochastic components with a high degree of correlation, are non-linear and nonstationary. Therefore their analyses must be carried out with appropriate methods, such as those used in this Thesis. The Wavelet Transform is within the mathematical field of harmonic analysis and provides the optimal resolution in the time-frequency plane, thus allowing an excellent characterization of non-stationary series. Wavelet Coherence allows determining the similarity of two series in the time-frequency plane. If this information is complemented by appropriate dynamic models, a cause-effect relationship between phenomena can be determined. The non-linear internal or/and external system´s interactions give place to nonlinear emerging time series. So, this determines the necessity of applying advanced analytical methods, which were generated and improved in the last two decades. The empirical decomposition in modes allows the analysis of the series with an a posteriori basis, obtained through an algorithm that works directly with the data. The modes are zero-mean oscillating functions with a high degree of mutual orthogonality and the obtained decomposition is complete. The components have bandwidths at successively decreasing frequencies. When no more oscillations can be extracted, the remaining function is uniformly increasing or decreasing and represents the trend of the series. Applying the Hilbert transform to the components or modes defines instantaneous frequency. The complete procedure is called the Hilbert-Huang transform and provides a precision degree in the time-frequency plane that in many cases exceeds the one obtained with Wavelet Transform. The degree of information about the highly random studied systems was evaluated by calculating the Shannon Entropy, which indicates the ordering degree of the time series, and the Mutual Information, which is a measure of the dependence, linear or not, between two random variables. In this Thesis, the described analyses were implemented in four applications, two of them to themes and signals related to the climate of the South Atlantic, and the other two to topics and signals of Acoustic Emission from the fracture of reinforced concrete in building structures through seismic tests.In the first topic related to climate, the multidecadal variability of the temperature series of the Orcadas meteorological station was studied, which has more than 100 years of observational data. Non-linear models were applied to determine the variability for the different seasons of the year and an analysis was carried out on the trend of the series looking for the possible anthropogenic influence on global warming. In the second climate-related study, we investigated the concordance of the different definitions and calculations of the Southern Annular Mode (SAM) index, one of the most important patterns of climate variability in the middle and upper latitudes of the Southern Hemisphere.
In the topics related to fracture of reinforced concrete, the Acoustic Emission series coming from seismic tests were analyzed. The first structure studied was a reinforced concrete slab subjected to increasing loads that simulate an earthquake. The damage of the structure was in the form of fractures since concrete is an essentially brittle material. The successive tests were with increasing acceleration and it was possible to follow the successive stages of micro fractures that coalesce producing macro fractures and then some of them when stopped in some barrier produce new micro fractures. Damage evaluation was achieved by applying the Wavelet Transform to the Acoustic Emission signals and determining characteristic frequencies associated with the formation of macro fractures, responsible for the highest levels of damage. In the last application, fracture assessment was enhanced by studying the local damage on the column beam junction in a structure subjected to seismic loads. It was possible to define a new damage index called energy b-value, based on the Wavelet Transform. Series originating in apparently so different systems could be conveniently analyzed with the techniques used in this Thesis because they are all generated by nonstationary and nonlinear stochastic processes that ultimately involve a high degree of similarity.",,,,,,,,,,http://bibliotecadigital.fi.uba.ar/rights,,,,,,,,,,,,,application/pdf,,,,,,,,,,,,,,"T 2363^^Z822",,"Borgna, Juan Pablo ^^Larocca, Patricia Alejandra^^Torga, Jorge Román^^Vampa, Victoria Cristina ",,,,,,,,,,,,"EMISIÓN ACÚSTICA,NO ESTACIONARIO,NO LINEAL,SERIES CLIMATOLÓGICAS,SERIES TEMPORALES",https://bibliotecadigital.fi.uba.ar/files/original/2a85fa5c2adf6460f963d7c29b024d1d.pdf,"Texto - Tesis","
Tesis Doctorales
",1,0
19376,https://bibliotecadigital.fi.uba.ar/items/show/19376,,"Casciaro, Mariano Ezequiel","Análisis geométrico tridimensional de la red cardiovascular en el ser humano","Craiem, Damian^^Armentano, Ricardo Luis","Grado obtenido: Doctor de la Universidad de Buenos Aires. Área Ingeniería^^Disciplina: Ingeniería^^Fil: Casciaro, Mariano Ezequiel. Universidad de Buenos Aires. Facultad de Ingeniería^^Lugar de trabajo: Instituto de Medicina Traslacional, Trasplante y Bioingeniería – UF CONICET ",,"Universidad de Buenos Aires. Facultad de Ingeniería",2018-04-03,"219 p. ","info:eu-repo/semantics/doctoralThesis^^info:ar-repo/semantics/tesis doctoral^^tesis doctoral",,spa,,info:eu-repo/semantics/openAccess,,,,,,"Los factores de riesgo cardiovascular tradicionales (edad, sexo, hipertensión, tabaquismo, entre otros) reciben su nombre por incidir directamente sobre el riesgo de desarrollar una patología del sistema circulatorio. No obstante, personas con factores de riesgo similares desarrollan o no patologías de acuerdo a otros factores de riesgo adicionales. Dentro de este conjunto, en los últimos años la geometría de los vasos sanguíneos ha demostrado estar asociada al riesgo cardiovascular independientemente de los factores tradicionales. En esta tesis mostraremos la metodología desarrollada para reconstruir en forma no invasiva la geometría de los dos componentes vasculares fundamentales de la circulación: los vasos coronarios que alimentan al corazón, y la arteria aorta, principal conducto de la sangre hacia el resto del organismo. Ambos componentes son susceptibles al desarrollo patologías específicas, de alto riesgo y de gran importancia médica. Para analizar la forma arbórea de la circulación coronaria, desarrollamos dos herramientas: la primera, para la medición del ángulo de bifurcación de los vasos a partir de ajustes cilíndricos tridimensionales, y la segunda para comparar dos árboles arteriales sin correspondencia aparente utilizando modelos alométricos. En ambos casos, relacionamos las diferencias geométricas entre grupos con y sin patología coronaria, presente en forma de ateroesclerosis. Para el análisis de la aorta también desarrollamos dos herramientas: una para la modelización de la aorta obtenida a partir de tomografías sin contraste de pacientes en prevención primaria, y otra para la modelización de la aorta con patologías estructurales (ej. disecciones y aneurismas), útil incluso para segmentar la vasculatura luego de intervenciones de reparación endovascular. La amplia cohorte de pacientes sometidos a tomografía sin contraste nos permitió estudiar la forma promedio de la aorta de pacientes de riesgo intermedio, analizar la deformación natural de la aorta con el paso del tiempo, la hipertensión arterial y la enfermedad ateromatosa. El análisis de la cohorte de pacientes con patologías aórticas tratadas quirúrgicamente se utilizó para predecir la aparición de la enfermedad, estudiar su evolución y colaborar en tratamientos más efectivos. Globalmente, los algoritmos que desarrollamos lograron reconstruir rápidamente la geometría de los vasos sanguíneos en estudio. Estos algoritmos semiautomáticos fueron sometidos a un proceso de validación con fantomas, así como a estudios inter e intra observador, resultando en mediciones confiables y repetibles de la geometría vascular. Finalmente, nuestros resultados indicaron que la geometría arterial está relacionada con diferentes patologías cardiovasculares, independientemente de los factores de riesgo tradicionales.^^Traditional cardiovascular risk factors (age, sex, hypertension, smoking, among others) directly affect the risk of developing pathologies of the circulatory system. However, people with similar risk factors do not always develop the same pathologies, depending on additional risk factors. Within this group, in recent years the geometry of blood vessels has been shown to be associated with cardiovascular risk, independently of traditional factors. In this thesis we will show the methodology developed to reconstruct in a non-invasive way the geometry of the two fundamental vascular components of the circulation: the coronary vessels that feed the heart, and the aorta, the main conduit of blood to the rest of the organism. Both components are susceptible to the development of specific pathologies of medical importance due to their high risk. To analyze the arboreal shape of the coronary circulation, we developed two tools: the first, for the measurement of the bifurcation angle of the vessels from three-dimensional cylindrical adjustments, and the second to compare two arterial trees without apparent correspondence using allometric models. In both cases, we relate the geometric differences between groups with and without coronary disease, present in the form of atherosclerosis. For the analysis of the aorta we also developed two tools: one for the modeling of the aorta obtained from non-contrast tomography in patients in primary prevention, and another for the modeling of the aorta with structural pathologies (eg dissections and aneurysms), useful to segment the vasculature even after endovascular repair interventions. The large cohort of patients undergoing non-contrast tomography allowed us to study the average aortic shape of patients at intermediate risk, analyze the natural deformation of the aorta over time, in the presence of arterial hypertension and atheromatous disease. The analysis of the cohort of patients with aortic pathologies surgically repaired was used to predict the appearance of the disease, study its evolution and collaborate in more effective treatments.
Globally, the algorithms we developed were able to quickly reconstruct the geometry of the blood vessels under study. These semiautomatic algorithms were validated with phantoms, as well as inter and intra-observer studies, resulting in reliable and repeatable measurements of the vascular geometry. Finally, our results indicated that arterial geometry is related to different cardiovascular pathologies, independently of traditional risk factors.",,,,,,,,,,http://bibliotecadigital.fi.uba.ar/rights,,,,,,,,,,,,,application/pdf,,,,,,,,,,,,,19217,"T 2081^^C336",46627,"Risk, Marcelo^^Del Fresno, Mariana^^Arini, Pedro David^^Cerdá, Miguel",,,,,,,,,,,,"ALOMETRÍA CORONARIA,ALTERACIONES GEOMÉTRICAS PATOLÓGICAS,ANEURISMAS AÓRTICOS,ARTERIA AORTA,ARTERIAS CORONARIAS,ARTERIOESCLEROSIS,ATEROSCLEROSIS,DISECCIÓN AÓRTICA,ENFERMEDAD CORONARIA,FACTORES DE RIESGO GEOMÉTRICOS,GEOMETRÍA AÓRTICA NORMAL,SCORE CÁLCICO CORONARIO,SCORE CÁLCICO TORÁCICO",https://bibliotecadigital.fi.uba.ar/files/original/c1f26a35e18219872debb22b2510e44d.pdf,"Texto - Tesis","Tesis Doctorales
",1,0
18266,https://bibliotecadigital.fi.uba.ar/items/show/18266,,"López Rivarola, Felipe","Análisis multiescala termodinamicamente consistente para materiales compuestos como hormigón","Etse, Guillermo^^Folino, Paula","Grado obtenido: Doctor de la Universidad de Buenos Aires^^Disciplina: Ingeniería^^Fil: López Rivarola, Felipe. Universidad de Buenos Aires. Facultad de Ingeniería^^Lugar de trabajo: Laboratorio de Métodos Numéricos en la Ingeniería (LMNI) (LMNI - INTECIN -FIUBA)
",,"Universidad de Buenos Aires. Facultad de Ingeniería",2019-12-06,"151 p.","info:eu-repo/semantics/doctoralThesis^^info:ar-repo/semantics/tesis doctoral^^tesis doctoral",,spa,,info:eu-repo/semantics/openAccess,,,,,,"El uso de esquemas multiescala para el análisis computacional del comportamiento de falla de materiales compuestos se ha convertido en un tema prometedor para evaluar los complejos mecanismos de degradación en las diferentes escalas de observación y para conseguir información precisa sobre los efectos de estos procesos de degradación de las subescalas en el comportamiento de la respuesta macroscópica. En el marco de los procedimientos estándar de elementos finitos, tanto los procedimientos multiescala concurrentes y semi-concurrentes han sido considerados para analizar el comportamiento de falla de materiales casi frágiles. Los materiales compuestos se caracterizan por tener un dominio heterogéneo con constituyentes que son muy diferentes respecto a la geometría y/o al comportamiento. Para estos materiales es absolutamente necesario tener en cuenta la escala mesoscópica, ya que esta controla la respuesta macroscópica. Sin embargo, existen preguntas que están todavía abiertas a discusión. Primero, respecto a que tan apropiados son los criterios de homogeneización existentes para el análisis de procesos disipativos multifisicos en materiales compuestos. En segundo lugar, respecto a las capacidades de los procedimientos estándar de elementos finitos para representar estructuras mesoscópicas heterogéneas, ya que imponen restricciones geométricas ó condiciones de borde poco realistas que distorsionan las soluciones numéricas. En concordancia con esto, en este trabajo se propone en primer lugar un esquema de homogeneización para procedimientos multiescala semi-concurrentes. Se definen las condiciones necesarias y suficientes para cumplir con la consistencia termodinámica de los esquemas de homogeneización computacional. La propuesta es válida para procedimientos multiescala de comportamiento arbitrario, incluyendo tanto a medios continuos como discontinuos en cualquiera de las dos escalas. Se demuestra que el conocido criterio de Hill-Mandel para criterios de homogeneización es una condición necesaria, pero no suficiente para la consistencia termodinámica cuando se tienen materiales disipativos en cualquier escala. En este sentido, se establece la condición adicional a cumplir con respecto a la consistencia termodinámica multiescala. El esquema de homogeneización multiescala semi-concurrente y termodinámicamente consistente se amplía para modelar el comportamiento de falla de materiales termo-poroplásticos. La propuesta permite la formulación de un comportamiento con stitutivo acoplado, incluyendo la interacción termo, hidro y/o mecánica. El esquema de homogeneización propuesto da lugar a ecuaciones macroscópicas caracterizadas por una densidad de energía libre totalmente compatible con la microscópica. En primer lugar, el enfoque multiescala termodinámicamente consistente, propuesto en esta tesis, se aplica al caso general de los materiales termo-poroplásticos. Luego, la formulación se particulariza y se resuelve para el caso de los materiales termo-poroelásticos. Se muestra que la entropía macroscópica resultante y el vector de entropía tienen términos adicionales a los obtenidos en trabajos anteriores basados en diferentes estrategias de homogeneización. Despues de describir el procedimiento para implementar computacionalmente el procedimiento de homogeneización, se presentan análisis numéricos que tratan el comportamiento dependiente de la temperatura del hormigón. Los resultados demuestran la solidez del esquema propuesto y, de hecho, muestran una buena concordancia con resultados experimentales de la literatura respecto al efecto de la temperatura en el hormigón. Se considera un enfoque discreto para representar la respuesta material del volumen elemental representativo (RVE). La segunda parte de esta tesis trata con otro aspecto novedoso, que es evaluar las ventajas de aplicar el método de los elementos virtuales (VEM) en análisis multiescala y DNS (simulaciones numéricas directas) de compuestos heterogéneos. Para esto, se realizan resultados numéricos detallados tanto para difusión lineal como para elasticidad lineal. Se evalua la calidad de la solución discreta, y se destacan las diferencias entre un enfoque mesoscópico y uno multiescala. Se demuestran las capacidades y ventajas de usar VEM en análisis multiescala semi-concurrentes comparando contra DNS, especialmente cuando se trata de materiales compuestos con geometrías complejas y heterogéneas. Diferentes ordenes de interpolación fueron utilizados para tanto la escala macroscópica como microscópica, y se incluyen resultados que comparan contra discretizaciones estándar de elementos finitos. Finalmente, se delibera sobre nuevo enfoque para el análisis multiescala concurrente del comportamiento de falla de fractura. Este se basa en la combinación de elementos virtuales (VE) y elementos de interfaz (IE) en el marco del enfoque discreto. Se detalla el procedimiento propuesto para el mallado mesoscópico basado en la combinación de VEM y IE no lineales. Se presentan análisis numéricos que detallan los caminos de tensión y el comportamiento de falla, demostrando el potencial y la eficiencia del enfoque basado en VE e IE para materiales compuestos. Resumiendo, los aspectos novedosos de esta tesis son: 1. La propuesta de un proceso de homogeneización para análisis multiscala semiconcurrente basada en criterios termodinámicos. 2. La aplicación de VEM para análisis multiescala semi-concurrente para medios heterogéneos. Estas contribuciones originales fueron publicadas en revistas indexadas, y se detallan a continuación: Rivarola, F.L., Etse, G. and Folino, P., 2017. On thermodynamic consistency of homogenization-based multiscale theories. Journal of Engineering Materials and Technology, 139(3), p.031011. Rivarola, F.L., Benedetto, M.F., Labanda, N. and Etse, G., 2019. A multiscale approach with the Virtual Element Method: Towards a VE2 setting. Finite Elements in Analysis and Design, 158, pp.1-16. Rivarola, F.L., Labanda, N. and Etse, G., 2019. Thermodynamically consistent multiscale homogenization for thermo-poroplastic materials. Zeitschrift für angewandte Mathematik und Physik, 70(3), p.82. Rivarola, F.L., Labanda, N., Benedetto, M.F. and Etse, G., 2020. A virtual element and interface based concurrent multiscale method for failure analysis of quasi brittle heterogeneous composites. Under review.
^^The use of multiscale schemes for computational failure evaluations of composites materials has become a promising topic for evaluating the complex degradation mechanisms at different scales of observations and to achieve accurate information on the effects of these subscales degradation processes on the macroscopic response behaviour. In the framework of standard finite element procedures, both concurrent and semi-concurrent multiscale procedures were considered so far for analysing failure behavior of quasi-brittle materials. Composite materials are characterized by an heterogeneous domain with constituents that are very different with respect to geometry, size and/or response behaviour. In these materials it is absolutely necessary to take into account the mesoscopic scale, since it controls the macroscopic response. However, important questions arise which are still open. On the one hand, regarding the appropriateness of existing homogenization criteria for multiscale analyses of dissipative mulphysical processes in composites. And, on the other hand, regarding the capabilities of standard finite element procedures to represent heterogeneous mesoscopic structures because they impose geometric constraints and unrealistic boundary conditions that distort the resulting numerical solutions. In this line first a new homogenization schemes for semi-concurrent multiscale procedures is proposed. The necessary and sufficient conditions for fulfilling the thermodynamic consistency of computational homogenization schemes are defined. The proposal is valid for arbitrary homogenization based multiscale procedures, including continuum and discontinuum methods in either scale. It is demonstrated that the well-known Hill- Mandel criterion for homogenization scheme is a necessary, but not a sufficient condition for the micro-macro thermodynamic consistency when dissipative material responses are involved at any scale. In this sense, the additional condition to be fulfilled regarding multiscale thermodynamic consistency is established. Additionally, it is shown that the thermodynamic consistency enforces the homogenization of the non-local terms of the finer scale’s free energy density, however this does not lead to non-local gradient effects on the coarse scale. The thermodynamically consistent homogenization scheme for semi-concurrent multiscale approach is then extended to thermo-poroplastic failure behaviour. The proposal allows the formulation of coupled constitutive behaviour, including thermo-, hydroand/or mechanical interaction. The proposed homogenization scheme gives rise to macroscopic material equations characterized by a free energy density fully consistent with the microscopic one. Firstly, the thermodynamically consistent approach proposed in this thesis is applied to the general case of thermo-poroplastic materials. Then, the formulation is particularized and thoroughly resolved for the case of thermo-poroelastic materials. It is shown that the resulting macroscopic entropy and entropy vector have additional terms to those obtained in previous works based on different homogenization strategies. After describing the approach for the computational implementation of the homogenization scheme, numerical analysis are presented dealing with multiscale evaluations of the temperature-dependent cracking processes of concrete. The results demonstrate the soundness of the proposed scheme, and in fact shows good agreement with experimental results in the literature regarding the temperature effect on concrete. A discrete approach is considered to represent the RVE material response. The second part of this thesis deals with another novel aspect, that is evaluating the advantages of the application of the Virtual Element Method (VEM) in multiscale and DNS (direct numerical simulations) analysis of heterogeneous composites. In this sense, extensive numerical results for both the linear diffusion and linear elasticity settings are performed to assess the quality of the discrete solution, highlighting the differences between a mesoscopic and a multiscale approach. The capabilities and advantages of using VEM in semi-concurrent multiscale analyses are demonstrated by means of comparative studies with DNS results, particularly when dealing with composite materials with geometrically complex and heterogeneous media. Different interpolation orders of VE are considered at both, macro and mesoscopic levels, and comparative results with standards FE discretizations are included. Finally a new approach for concurrent multiscale analysis of fracture failure behaviour is discussed. This is based on combining Virtual Elements (VE) and interfaces in the framework of the discrete approach. The procedure for mesoscopic meshing proposed in this work based on combining VEM and non-linear interface elements (IE) is detailed. Numerical analysis are presented involving stress paths and failure behaviour that shows the potential and efficiency of the approach based on VE and IE for composite materials like concrete are discussed. Summarizing, the novel aspects in this thesis are: 1. The proposal of a new homogenization procedure for semi-concurrent multiscale analysis based on thermodynamic consistency criteria. 2. The application of VEM for semi-concurrent multiscale analysis of problems involving composites and heterogeneous media. 3. The combination of VEM with non-linear interfaces These original contributions were published in the following indexed journals: Rivarola, F.L., Etse, G. and Folino, P., 2017. On thermodynamic consistency of homogenization-based multiscale theories. Journal of Engineering Materials and Technology, 139(3), p.031011. Rivarola, F.L., Benedetto, M.F., Labanda, N. and Etse, G., 2019. A multiscale approach with the Virtual Element Method: Towards a VE2 setting. Finite Elements in Analysis and Design, 158, pp.1-16. Rivarola, F.L., Labanda, N. and Etse, G., 2019. Thermodynamically consistent multiscale homogenization for thermo-poroplastic materials. Zeitschrift für angewandte Mathematik und Physik, 70(3), p.82. Rivarola, F.L., Labanda, N., Benedetto, M.F. and Etse, G., 2020. A virtual element and interface based concurrent multiscale method for failure analysis of quasi brittle heterogeneous composites. Under review.
",,,,,,,,,,http://bibliotecadigital.fi.uba.ar/rights,,,,,,,,,,,,,application/pdf,,,,,,,,,,,,,,"T 2239^^L9257",,"Dvorkin, Eduardo^^Huespe, Alfredo^^Idiart, Martin ^^Cisilino, Adrian ",,,,,,,,,,,,,https://bibliotecadigital.fi.uba.ar/files/original/8351bed2cec68ac0c669587410993ef6.pdf,"Texto - Tesis","Tesis Doctorales
",1,0
19329,https://bibliotecadigital.fi.uba.ar/items/show/19329,,"Rincón Soler, Anderson Iván ","Análisis, implementación y validación de modelos biológicos y computacionales basados en el electrocardiograma de superficie","Arini, Pedro D.^^Bonomini, María P. ","Grado obtenido: Doctor de la Universidad de Buenos Aires^^Disciplina: Ingeniería^^Fil: Rincón Soler, Anderson Iván. Universidad de Buenos Aires. Facultad de Ingeniería^^Lugar de trabajo: Instituto de Ingeniería Biomédica, Facultad de Ingeniería - UBA.
Instituto Argentino de Matemática “Alberto P. Calderón”",,"Universidad de Buenos Aires. Facultad de Ingeniería",2021-07-15,"xvii, 98 p.","info:eu-repo/semantics/doctoralThesis^^info:ar-repo/semantics/tesis doctoral^^tesis doctoral",,spa,,info:eu-repo/semantics/openAccess,,,,,,"Las enfermedades cardiovasculares (ECV) son una de las principales causas de muerte en el mundo. Según datos de la organización mundial de la salud (OMS), en el 2018 tan sólo en Argentina el 35% del total de muertes registradas se debió a las ECV. Estas patologías se manifiestan como alteraciones en el comportamiento eléctrico del corazón, que pueden ser detectadas y clasificadas de acuerdo con variaciones en la forma que sigue un electrocardiograma (ECG) normal. A partir de esto, pueden ser identificados problemas como arritmias, bloqueos, fibrilación, isquemias, infartos, entre otros. Desde el mundo de la ingeniería han sido desarrollados y adaptados un gran número de métodos de procesamiento y análisis del ECG, permitiendo la detección y diagnóstico temprano de las ECV. Sin embargo, la escasez de bases de datos específicas hacen difícil optimizar las técnicas computacionales usadas, generando un gran número de falsos positivos y una baja especificidad en los diagnósticos automatizados. Una solución a este tipo de problema ha sido la creación de sistemas de modelado matemático/computacional que permiten recrear diversas y complejas situaciones electrofisiológicas. En este documento se presentan tres aproximaciones de modelado usando como punto de partida la señal del ECG. En el primer trabajo se aborda el problema de pérdida de datos en series temporales de variabilidad de la frecuencia cardiaca (en inglés, Heart Rate Variability - HRV), obtenidas a partir de registros electrocardiográficos medidos en ratas de laboratorio con diferentes condiciones cardiovasculares. Este tipo de problemas afecta considerablemente el cálculo de parámetros de la HRV utilizados para la cuantificación del riesgo cardiovascular. De esta manera, como primer paso procedimos a buscar y cuantificar pérdidas de latidos cardiacos con el fin de determinar la cantidad y ocurrencia de estos artefactos en nuestra base de datos. Con esta información construimos un modelo generador de pérdida de latidos y posteriormente se aplicaron distintas técnicas de corrección. Los métodos utilizados en esta etapa del trabajo fueron eliminación directa, interpolación lineal, interpolación cúbica, ventana de media móvil modificada e interpolación predictiva no lineal. El desempeño de las anteriores técnicas de corrección fue evaluado a través del cálculo de diferentes índices de la HRV usados ampliamente en detección y estimación del riesgo cardiovascular. En este trabajo, tales índices fueron calculados en las señales de la HRV sin presencia de pérdidas y luego de realizar las respectivas correcciones. A partir de los resultados encontrados, podemos establecer que para bajos niveles de pérdidas de información la mayoría de los métodos corrigen las series temporales de forma eficiente; obteniendo índices de la HRV muy similares en todas las situaciones analizadas. Sin embargo, cuando se modela un porcentaje alto de perdida de latidos se observa un bajo desempeño en casi todas las técnicas de corrección, excepto por el método de interpolación predictiva no lineal. Por tal motivo, y gracias a la posibilidad de modelar diferentes tipos de perdidas, podemos establecer que el anterior método es la técnica más efectiva para realizar recuperación de latidos perdidos en series de la HRV, sin alterar ni agregar información de sus parámetros lineales y no lineales. El segundo y tercer trabajo presentan dos aproximaciones desarrolladas para modelado y síntesis de señales del ECG con isquemia de miocardio por oclusión de una de las arterias coronarias principales. En una primera aproximación se utilizó el sistema de modelado conocido como ECGSyn, el cual esta basado en un sistema de ecuaciones diferenciales no lineales acopladas y alimentadas con parámetros específicos (ancho: ai, alto: bi, localización: ti) extraídos de las ondas P, Q, R, S, T de la señal de ECG. En esta caso, con la participación de un cardiólogo experto, se seleccionaron señales electrocardiográficas provenientes de oclusiones en la arteria coronaria derecha y sin presencia de otras patologías cardiovasculares. A continuación, todos los latidos fueron segmentados y sometidos a un proceso de extracción de características mediante un procedimiento de ajuste no lineal, usando una suma de 5 funciones Gaussianas y el método del gradiente descendente no lineal. Además, todos los parámetros característicos fueron ajustados mediante funciones de distribución normales y de esta forma se representó el comportamiento poblacional de los pacientes analizados. De este modo fue posible generar parámetros aleatorios para el modelo ECGSyn y producir latidos cardiacos artificiales con características isquémicas. Finalmente, pudimos comprobar que los latidos simulados son altamente comparables con las señales reales, presentando una dinámica morfológica que sigue la misma tendencia de los latidos reales y con variaciones del complejo ST-T acordes con lo observado en la base de datos original. La anterior aproximación de modelado mostró algunos problemas en las etapas de caracterización de datos y generación de latidos para niveles avanzados de isquemia, introduciendo alteraciones morfológicas importantes. Con el fin de encontrar una solución, se utilizó un modelo de mezcla de Gaussianas (en inglés, Gaussian Mixture Models - GMM) con el objetivo de aprender la dinámica de los datos y generar morfologías del ECG en pacientes que sufrieron oclusión en la arterias coronaria derecha y descendente anterior izquierda. Toda la información obtenida fue clasificada de acuerdo con la arteria y las derivaciones del ECG correspondientes, y a continuación, se realizó el entrenamiento y validación de cada uno de los GMM usados. Con cada modelo entrenado, el paso final consistió en la generación de latidos artificiales para las distintas arterias coronarias implicadas. Los resultados mostraron un mejor desempeño en comparación con el modelo anterior, el ECGSyn, ya que posibilitó la generación de morfologías más complejas y la inclusión de nuevos sitios de oclusión. Podemos concluir que a través del modelado de pérdida de latidos cardiacos es posible comparar cuantitativamente métodos de corrección de series RR. Además, fue posible generar señales electrocardiográficas con morfología isquémica. Estas últimas permitan el entrenamiento y validación de sistemas automáticos de detección, así como la optimización de algoritmos para supresión de ruido en este tipo de registros biomédicos. ^^Cardiovascular diseases (CVD) are one of the leading causes of death in the world. According to data from the World Health Organization (WHO), in 2018 in Argentina, 35% of all registered deaths were due to CVD. These pathologies are manifested as alterations in the electrical behaviour of the heart, which can be detected and classified according to alterations in the shape of an electrocardiogram (ECG) trace. From this, problems such as arrhythmias, ventricular blocks, fibrillation, ischemia, infarction, among others, can be identified. The engineering field has developed and adapted a large number of methods for processing and analyzing ECG signals, making great strides in the detection and early diagnosis of CVDs. However, in some cases the lack of specific databases make it difficult to optimize computational techniques, resulting in an increase of the number of false positives and a low specificity when a computer-assisted diagnosis is made. One solution to this type of problems have been the creation of mathematical/computational modeling systems for cardiac electrical activity, which make it possible to recreate diverse and complex electrophysiological situations. This document is composed of three papers that used as starting point the ECG signal. The first paper discusses the problem of data loss in Heart Rate Variability (HRV) time series obtained from electrocardiographic recordings, measured in laboratory rats with different cardiovascular conditions. This kind of problem has a several impact on calculation of HRV indices used to stratify cardiovascular risk. As initial step, we proceeded to detect and quantify heartbeat losses and determine the number and occurrence of these artifacts in our database. Throught this information we built a heartbeat loss generator model and test some artifactcorrection algorithms. Five correction methods were used to deal with this problem: Deletion, Linear Interpolation, Cubic Spline interplation, modified Average Moving Window and Nonlinear Predictive Interpolation. The performance of the above correction methods was evaluated through the calculation of different HRV indices, which have been widely used in several investigations to detect and estimate cardiac risk. In this work, such indices were calculated from HRV signals without the presence of losses and after the respective artifact corrections. From the results we found, we can establish that at low levels of information losses most of the correction methods solve the problem efficiently; obtaining very similar HRV indices in all the analyzed situations. However, when we model a high percentage of missing heartbeats, we observe a low performance in almost all correction techniques, except for the nonlinear predictive interpolation method. For this reason, and thanks to the possibility of modeling different types of losses, we can establish that the previous algorithm is the most effective method to recover lost heartbeats in HRV series, without altering or adding information in its linear and nonlinear parameters. The second and third papers present two approaches developed for modeling and synthesis of ECG signals with myocardial ischemia due to occlusion of one of the main coronary arteries. First, the modeling system known as ECGSyn was used, which is based on a system of coupled nonlinear differential equations supplied with specific parameters (width: ai, height: bi, location: ti) extracted from the P, Q, R, S and T waves of the ECG signal. In this case, with the participation of an expert cardiologist, electrocardiographic signals were selected from occlusions in the right coronary artery and without presence of other cardiovascular pathologies. Then, all heartbeats were segmented and submitted to a feature extraction process by a nonlinear fitting procedure that use the sum of 5 Gaussian functions and the nonlinear gradient descent method. All the characteristic parameters were adjusted by means of normal distribution functions and thus represented the population behavior of the analyzed subjects. In this way, it was possible to generate random parameters for the ECGSyn model and generate artificial heartbeats with ischemic features. Finally, we verified that the simulated beats are highly comparable with the real signals, presenting morphological dynamics that follow the same trend as the real heartbeats and with variations of the ST-T complex in concordance with the observations from the original database. The previous modeling approach showed some problems in the data characterization and heartbeat generation stages for high levels of ischemia, introducing important morphological alterations. In order to find a solution, a Gaussian mixture model (GMM) was used to learn the dynamics of the data and generate ECG signals from patients who suffered occlusion in the right and left anterior descending coronary arteries. All the information was classified according to the involved coronary artery and its corresponding ECG leads; then, this data was used to train an validate each GMM. Final step consisted of generating artificial heartbeats for the different coronary arteries involved in this work. The results showed a better performance in comparisson to the previous model, ECGSyn, as it permitted the generation of more complex morphologies and the inclusion of new occlusion sites. We can conclude that through the modeling of heartbeat loss it is possible to quantitatively compare methods used for artifact correction in RR series. In addition, it was possible to generate electrocardiographic signals with ischemic morphology. The latter allow the training and validation of automatic detection systems, as well as the optimization of algorithms for noise suppression in this kind of biomedical recordings.",,,,,,,,,,http://bibliotecadigital.fi.uba.ar/rights,,,,,,,,,,,,,application/pdf,,,,,,,,,,,,,20159,"T 2311^^R579^^616.12-073.7",,"Spinelli, Enrique ^^Piotrkowski, Rosa^^Laciar, Eric ^^Górriz Sáez, Juan Manuel",,,,,,,,,,,,"CGSYN,ELECTROCARDIOGRAFIA,INFARTO DE MIOCARDIOMODELADO DE SEÑALES ELECTROCARDIOGRÁFICAS,ISQUEMIA MIOCÁRDICA,MÉTODOS DE CLASIFICACIÓN NO SUPERVISADOS,MORFOLOGÍA DE LA ONDA T",https://bibliotecadigital.fi.uba.ar/files/original/c2c4c4e42855cbd0a960963c5fe30ac8.pdf,"Texto - Tesis","Tesis Doctorales
",1,0
19357,https://bibliotecadigital.fi.uba.ar/items/show/19357,,"Fernández, María Verónica","Aprovechamiento de porciones hortícolas subutilizadas: desarrollo de nuevos productos estabilizados por métodos combinados","Jagus, Rosa Juana^^Agüero, María Victoria","Grado obtenido: Doctor de la Universidad de Buenos Aires. Área Ingeniería^^Disciplina: Ingeniería^^Fil: Fernández, María Verónica. Universidad de Buenos Aires. Facultad de Ingeniería^^Lugar de trabajo: Laboratorio de microbiología industrial: Tecnología de alimentos - UBA",,"Universidad de Buenos Aires. Facultad de Ingeniería",2018-03-09,"xiii, 309 p.","info:eu-repo/semantics/doctoralThesis^^info:ar-repo/semantics/tesis doctoral^^tesis doctoral",,spa,,info:eu-repo/semantics/openAccess,,,,,,"En la presente Tesis se planteó la revalorización de las hojas de remolacha, porción subutilizada de la planta de remolacha (Beta vulgaris L.), que en Argentina no se aprovecha y generalmente es descartada como un residuo, lo que conlleva grandes desventajas a nivel ambiental, económico y social.
Como primera etapa se realizó la caracterización de este subproducto, del que hasta el momento se contaba con escasa información, para determinar su potencial para el desarrollo de nuevos productos alimenticios u otras formas de revalorización. Desde el punto de vista nutricional se encontró que la hoja de remolacha es fuente de valiosos nutrientes, destacándose su contenido de proteínas, grasas y fibra. Asimismo, el estudio de su composición proximal reveló que son una buena fuente de calcio, zinc y que se destacan por su alto contenido de hierro. Adicionalmente, son ricas en compuestos bioactivos como polifenoles totales, carotenoides y betalaínas, cuyo consumo se ha asociado a numerosos beneficios para la salud. El estudio de su contenido de antinutrientes indicó que los niveles de taninos y fitatos presentes en las hojas son bajos, mientras que el contenido de oxalatos se encontró en el mismo nivel que aquel que presentan otras hortalizas de hoja de consumo común. Su calidad microbiológica inmediatamente después de la cosecha fue la típicamente encontrada en otros vegetales frescos. Desde un punto de vista sensorial, presentaron las características deseables comúnmente requeridas para un vegetal de hoja: signos de frescura como turgencia, hojas brillantes, libres de daños, sin decoloraciones ni quemaduras en los bordes, entre otros. Adicionalmente se demostró que esta porción de la planta representa aproximadamente un 50% del material cosechado. Estos resultados posicionan a las hojas de remolacha como una excelente materia prima para su utilización como vegetal fresco para el consumo humano.
Al proyectar la recuperación de un subproducto vegetal para el consumo humano, uno de los principales desafíos está relacionado con la aceptación del mismo por parte de los consumidores. Tomando esto en consideración, en una segunda etapa, a través de una encuesta online, se evaluaron los hábitos y actitudes de los consumidores argentinos hacia el consumo de hojas de remolacha, revelándose que un porcentaje muy alto de personas no las consume, lo que se relacionó con el mal estado en el que las hojas llegan a los mercados minoristas, y a la falta de conocimiento sobre las características nutricionales de este vegetal. Adicionalmente, se encontró que los encuestados fueron positivamente influenciados al recibir información sobre los aspectos nutricionales de estas hojas, mostrando un aumento significativo en la predisposición para el consumo.
Otro reto sumamente importante en la recuperación de un subproducto vegetal es la estabilización de la materia prima para conservar sus atributos de calidad y proporcionar tiempo suficiente para su procesamiento, distribución y comercialización. En esta investigación verificamos que las condiciones de manejo postcosecha a las que las hojas se exponen actualmente generan una rápida disminución de la calidad sensorial, microbiológica y nutricional. Sin embargo, se demostró que es posible mantener su buena calidad inicial mejorando las condiciones de temperatura y humedad relativa durante su almacenamiento. En este sentido, se comprobó que cuando las hojas se manejan bajo condiciones recomendadas, se logra extender su vida útil por lo menos 16 días.
En la siguiente etapa se comenzó a trabajar en el desarrollo de un producto con esta materia prima: hojas de remolacha frescas cortadas mínimamente procesadas. Las características intrínsecas de las hortalizas mínimamente procesadas, como su baja acidez y alta humedad, junto con el elevado número de superficies cortadas, aumentan su susceptibilidad al crecimiento microbiano, lo que reduce su vida útil y aumenta el riesgo en el caso de contaminaciones con microorganismos patógenos. Tomando esto en consideración se evaluó el potencial de los antimicrobianos naturales nisina, natamicina, extracto de té verde y sus combinaciones para controlar el crecimiento de la microbiota nativa de hojas de remolacha, así como para prevenir el desarrollo de Listeria innocua y Escherichia coli, subrogantes de Listeria monocytogenes y Escherichia coli O157:H7, respectivamente, cuando ocurre una contaminación. Se realizaron ensayos in vitro para seleccionar los antimicrobianos y las combinaciones más prometedoras, se seleccionaron las concentraciones a utilizar en cada caso y finalmente se estudió su desempeño in vivo. Los tratamientos conteniendo té verde al 5% fueron muy efectivos para el control de bacterias aerobias mesófilas (BAM) y Enterobacterias (EB). Sin embargo, no se observó efectividad de los tratamientos individuales con nisina o natamicina. La combinación de té verde al 5% con nisina fue el tratamiento más eficaz para el control de las BAM, pero no introdujo ninguna mejora para el control de EB. Los tratamientos combinados de natamicina y extracto de té verde no produjeron ningún efecto adicional al obtenido con té verde solo sobre las BAM y EB. Por otro lado, para el control de mohos y levaduras, se observó un marcado comportamiento sinérgico con la combinación de té verde y natamicina. En cuanto al control de los microorganismos subrogantes de patógenos, tanto la nisina como el extracto de té verde fueron muy eficaces frente a Listeria. Aunque la nisina obtuvo mejores resultados iniciales, los resultados a largo plazo fueron similares. La combinación de estos antimicrobianos dio como resultado un efecto mejorado, logrando las mayores reducciones durante el almacenamiento. Entre los antimicrobianos probados, el único eficaz para el control de E. coli resultó ser el extracto de té verde, que demostró poseer una actividad notable frente a este microorganismo y un comportamiento dependiente de la concentración. De acuerdo con estos resultados, el extracto de té verde es una opción muy prometedora, ya sea sola o en combinación con otros antimicrobianos (dependiendo del objetivo del tratamiento) para la preservación de las hojas de remolacha y/o para el control de contaminaciones con Listeria monocytogenes y E. coli O157: H7.
Teniendo en cuenta que el envasado en atmósfera modificada (AM) es considerado, después de la conservación refrigerada, el método más efectivo para extender la vida útil de productos mínimamente procesados, en una siguiente etapa se estudió la aplicación de esta tecnología en el producto en desarrollo. Se comenzó seleccionando el material de empaque más promisorio entre los disponibles comercialmente en Argentina, uno de baja tasa de transmisión de oxígeno (TTO), dos de media TTO y uno de alta TTO. La mezcla de gases seleccionada para este trabajo fue la usualmente recomendada para vegetales de hoja (AM: 5% O2- 10% CO2- 85 % N2). El material de alta TTO utilizado para el envasado con modificación de la atmósfera inicial se destacó por ser el tratamiento más eficaz, fundamentalmente en lo referido a la preservación de compuestos bioactivos tales como las betalaínas, carotenos, clorofilas y polifenoles totales. El envasado en atmósferas modificadas, sin embargo, no resultó efectivo para el control microbiológico de los productos.
Es bien sabido que mediante la combinación de tratamientos se pueden lograr mejoras globales respecto de los resultados obtenidos mediante la aplicación de los tratamientos en forma individual. Es por ello que continuando con este proceso se trabajó con el material de empaque y los antimicrobianos seleccionados previamente. En este sentido, la combinación de los antimicrobianos naturales extracto de té verde 2,5% y nisina 500 UI/g con la tecnología de envasado en AM demostró tener gran potencial para controlar la microbiota nativa de la hoja de remolacha y adicionalmente resultó efectiva para el control de contaminaciones con subrogantes de los microorganismos patógenos Listeria monocytogenes y E. coli O157:H7. A su vez, el agregado de estos antimicrobianos tuvo el valor adicional de generar una “fortificación” del producto, aumentando enormemente su contenido de polifenoles totales y su capacidad antioxidante, con las enormes ventajas que esto conlleva para el consumidor dados los numerosos beneficios para la salud asociados a los polifenoles del té verde. Adicionalmente, la tecnología seleccionada logró preservar los sensibles atributos organolépticos del producto, prolongando su aceptabilidad hasta el día 14 de almacenamiento inclusive. De esta manera, teniendo en cuenta los datos de aceptabilidad microbiológica y sensorial y, considerando que los compuestos nutricionales fueron altamente estables durante el almacenamiento, el tratamiento combinado (té verde 2,5% + nisina 500 UI/g + AM) logró prolongar la vida útil del producto por al menos 7 días.
Como alternativa de revalorización de hoja de remolacha se trabajó en el desarrollo de otro producto: Batidos mixtos de frutas y verduras (F&V), también llamados batidos vegetales, donde la hoja de remolacha se utilizó como ingrediente. En los últimos años se ha observado un gran aumento en la demanda de este tipo de producto. Sus propiedades nutricionales, sensoriales y el hecho de que están listos para beber son factores decisivos para su éxito. Sin embargo, las bebidas a base de F&V tienen una corta vida útil que puede atribuirse principalmente al deterioro microbiano y enzimático. Para este producto se utilizaron las altas presiones hidrostáticas (APH) como tecnología de preservación. Se desarrolló la formulación del batido considerando aspectos sensoriales, nutricionales y tecnológicos. Se optimizaron los principales parámetros de procesamiento (nivel de presión y tiempo de retención) para minimizar los factores de deterioro y maximizar su calidad. Los resultados demostraron que el tratamiento con APH es una tecnología prometedora para la preservación de los batidos de F&V. Este tratamiento permitió reducir el número de microorganismos de deterioro y la actividad enzimática de los batidos desarrollados. Adicionalmente, las APH no afectaron el pH, los sólidos solubles totales, la textura ni el contenido de polifenoles totales, aumentaron en gran medida la capacidad antioxidante y mantuvieron o mejoraron ligeramente el color del batido. El análisis de optimización indicó que la aplicación de APH a 627,5 MPa durante 6,4 min permite la obtención de un producto con alta calidad y máxima reducción de los factores causantes de deterioro. Adicionalmente, a través de una prueba hedónica con consumidores se demostró que el tratamiento con APH no afecta las características organolépticas del batido, de manera que no se encontraron diferencias significativas respecto de la aceptabilidad sensorial de los consumidores.
Los siguientes estudios se enfocaron en la evaluación de la estabilidad de estos batidos durante el almacenamiento en refrigeración y a temperatura ambiente como así también frente a una contaminación con subrogantes de patógenos durante un almacenamiento en abuso de refrigeración. El tratamiento de los batidos de F&V con las condiciones optimizadas de APH logró controlar la microbiota nativa durante 28 días de almacenamiento refrigerado, eliminando de esta manera una de las principales causas de deterioro. Asimismo, se lograron reducciones significativas en las actividades enzimáticas de PME, POD y PPO inmediatamente después del tratamiento, destacándose su efecto sobre PME cuya actividad logró reducir en más del 70%. En el caso de PME y POD el nivel de actividad durante el almacenamiento se mantuvo en valores cercanos al alcanzado luego del tratamiento o incluso disminuyó. Por otro lado, la actividad de PPO aumentó durante el almacenamiento, sin embargo, las muestras tratadas siempre mantuvieron valores de actividad significativamente menores a los controles. Por otro lado, las muestras tratadas con APH con las condiciones optimizadas, luego del aumento inicial en el valor de los atributos nutricionales, mantuvieron niveles significativamente superiores a los controles en todos los casos durante el almacenamiento refrigerado, lo que indica una mayor estabilidad nutricional de las muestras tratadas. Es de destacar que las características fisicoquímicas evaluadas de los batidos no se modificaron con el tratamiento ni durante el almacenamiento. Con respecto al color, no se observaron modificaciones inmediatamente luego del tratamiento y durante el almacenamiento las muestras tratadas presentaron una mayor estabilidad. Respecto del almacenamiento de los batidos a temperatura ambiente, el tratamiento permitió obtener un producto microbiológicamente estable aún a esta temperatura. Sin embargo, la temperatura de almacenamiento afectó los compuestos nutricionales, especialmente los pigmentos betalámicos, y por lo tanto el color del batido limitando su aplicación. Adicionalmente se demostró que la tecnología de APH, en las condiciones estudiadas, permitió controlar una contaminación de 6 log UFC/g de E. coli y de L. innocua en los batidos de F&V, durante 12 días a 15ºC (abuso de refrigeración). Estos resultados indicaron que el tratamiento
permitiría asegurar la inocuidad del producto frente a posibles contaminaciones con estos microorganismos, de alta relevancia en este tipo de producto.
Los resultados encontrados en esta Tesis permiten posicionar a las hojas de remolacha, actualmente consideradas un subproducto de desecho, como una materia prima de excelente calidad para ser utilizada para el consumo humano, entre otras aplicaciones. Se desarrollaron dos propuestas de nuevos productos utilizando esta materia prima: “hojas de remolacha frescas cortadas mínimamente procesadas” y un “batido mixto de frutas y verduras”. En ambos desarrollos se utilizaron tecnologías de preservación no térmicas: envasado en atmósferas modificadas, antimicrobianos naturales o altas presiones hidrostáticas. Estas tecnologías se aplicaron de manera individual, combinadas entre ellas en algunos casos y/o con refrigeración, de manera que se propuso para cada producto un método de preservación adecuado no solo para lograr la estabilidad del producto y prolongar su vida útil, sino también efectivo frente a posibles contaminaciones con microrganismos de interés.",,,,,,,,,,http://bibliotecadigital.fi.uba.ar/rights,,,,,,,,,,,,,application/pdf,,,,,,,,,,,,,19225,"T 2090^^F365",46635,"François, Nora J.^^Vicente, Ariel R.^^Campos, Carmen Adriana^^Rodríguez, Silvia del Carmen",,,,,,,,,,,,"ALMACENAMIENTO DE ALIMENTOS,ANALISIS DE ALIMENTOS,ATMOSFERA CONTROLADA,ENVASADO DE ALIMENTOS,INDUSTRIA ALIMENTARIA,MICROBIOLOGIA DE ALIMENTOS,REMOLACHAS",https://bibliotecadigital.fi.uba.ar/files/original/2166661cbff092e98e727f1576ffdfcf.pdf,"Texto - Tesis","Tesis Doctorales
",1,0
9563,https://bibliotecadigital.fi.uba.ar/items/show/9563,,"Dieuzeide, María Laura","Aprovechamiento del glicerol, subproducto del biodiesel, en la producción de hidrógeno","Amadeo, Norma Elvira","Grado obtenido: Doctor de la Universidad de Buenos Aires. Área Ingeniería ^^Disciplina: Ingeniería^^Fil: Dieuzeide, María Laura. Universidad de Buenos Aires. Facultad de Ingeniería^^Lugar de trabajo: Laboratorio de Procesos Catalíticos, Departamento de Ing. Química, Facultad de Ingeniería, UBA. En el marco de la Beca Doctoral Peruilh, FIUBA.","REACCIONES DE REFORMADO^^GLICERINA^^HIDROGENO^^CATALIZADORES^^BIOCOMBUSTIBLES","Universidad de Buenos Aires. Facultad de Ingeniería",2013-03-19,"339 p. ","info:eu-repo/semantics/doctoralThesis^^info:ar-repo/semantics/tesis doctoral^^tesis doctoral",,spa,,info:eu-repo/semantics/openAccess,,,,,,"El objetivo principal de esta tesis es el estudio de la reacción de reformado de glicerol con vapor de agua para producir hidrógeno. Con tal fin, se optimiza la preparación de catalizadores soportados de Ni-Mg-Al y se analizan los efectos de las variables del proceso sobre la conversión de glicerol y rendimientos a productos gaseosos.
Se describe la situación de los biocombustibles, entre ellos el biodiesel, en el contexto de la necesidad de conceder valor agregado al glicerol. Se presenta además, el concepto novedoso de biorefinería. Se realiza también, un análisis pormenorizado de los trabajos publicados en la reacción de reformado de glicerol, considerando principalmente los catalizadores utilizados (fase activa y soporte) y las condiciones de reacción consideradas. Como así también, se consideran diversos trabajos relacionados con el sistema catalítico Ni-Mg-Al.
Se presentan los resultados del análisis termodinámico de la reacción de reformado de glicerol con vapor de agua implementando el método estequiometrico, con el objeto de identificar las condiciones de reacción en las cuales se maximiza la producción de hidrógeno minimizando la formación de carbón.
En el desarrollo experimental, se presentan las diferentes técnicas de caracterización empleadas para el estudio de los catalizadores. Se describe el equipo de flujo utilizado para los ensayos catalíticos y la técnica cromatográfica y finalmente se definen los diferentes parámetros considerados para la evaluación catalítica.
En lo que respecta a la optimización de la preparación del catalizador de Ni-Mg-Al, se realiza un extenso estudio en el cual se analiza en forma sistemática el efecto de los distintos contenidos de Mg(II) y Ni(II) y los efectos de la temperatura de calcinación del soporte modificado y de calcinación de los catalizadores, sobre las características texturales y estructurales de los sólidos y sobre la actividad catalítica. Procurando correlacionar las características de los sólidos con los resultados de actividad catalítica.
Se estudia la influencia de las variables del proceso de reformado (temperatura de reacción, tiempo de contacto y composición de alimentanción), sobre los resultados de actividad catalítica para el catalizador de NiMgAl obtenido por impregnación y para otro catalizador preparado a partir del hidróxido doble laminar de NiMgAl, con probada actividad en la reacción de reformado con vapor de etanol. A partir de este estudio, resulta factible postular un esquema de reacciones para ambos catalizadores. Asimismo, del análisis del efecto de la composición de la alimentación sobre los resultados de conversión y rendimiento a H2 se propone un posible mecanismo de reacción para el reformado de glicerol con vapor.
Finalmente, se comparan los resultados de actividad catalítica obtenidos para ambos catalizadores bajo las mismas condiciones de reacción y se correlacionan con los resultados de caracterización de los sólidos. Se consideran también, en este punto, estudios de estabilidad y de formación de carbón para ambos catalizadores.^^The main objective of this research is to study the steam reforming of glycerol to produce hydrogen. To this end, the preparation of supported catalysts Ni-Mg-Al is optimized. Additionally, the effect of process variables on glycerol conversion and yields to gaseous products are analysed.
In order, to contextualize this research and to explain why it necessary to add value to glycerol, a synthesis regarding biofuels status including biodiesel is performed. Furthermore, the concept of biorefineries is considered. A detailed analysis of the published bibliography as regards the steam reforming of glycerol is done; mainly considering the catalysts employed (active phase and support) and the reaction conditions. Moreover, various studies related to the catalytic system Ni-Mg-Al are taken into account.
Results from the thermodynamic analysis of the steam reforming of glycerol, obtained by the stoichiometric method, are presented. The aim is to identify the reactions conditions in order to maximize hydrogen production while carbon formation is minimized.
In the experimental section, the different characterization technique employed to study catalysts are described. Also, a description of both the equipment used for catalyst evaluation and the chromatographic technique are included. The different parameters considered for catalytic evaluation are considered.
As regards to the optimization of the preparation of Ni-Mg-Al catalysts, a large study is performed; considering the following variables: the calcination temperature of the support and of the catalysts, Mg(II) and Ni(II) contents. An attempt to correlate the textural and structural characteristics of the solids with the catalytic performance is done.
The effect on the catalytic activity of the variables of the process (reaction temperature, contact time and feed composition), for both catalysts, are analysed. Based on these studies, it is feasible to propose a reaction scheme for the steam reforming over both catalysts. As well, the effect of reactants ratio in the feed is considered, in order to propose a kinetic behaviour.
Finally, the activity results for both catalysts obtained under the same reaction conditions are compared and correlated with the corresponding characterization results. In addition, stability test and coke formation studies for both catalysts are considered.",,,,,,,,,,http://bibliotecadigital.fi.uba.ar/rights,,,,,,,,,,,,,application/pdf,,,,,,,,,,,,,13523,"D567^^T 1909",41035,"Abello, María Cristina^^Nichio, Nora N.^^Huerto Ulla, María Alicia del^^Larrondo, Susana Adelina",,,,,,,,,,,,"BIOCOMBUSTIBLES,CATALIZADORES,GLICERINA,HIDROGENO,REACCIONES DE REFORMADO",https://bibliotecadigital.fi.uba.ar/files/original/6eee98c73bc10da7e970357e61ee487a.pdf,"Texto - Tesis","Tesis Doctorales
",1,0
19723,https://bibliotecadigital.fi.uba.ar/items/show/19723,,"Rozenblit, Abigail","Baterías de litio avanzadas para el almacenamiento de energías renovables y la recuperación sostenible de litio","Calvo, Ernesto Julio ^^Laborde, Miguel Ángel","Grado obtenido: Doctor de la Universidad de Buenos Aires. Área Ingeniería^^Disciplina: Ingeniería^^Fil: Rozenblit, Abigail. Universidad de Buenos Aires. Facultad de Ingeniería; Argentina.","BATERIAS ELECTRICAS^^LITIO^^RECURSOS ENERGETICOS^^EXTRACCION^^RESERVORIOS^^FUENTES DE ENERGIA RENOVABLES","Universidad de Buenos Aires. Facultad de Ingeniería",2023-12-11,"253 p.","info:eu-repo/semantics/doctoralThesis^^info:ar-repo/semantics/tesis doctoral^^tesis doctoral",,spa,application/pdf,info:eu-repo/semantics/openAccess,,,,,,"El litio es un actor fundamental en la búsqueda de la sustentabilidad y la transición energética, y además representa un recurso estratégico para nuestro país. En Argentina actualmente se concentra aproximadamente el 9% de las reservas mundiales de litio, pero su aprovechamiento para el beneficio de la sociedad todavía enfrenta un desafío clave: el desarrollo local de tecnología para su extracción y empleo en baterías, tanto para aplicaciones móviles como estacionarias. En esta tesis se exploran las baterías basadas en intercalación de ion-litio con múltiples enfoques, pero sobre la base de procesos comunes de transporte de masa en el electrolito, reacción interfacial de intercalación de iones litio y difusión de litio dentro de las partículas de material activo. Asimismo, se establecieron las diferencias entre baterías para almacenar energías renovables, y baterías de flujo para recuperar litio de salmueras de la puna. Primeramente, se estudió la batería con ánodo de Li4Ti5O12 y cátodo de LiMn2O4 (LTO/LMO), lo que se desarrolla en el capítulo 3. Este sistema de electrodos de intercalación se eligió luego de una extensa revisión bibliográfica, ya que presenta buenas propiedades de almacenamiento de energía, ciclabilidad y durabilidad apta para acoplar a sistemas de generación de energías renovables (solar y eólica) en lugares remotos, pudiendo perdurar por muchos años en funcionamiento. En el laboratorio, se desarrollaron tintas para hacer los electrodos, y se testearon las baterías en ciclos de carga y descarga. En paralelo, se modeló y se realizaron simulaciones numéricas de los procesos en estas baterías con la plataforma COMSOL Multiphysics®, validando el modelo frente a datos publicados por otros autores. Durante este análisis, se estudió un parámetro fundamental en el desempeño de la batería como es el tamaño de las partículas de los materiales activos que intercalan litio. Se desarrolló un modelo que permitió analizar más de un tamaño de partícula en el material de cátodo de batería. Tener un control de la microestructura del material podría tener un impacto significativo en la capacidad resultante del sistema. Si este parámetro resulta tan crítico en una batería cerrada, ¿por qué no lo sería en los sistemas de extracción y recuperación de litio, si muchos de estos emplean también materiales de intercalación? Los reactores para la extracción directa de litio que vienen desarrollándose en el grupo de trabajo son esencialmente baterías de flujo con electrodos de intercalación de litio que toman selectivamente iones litio de la salmuera y que luego lo liberan en una solución de recuperación, bajo condiciones controladas. El primer acercamiento a los sistemas de flujo en este trabajo fue a través de un sistema 10 de electrodiálisis de fosfato de litio para obtener LiOH de alta pureza, luego de separar calcio y magnesio de las salmueras naturales y precipitación de fosfato de litio. En el capítulo 4 se propone este método para la obtención de LiOH como alternativa al método tradicional cal-soda, se estudia el sistema de batería de flujo y se proponen mejoras a los modelos que venían implementándose en el grupo de trabajo para simular los reactores de extracción. Principalmente, se propone resolver los perfiles de concentración dentro de la membrana separadora que está entre los compartimentos de los electrodos, permitiendo capturar los fenómenos de membrana, su distribución de potencial y cómo se acopla el modelado de la membrana al resto de la batería para tener definición de concentraciones de todas las especies en todo punto en el reactor y entender cómo afecta esto a los potenciales. Luego de comprender el sistema de flujo implementado en la electrodiálisis, se combinó el conocimiento adquirido en los capítulos 3 y 4 para proceder en el capítulo 5 con el estudio del sistema de LiMn2O4/Li(1-x)Mn2O4 (doble LMO) para la extracción directa de litio de salmueras en un sistema de batería de flujo con materiales de intercalación de baterías. En esta sección se desarrolló experimentalmente el reactor de LMO con diferente concentración de litio, poniendo especial énfasis en el efecto del tamaño de la partícula de LMO y su impacto en la capacidad de extracción. Se hicieron mejoras y agregados al modelo que se venía implementando en el grupo de trabajo, incorporando el transporte en las membranas y se incorporó el estudio de los perfiles de concentración de litio dentro de la partícula de LMO. Esto permitió extraer conclusiones muy importantes sobre del efecto que tiene el tamaño de la partícula del material activo y la difusión del litio en los sobrepotenciales y en la capacidad de extracción. La fuerza impulsora en estos sistemas denominados “rocking chair” (por el vaivén de los iones litio entre los dos electrodos de intercalación) es la diferencia en el estado de carga inicial de los materiales, además de la diferencia de concentración de litio entre la salmuera y la solución de recuperación. Un electrodo de LMO inicia completamente litiado (LiMn2O4), mientras que el otro inicia lo más delitiado posible (Li1-xMn2O4 ). Así, al aplicar una corriente constante, el electrodo deficiente en litio capta iones litio de la salmuera, mientras que el de mayor concentración de litio libera la misma cantidad de iones litio en la solución de recuperación separada por la membrana semipermeable a los aniones. Para lograr la diferencia inicial de estados de carga se estudiaron dos métodos de delitiación: uno químico y otro electroquímico. La delitiación química se realizó por oxidación del LiMn2O4 con persulfato de amonio en solución. Para el método electroquímico de extracción de litio de LiMn2O4 se empleó un reactor de flujo con un contraelectrodo de polipirrol (PPy) que permite selectivamente captar aniones. Mediante la aplicación de una corriente constante, se liberan los iones litio del 11 LiMn2O4 y los iones cloruro. El estudio comparativo de ambos métodos concluyó que la delitiación electroquímica es más eficiente y se adapta mejor al escalado de rectores electroquímicos, logrando mayor porcentaje de delitiación en menos tiempo y menor degradación del material activo. Todos estos aspectos resultan clave a la hora de analizar el escalado de la tecnología, ya que el propósito principal es establecer las condiciones óptimas para llevar el proceso a una escala industrial. El estudio de la delitiación electroquímica, llevó a retomar el análisis del sistema PPy/LMO como sistema de extracción, previamente estudiado en el grupo de trabajo, pero incorporando una membrana selectiva a los aniones. Al emplear el PPy en lugar de LMO como segundo electrodo se tiene la ventaja operativa de poder llevar a cabo todas las etapas del proceso sin necesidad de desarmar el reactor: delitiación, intercalación de litio de salmuera y recuperación de LiCl. La ventaja de este sistema en comparación con el doble LMO es que lo único que se modifica de una etapa a la siguiente son las soluciones de salmuera y recuperación que circulan en los compartimentos. En el capítulo 6 se describen los resultados de la extracción con el sistema PPy/LMO, y las simulaciones numéricas asociadas utilizando una nueva técnica de pulsos, a diferencia de los experimentos galvanostáticos tradicionales. Se estudió experimentalmente y por modelado la técnica de pulsos tanto para la delitiación como para la extracción de litio. Se encontró que aplicar pulsos de corriente alternados con periodos de relajación a circuito abierto favorece la atenuación de gradientes de concentración por difusión de iones litio en el sólido reduciendo los sobrepotenciales por gradientes de concentración que limiten la intercalación/desintercalación. Se realizaron experimentos y simulaciones de la técnica de pulsos tanto en el reactor de doble LMO como en el reactor de PPy/LMO. Es importante hacer hincapié en que el enfoque general de esta tesis está puesto en cómo ambos tipos de sistemas (baterías para almacenamiento de energía y reactores tipo batería de flujo de extracción de litio de salmueras por intercalación) pueden abordarse como baterías en esencia, pero teniendo bien en claro las diferencias que existen entre ambas tecnologías, que pueden resumirse en los siguientes puntos: • Las baterías para almacenamiento de energía son sistemas cerrados, cuyo electrolito es único y tiene una concentración constante. El reactor de extracción tiene un flujo continuo de soluciones, en las que la concentración de iones cambia y que además son dos: la solución fuente de litio (salmuera) y la solución de recuperación. La convección forzada de electrolito se suma a la difusión y migración como fuerza impulsora para el flujo de iones. 12 • Los volúmenes de electrolito y espesores de electrodo en ambos sistemas son considerablemente diferentes. En las baterías, se usan unos pocos microlitros de electrolito y electrodos del orden de los micrones de espesor, mientras que los reactores de flujo trabajan con reservorios de medio litro de electrolito y electrodos de espesor milimétrico. • En las baterías de flujo la densidad de energía y la potencia están desacopladas, lo que es muy atractivo a la hora de pensar en el escalado de una tecnología. A pesar de estas diferencias, las baterías de almacenamiento y los reactores batería de flujo son dispositivos hermanados en los materiales de intercalación de litio que emplean, y que son el pilar del mecanismo de funcionamiento en sistemas de captura y liberación de iones. Es por eso que el tamaño de partícula resulta de vital importancia en ambas tecnologías. En los sistemas de extracción por intercalación, la fuerza impulsora para la entrega de energía es la diferencia de estados de carga inicial de los electrodos (en el caso del doble LMO) y la diferencia en la actividad de litio en las soluciones a uno y otro lado de la membrana. Mientras la concentración de iones litio en la salmuera sea mayor que en la solución de recuperación, el voltaje de la celda será positivo y su ΔG negativo, indicando la espontaneidad del proceso de entrega de energía. Es por eso también que la caída óhmica es un factor importantísimo en el escalado, ya que mantener la operación por encima del umbral ΔE=0 es lo que garantizará la operación del sistema en modo batería. Las conclusiones principales de este trabajo son: • El tamaño de partícula tiene un rol clave en la capacidad específica de todas las baterías con materiales de intercalación: sean baterías cerradas o baterías de flujo para la extracción directa de litio. Partículas más pequeñas permiten que la corriente aplicada sea mayor sin pérdida de capacidad, mientras se mantenga constante la densidad de corriente, a expensas de mayores sobrepotenciales. • En las baterías de extracción, si el tamaño de partícula de LMO es más pequeño, se aprovecha mejor el material, intercalando litio en toda su extensión sin dejar porciones de material inactivo que limitan la capacidad específica de extracción. • Una batería de extracción con electrodos de PPy/LMO es una excelente candidata como método de extracción directa de litio escalable, ya que permite la operación completa sin desarmado intermedio del reactor, requiriendo únicamente el cambio de las soluciones en los compartimentos entre una etapa y la siguiente. 13 • La técnica de aplicación de corriente por pulsos permite una mayor intercalación de litio en el material ya que da tiempo para que la concentración se homogenice dentro del sólido, atenuando los gradientes de concentración cerca de la superficie de la partícula, que es donde se da la reacción electroquímica, y así permitiendo renovar la fuerza impulsora para la reacción en cada pulso. • Se analizan los parámetros de funcionamiento de baterías de ion litio y de los reactores de flujo como tamaño de partícula, densidad de corriente local, caída óhmica, etc. que permitan el escalado industrial.",,,,,,,,,,http://bibliotecadigital.fi.uba.ar/rights,,,,,,,,,,,,,application/pdf,,,,,,,,,,,,,,"T 2435^^R8934",,"Corti, Horacio^^Dvorkin, Eduardo^^Nuria García-Araez^^Leiva, Ezequiel",,,,,,,,,,,,"BATERÍAS DE FLUJO,BATERÍAS DE LITIO,EXTRACCIÓN DE LITIO,LITIO",https://bibliotecadigital.fi.uba.ar/files/original/fa9ca4f9fcd9e0d855168e93ab29df6d.pdf,"Texto - Tesis","Tesis Doctorales
",1,0
9430,https://bibliotecadigital.fi.uba.ar/items/show/9430,,"Sfriso, Alejo Oscar","Caracterización mecánica de materiales construídos por partículas","Bertero, Raúl D.","Grado obtenido: Doctor de la Universidad de Buenos Aires. Area Ingeniería^^Disciplina: Ingeniería^^Fil: Sfriso, Alejo Oscar. Universidad de Buenos Aires. Facultad de Ingeniería^^Lugar de trabajo: Laboratorio de Materiales y Estructuras, Facultad de Ingeniería - UBA^^Referencias bibliográficas p.191-205","ESFUERZO CORTANTE^^ANALISIS DE TENSIONES^^DEFORMACION PLASTICA^^INTERACCIONES SUELO-ESTRUCTURA^^METODO DE ELEMENTOS FINITOS^^MODELOS MATEMATICOS","Universidad de Buenos Aires. Facultad de Ingeniería",2010,"205 p. ","info:eurepo/semantics/doctoralThesis^^info:arrepo/semantics/tesis doctoral^^tesis doctoral^^info:eu-repo/semantics/acceptedVersion",,español^^spa,,info:eu-repo/semantics/restrictedAccess,,,,,,"Resumen: El primer objeto de esta tesis es el desarrollo de un modelo constitutivo para arenas con las características descriptas en la sección anterior, y orientado al análisis rutinario de problemas de interacción suelo — estructura. El segundo objeto de la tesis es la implementación del modelo en un programa de elementos finitos general, con una robustez suficiente como para que pueda ser aplicado a problemas reales de cualquier naturaleza.",,,,,,,,,,http://bibliotecadigital.fi.uba.ar/rights,,,,,,,,,,,,,application/pdf,,,,,,,,,,,,,11594,"T 1772",35679,"Pestana Nascimento, Juan Manuel^^Redolfi, Emilio^^Prato, Carlos^^Ete, Guillermo^^Bertero, Raúl D.",,,"Weber, Guillermo G.",,,,,,,,,"ANALISIS DE TENSIONES,DEFORMACION PLASTICA,ESFUERZO CORTANTE,INTERACCIONES SUELO-ESTRUCTURA,METODO DE ELEMENTOS FINITOS,MODELOS MATEMATICOS",https://bibliotecadigital.fi.uba.ar/files/original/240812012e8a819986f10ecb8e732ebc.pdf,"Texto - Tesis","Tesis Doctorales
",1,0
19355,https://bibliotecadigital.fi.uba.ar/items/show/19355,,"Charó, Gisela Daniela","Control de separación no estacionaria a partir de líneas de emisión","Artana, Guillermo O.^^Sciamarella, Denisse ","Grado obtenido: Doctor de la Universidad de Buenos Aires^^Disciplina: Ingeniería^^Fil: Charó, Gisela Daniela. Universidad de Buenos Aires. Facultad de Ingeniería^^Lugar de trabajo: Laboratorio de fluidodinámica, depto. de Ing. Mecánica, Facultad de Ingeniería. UBA. En el marco de la beca doctoral CONICET.",,"Universidad de Buenos Aires. Facultad de Ingeniería",2020-03-30,"170 p. ","info:eu-repo/semantics/doctoralThesis^^info:ar-repo/semantics/tesis doctoral^^tesis doctoral",,spa,,info:eu-repo/semantics/openAccess,,,,,,"Las estelas no estacionarias formadas por la separación de la capa límite de un cuerpo romo constituyen un tema de interés en fluidodinámica, tanto desde un punto de vista académico como desde sus aplicaciones. En estos escurrimientos, a diferencia de lo que ocurre en casos estacionarios, el análisis desde las dos perspectivas relevantes para la descripción de la dinámica de un fluido –la Euleriana y la Lagrangiana– dan lugar a predicciones no comparables. Las líneas de emisión están vinculadas a la formulación Lagrangiana y se definen como el conjunto de partículas de un fluido que han pasado por un punto fijo en el pasado. Pueden materializarse en el laboratorio inyectando un trazador pasivo desde un determinado punto de sembrado, pero también pueden identificarse fuera del ambiente de laboratorio en algunos procesos de derrame.
En los escurrimientos estacionarios, las líneas de emisión coinciden con las líneas de corriente que están intrínsecamente vinculadas a la formulación Euleriana. En estos casos, dos masas de fluidos miscibles separados por una línea de corriente tenderán a mezclarse sólo por el mecanismo de difusión molecular. El proceso de mezclado, sin embargo, puede acelerarse imponiendo una perturbación no estacionaria al campo de velocidad, incorporando así el mecanismo de transporte
advectivo a través de la interfaz. La comprensión de este proceso, y la posibilidad de cuantificar el fenómeno de mezclado, son de suma importancia para fluidos que van desde la escala de los escurrimientos geofísicos hasta la microfluídica, permitiendo determinar por ejemplo, el modo en que un contaminante se mezcla con el fluido circundante, o cómo un reactivo puede mezclarse eficazmente en un reactor. Esta tesis introduce el uso del análisis topológico de series temporales Lagrangianas a través de homologías, como diagnóstico de la diversidad dinámica en los escurrimientos fluidos. Se demuestra que esta técnica, originada en el estudio de la topología del caos, constituye una herramienta potente para comprender los fenómenos de transporte. El análisis de variedades enramadas a través de homologías (BraMAH) en el espacio de fases reconstruido a partir de una serie temporal, permite calcular la topología asociada a una reconstrucción dinámica. Las series temporales analizadas marcan la evolución de una variable vinculada a la trayectoria de una partícula individual, como puede serlo una coordenada de posición. El enfoque revela la estructura topológica subyacente al comportamiento de una partícula de fluido, permitiendo clasificar un conjunto de partículas de acuerdo al tipo de dinámica que están desplegando en su movimiento durante una ventana de tiempo finita. La eficacia de la estrategia se demuestra con casos de estudio correspondientes a escurrimientos cinemáticos canónicos que presentan barreras de transporte, así como también a la estela cercana de un cilindro oscilatorio rotante, que da lugar a islas de no mezclado evidenciadas por primera vez en esta tesis. Las partículas capturadas dentro de una isla de no mezclado, comparten la misma descripción homológica. La conexión entre los resultados del análisis topológico y las propiedades de transporte de los fluidos es puesta en evidencia utilizando líneas de emisión.^^Nonstationary wakes formed by the separation of the boundary layer of a bluff body are of interest in fluid dynamics, both from an academic viewpoint as well as from the point of view of applications. In these flows, in contrast to what happens in stationary cases, the analysis from the two perspectives that are relevant to describe the dynamics of a fluid –the Eulerian and the Lagrangian frames– produce non comparable predictions. Streaklines are associated to the Lagrangian formulation, and are defined as the set of particles passing through a fixed point in the past. They can be materialized in the laboratory through the injection of a passive tracer from a determined injection or seeding point, but they can also be identified outside the laboratory in some spill processes. In stationary fluids, streaklines coincide with streamlines, which are intrinsically linked to the Eulerian formulation. In such cases, two miscible blobs separated by a streamline will tend to mix through a process called diffusion. The mixing process, however, can be accelerated incorporating a nonstationary perturbation of the velocity, to impart an advective transport through the interface. The possibility of understanding this process, and of quantifying mixing, ranges from geophysical fluids to microfluidics, for example in assessing how a pollutant mixes with the surrounding fluid, or how a sample and a reagent can be mixed together effectively in reactor. This thesis introduces the use of topological time-series analysis through homologies as a diagnostic for Lagrangian dynamical diversity in fluid flows. This technique, developed in the framework provided by topology of chaos, is shown to constitute a powerful tool to understand transport phenomena. Branched Manifold analysis through Homologies (BraMAH) from time series enables computing the topology associated to a dynamical reconstruction. The analyzed time series correspond to the evolution of a scalar variable associated to an individual particle trajectory, as is the case of a coordinate position. The approach unravels the topological structure underlying the behavior of a fluid particle according to the dynamics that deploys within a finite time window. The effectiveness of the strategy is demonstrated with canonical case studies of kinematic flows that present transport barriers, as well as with the near wake of a cylinder that performs a rotary oscillation leading to non mixing islands that are unraveled for the first time in this thesis. The particules that are trapped into a non mixing island, are found to share the same homological description. The connection between the results of the topological analysis and the transport properties of the fluid is evidenced using streaklines.",,,,,,,,,,http://bibliotecadigital.fi.uba.ar/rights,,,,,,,,,,,,,application/pdf,,,,,,,,,,,,,,"T 2352^^C4691",,"Minotti, Fernando ^^Cantero, Mariano I.^^Nigro, Norberto^^Piotrkowski, Rosa",,,,,,,,,,,,"ESTRUCTURAS COHERENTES LAGRANGIANAS,HOMOLOGÍA,TOPOLOGIA DEL CAOS",https://bibliotecadigital.fi.uba.ar/files/original/75dfb44d97e137b0e06cd5870e121fcb.pdf,"Texto - Tesis","Tesis Doctorales
",1,0
19370,https://bibliotecadigital.fi.uba.ar/items/show/19370,,"Toscani, Micaela","Deconvolución con super-resolución en imágenes de microscopía por superposición de fuentes virtuales","Martínez, Oscar E. ^^Martínez, Sandra ^^Lew, Sergio E.","Grado obtenido: Doctor de la Universidad de Buenos Aires. Área Ingeniería^^Disciplina: Ingeniería^^Fil: Toscani, Micaela. Universidad de Buenos Aires. Facultad de Ingeniería^^Lugar de trabajo: Laboratorio de Fotónica, Insituto de Ingeniería Biomédica, Facultad de Ingeniería, UBA, en el marco de la beca doctoral CONICET",,"Universidad de Buenos Aires. Facultad de Ingeniería",2022-02-11,"141 p. ","info:eu-repo/semantics/doctoralThesis^^info:ar-repo/semantics/tesis doctoral^^tesis doctoral",,spa,,info:eu-repo/semantics/openAccess,,,,,,"En este trabajo hemos desarrollado e implementado un método de deconvolución con super-resolución. Pudiendo superar el límite de resolución de un sistema óptico incorporando al planteo de la deconvolución la información a priori que propone la aproximación SUPPOSe. La cual establece que es posible aproximar la estructura real como una superposición de fuentes puntuales de igual intensidad, denominadas fuentes virtuales. Esto nos permitió simplificar el problema de deconvolución y convertirlo en un problema de minimización sin restricciones, donde la única incógnita a encontrar son las posiciones de las fuentes virtuales SUPPOSe. Posiciones que pueden tener valores en todo el dominio del espacio de la imagen. Hemos puesto a prueba el algoritmo SUPPOSe con imágenes en dos dimensiones, tanto para el caso de imágenes sintéticas como para el caso de imágenes experimentales adquiridas con sistemas de baja resolución. Demostrando que le método logra reconstruir la estructura real que se encuentra distorsionada en las imágenes. Hemos generado un conjunto de datos sintéticos que simulan diferentes condiciones experimentales para poner a prueba el algoritmo. A partir de los resultados obtenidos hemos caracterizado cómo varía la calidad de la solución en función de las características de la imagen procesada. Así mismo validamos estos resultados procesando imágenes experimentales con diversas estructuras en la muestra y bajo diferentes condiciones de adquisición.^^In this work we developed a deconvolution method with super-resolution. Making it possible to overcome the resolution limit of an optical system by incorporating the a priori information proposed by the SUPPOSe approach to the deconvolution problem. This approach establishes that it is possible to approximate the real structure as a superposition of point sources of equal intensity, called virtual sources. This allowed us to simplify the deconvolution problem and turn it into an unconstrained minimization problem, where the only unknowns are the positions of the SUPPOSe virtual sources. These positions can take values in the entire domain of the image space. We have tested the SUPPOSe algorithm with two-dimensional images, both in the case of synthetic images and in the case of experimental images acquired with low-resolution systems. Proving that the method can reconstruct the real structure that is distorted in the images. We have created a synthetic data set that simulates different experimental conditions to test the algorithm. From the results obtained we have characterized how the quality of the solution varies depending on the characteristics of the processed image. We also validate these results by processing experimental images with different structures in the sample and under different acquisition conditions.",,,,,,,,,,http://bibliotecadigital.fi.uba.ar/rights,,,,,,,,,,,,,application/pdf,,,,,,,,,,,,,,"T 2362^^T713",,"Barrantes, Francisco^^Bragas, Andrea^^Estrada, Laura^^Levi, Valeria",,,,,,,,,,,,"DECONVOLUCIÓN,FLUORESCENCIA,FUENTES VIRTUALES,MICROSCOPÍA,SUPER-RESOLUCIÓN",https://bibliotecadigital.fi.uba.ar/files/original/97f5a1b51d598910c0ea09807a9db63e.pdf,"Texto - Tesis","Tesis Doctorales
",1,0