Tesi di Dottorato
Permanent URI for this communityhttps://lisa.unical.it/handle/10955/10
Browse
24 results
Search Results
Item Gas permeation through zeolite membranes: modelling and experimental analysis(Università della Calabria, 2020-03-27) Zito, Pasquale Francesco; Critelli, Salvatore; Barbieri, Giuseppe; Brunetti, AdeleLa separazione gassosa è uno stadio fondamentale in numerosi processi industriali, in quanto consente la purificazione e il recupero di componenti ad alto valore (come H2) e, allo stesso tempo, la riduzione delle emissioni di vari inquinanti atmosferici, quali, ad esempio, la CO2. Tradizionalmente, essa viene condotta tramite assorbimento e distillazione criogenica, tecniche ben note e consolidate. Tuttavia, entrambe risultano ad alto impatto ambientale, in quanto necessitano dell’impiego di un solvente (assorbimento) o di condizioni operative drastiche (distillazione criogenica). Pertanto, nell’ottica di uno sviluppo più sostenibile, che vada nella direzione della green chemistry (ovvero progettare prodotti e processi che evitino o riducano l’utilizzo e la produzione di sostanze dannose per l’ambiente) e segua i principi della Process Intensification in termini di minori consumi energetici e volumi di impianto, le membrane rappresentano una valida alternativa ai processi tradizionali. In questo lavoro di dottorato, sono state studiate le potenzialità delle membrane zeolitiche nel separare correnti gassose contenenti CO2, gas permanenti (N2, H2, CH4) e vapore, mediante un’indagine modellistica e sperimentale. Il trasporto di materia attraverso i pori zeolitici è stato descritto sviluppando un modello ad-hoc che considerasse la competizione tra surface diffusion e gas translation diffusion. Tale modello, validato per miscele secche ed umide su membrane di vario tipo (SAPO-34, DDR, NaY, 4A), è stato utilizzato per prevedere la separazione multicomponente al variare delle condizioni operative. La permeazione in miscela è risultata molto diversa rispetto quella in gas singolo. In particolare, la CO2 ha mostrato un incremento di permeanza in presenza di alcune specie, come l’idrogeno. In questo caso, infatti, essa usufruisce dell’effetto positivo esercitato dall’idrogeno sulla diffusività binaria, che regola la surface diffusion in miscela. Al contrario, le specie più debolmente adsorbite (H2, N2, CH4) hanno subìto una netta riduzione di flussi e permeanze in miscela, a causa dell’effetto di hindering che la CO2 adsorbita esercita sulla loro diffusione. Ciò si è tradotto in selettività di miscela (per esempio, 22 nel caso di CO2/N2 in SAPO-34) significativamente migliori rispetto a quelle valutate con i gas singoli. Si è dimostrato, quindi, come sia importante avere un’analisi del trasporto in miscela, nell’ottica di una valutazione realistica delle proprietà separative delle membrane, fondamentale in fase di progettazione di unità di separazione. Le previsioni modellistiche sono state confermate e corroborate da prove sperimentali per correnti a diversa composizione, effettuate su una membrana DDR fornita dal Professore Xuehong Gu, della Nanjing Tech University. Le misure sperimentali hanno confermato elevate selettività in miscela (per esempio, 106 e 17 nel caso di CO2/CH4 e CO2/H2), diverse da quelle calcolate sulla base di misure a gas singolo. Questi valori di selettività rendono le zeoliti particolarmente adatte per recuperare la CO2 da correnti di miscele multicomponente. Per quanto riguarda le miscele umide, si è dimostrato come l’acqua in fase vapore blocchi completamente la diffusione superficiale dei gas permanenti (H2, CO e CH4), i quali permeano solo per gas translation diffusion. Pertanto, la competizione tra surface diffusion e gas translation diffusion, espressa nel modello proposto, ha consentito di descrivere accuratamente la permeazione in membrane zeolitiche e di prevedere così il comportamento in ampi intervalli di condizioni operative. L’analisi modellistica ha confermato come l’alta affinità di queste membrane verso CO2 e H2O le renda particolarmente selettive e, dunque, indicate per ottenere correnti concentrate di permeato e retentato da poter riutilizzare e valorizzare.Item Identification of Brain Structures and Functional Cortico - Muscular Networks: Machine Learning Object Recognition and Network Physiology Approach(Università della Calabria, 2020-03-05) Rizzo, Rossella; Critelli, Salvatore; Pantano, Pietro; Ivanov, PlamenThe brain is the most complex part in the human body. This organ is responsible for our intelligence, interpreting sensation, initiating body movement, and controlling all of our behaviors. Over hundreds of years, scientists have learned much about the brain, from a microscopic and macroscopic point of view. We now know the general rules under which information is transferred from neuron to neuron and we can differentiate between various brain structures and brain areas, each of them responsible of a particular function in the human organism. However, due to the vast complexity of the brain, much remains to be discovered. Researchers continue to explore the mechanics regulating a healthy brain that functions quickly and automatically, but we are still at the point where much work remains to identify the key differences between a physiological and a pathological situation in anatomic brain structures and functionality of the brain. The lack of information in this sense affects the diagnostic process of many neurodegenerative disorders, that can be discovered only from the symptoms shown by the subject and that, therefore, can be treated to reduce the pain and to give better conditions of life. The present research aims to better understand anatomic brain structures and functional interactions networks in the brain in order to early diagnose the most common neurodegenerative diseases. In the framework of the investigation of the anatomic brain structures the Neuroimaging is the most powerful tool used in basic research and clinical field. The Magnetic Resonance Imaging (MRI) is one of the most recent techniques of brain imaging and largely used for its low degree of invasion in the human body. It can provide valuable information in the detection of morphological markers that can highlight on the healthy status of the subject. A fundamental step in the pre-processing and analysis of magnetic resonance images is the individuation of the Mid-Sagittal Plane (MSP), where the mid brain is located, in order to set a coordinate reference system for the MRI scan images, and to precisely measure small changes in the surfaces, volumes and distances between different brain areas, which are used as biomarkers in the diagnostic process of certain diseases, such as Parkinson, Alzheimer, Progressive Supra-Nuclear Palsy. In this regard, part of the present research involves the improvement of brain MRIs analysis, with the use of machine learning techniques applied for the automatic identification of the MSP. In particular, the proposed method, Image Pixel Intensity (IPI) algorithm, is implemented in MatLab and is based on the k-mean, which allow to automatically segment the 2D MRIs in different brain tissues, and automatically identifies the slice where the brain tissues are most distinct from each other exploiting the intensity of the resonance signal expressed in the MRI by the color of the grayscale pixels. The results of this algorithm have been compared with the evaluation of four medical experts who manually identified the Mid-Sagittal, providing an average percentage error of 1.84%, and demonstrating that the proposed algorithm is promising and could be directly incorporated into larger diagnostic support systems. Following the main aim of the present research, the early diagnosis of neurodegenerative diseases, another machine learning technique, elastic net, has been implemented in Matlab in order to automatically predict the brain age, exploiting relationships involving the amount of gray matter present in the brain of the subjects analyzed, through a structural MRI study. The outcome of this work is the identification of profound correlations between the expected brain age and the general cognitive state: semantic verbal fluidity, processing speed, visual attention and cognitive flexibility, and visual attention and cognitive flexibility. Among the neurodegenerative diseases Parkinson lately acquired particular interest, due to its growing diffusion even within forty years old patients. This led to the study of functional interactions networks between the brain and the locomotor system during different sleep stages. Electroencephalography (EEG) and electromyography (EMG) data of healthy subjects and Parkinson's patients have been analyzed highlighting the correlations between different frequency bands present in the electrical signals emitted in the different brain areas and in the muscles of the chin and leg. Synchronous bursts in electrical activity signals in the brain and muscles have been analyzed, using the innovative method of Time Delay Stability (TDS), based on the cross-correlation function in consecutive time windows between two different signals. Links between the different frequency bands of different brain areas and the muscles with a long stable delay of the peak in the cross-correlation function are considered more stable, then stronger. The same analysis has been conducted on healthy and Parkinson's subjects, showing substantial differences in the networks of cortico-muscular interactions involving different frequencies between a physiological situation and a pathological one. Each sleep stage is uniquely identified by a particular pattern in the brain-muscle interactions. For Parkinson’s subjects these functional patterns change during each sleep stage; moreover, in general the strength of the links decreases during wake and light sleep but increases or remains the same during REM and deep sleep, especially for the brain-leg interactions, showing that during the waking phase the brain is not able to adequately control the muscles of the lower limbs. Analyzing in details the behavior of muscles the electric activity of different muscle fibers has been studied, considering subjects of different age groups (children, young adults and elderly subjects) in situations of stress or rest. In particular, EMG signals from the muscles of the leg and the back have been taken into account. The analysis shows that rest and stress have very different patterns, due to the different types of muscle fibers involved and how they behave during muscle relaxation and contraction; these relationships also change with age, identifying patterns that uniquely identify the age of the subjects analyzed and also vary during the same exercise by marking the precise point at which the subject reaches fatigue first and exhaustion afterwards.Item Analysis of nonlinear phenomena in heterogeneous materials by means of homogenization and multiscale techniques(Università della Calabria, 2020-06-07) Pranno, Andrea; Critelli, Salvatore; Bruno, Domenico; Greco, FabrizioOver the past decade, scientific and industrial communities have shared their expertise to improve mechanical and structural design favoring the exploration and development of new technologies, materials and ad-vanced modeling methods with the aim to design structures with the highest structural performances. The most promising materials used in many advanced engineering applications are fiber- or particle-rein-forced composite materials. Specifically, materials with periodically or randomly distributed inclusions embedded in a soft matrix offer excel-lent mechanical properties with respect to traditional materials (for in-stance, the capability to undergo large deformations). Recent applica-tions of these innovative materials are advanced reinforced materials in the tire industry, nanostructured materials, high-performance structural components, advanced additive manufactured materials in the form of bio-inspired, functional or metamaterials, artificial muscles, tunable vi-bration dampers, magnetic actuators, energy-harvesting devices when these materials exhibit magneto- or electro-mechanical properties. To-day the scientific community recognizes that, to develop new advanced materials capable of satisfying increasingly restrictive criteria, it is vital fully understanding the relationship between the macroscopic behavior of a material, and its microstructure. Composite materials are charac-terized by complex microstructures and they are commonly subjected also to complex loadings, therefore their macroscopic response can be evaluated by adopting advanced strategies of micro-macro bridging, such as numerical homogenization and multiscale techniques. The aim of this thesis is to provide theoretical and numerical methods able to model the mechanical response of heterogeneous materials (fiber- or particle-reinforced composite materials) in a large deformation context predicting the failure in terms of loss of stability considering also the interaction between microfractures and contact. In the past literature, several theories have been proposed on this topic, but they are preva-lently limited to the analysis of microscopic and macroscopic instabili-ties for not damaged microstructures, whereas the problem of interac-tion between different microscopic failure modes in composite materi-als subjected to large deformations in a multiscale context still has not been investigated in-depth and it represents the main aspect of novelty of the present thesis. The thesis starts with a literature review on the previously announced topic. Then, the basic hypotheses of the numerical homogenization strategy are given together with a review of the most recurring mul-tiscale strategies in the modeling of the behavior of advanced composite materials following a classification based on the type of coupling be-tween the microscopic and the macroscopic levels. In addition, a theo-retical non-linear analysis of the homogenized response of periodic composite solids subjected to macroscopically uniform strains is given by including the effects of instabilities occurring at microscopic levels and the interaction between microfractures and buckling instabilities. Subsequently, the numerical results obtained were reported and dis-cussed. Firstly, the interaction between microfractures and buckling instabili-ties in unidirectional fiber-reinforced composite materials was investi-gated by means of the nonlinear homogenization theory. In such mate-rials, the investigated interaction may lead to a strong decrease in the compressive strength of the composite material because buckling causes a large increase in energy release rate at the tips of preexisting cracks favoring crack propagation or interface debonding. Thus, mi-crocracked composite materials characterized by hyperelastic constitu-ents and subjected to macrostrain-driven loading paths were firstly in-vestigated giving a theoretical formulation of instability and bifurcation phenomena. A quasi-static finite-strain continuum rate approach in a variational setting has been developed including contact and frictionless sliding effects. It worth noting that, the above developments show that non-standard self-contact terms must be included in the analysis for an accurate prediction of microscopic failure; these terms are usually ne-glected when contact is modelled in the framework of cohesive inter-face constitutive laws. The influence of the above-mentioned non-standard contributions on the instability and bifurcation critical loads in defected fiber-reinforced composites can be estimated in light of the results which will be presented in this thesis. Thus, the role of non-standard crack self-contact rate contributions to the stability and non-bifurcation conditions was pointed out by means of comparisons with simplified formulations and it was clearly shown that these contribu-tions have a notable role in an accurate prediction of the real failure behavior of the composite solid. Secondly, two multiscale modeling strategies have been adopted to an-alyze the microstructural instability in locally periodic fiber-reinforced composite materials subjected to general loading conditions in a large deformation context. The first strategy is a semiconcurrent multiscale method consisting in the derivation of the macroscopic constitutive re-sponse of the composite structure together with a microscopic stability analysis through a two-way computational homogenization scheme. The second approach is a novel hybrid hierarchical/concurrent mul-tiscale approach able to combine the advantages inherent in the use of hierarchical and concurrent approaches and based on a two-level do-main decomposition; such a method allows to replace the computation-ally onerous procedure of extracting the homogenized constitutive law for each time step through solving a BVP in each Gauss point by means of a macro-stress/macro-strain database obtained in a pre-processed step. The viability and accuracy of the proposed multiscale approaches in the context of the microscopic stability analysis in defected compo-site materials have been appropriately evaluated through comparisons with reference direct numerical simulations, by which the ability of the second approach in capturing the exact critical load factor and the boundary layer effects has been highlighted. Finally, the novel hybrid multiscale strategy has been implemented also to predict the mechanical behavior of nacre-like composite material in a large deformation context with the purpose to design a human body protective bio-inspired material. Therefore, varying the main micro-structural geometrical parameters (platelets aspect ratio and stiff-phase volume fraction), a comprehensive parametric analysis was performed analyzing the penetration resistance and flexibility by means of an in-dentation test and a three-point bending test, respectively. A material performance metric, incorporating the performance requirements of penetration resistance and flexibility in one parameter and called pro-tecto-flexibility, was defined to investigate the role of microstructural parameters in an integrated measure. The results have been revealed that advantageous microstructured configurations can be used for the design and further optimization of the nacre-like composite material.Item La valutazione della vulnerabilità sismica degli edifici storici in muratura mediante diversi approcci(Università della Calabria, 2020-04-16) Porzio, Saverio; Critelli, Salvatore; Oliverio, Renato SanteLe costruzioni in muratura rappresentano gran parte del tessuto costruito e la loro salvaguardia riveste un ruolo sociale e culturale primario. Basti pensare che molti di questi edifici – quali chiese, palazzi, castelli, torri – si pongono come simboli delle città in cui riconoscersi e riconoscere le città stesse. L’interesse di studiosi e ricercatori è, dunque, rivolto alla definizione di strumenti utili alla valutazione della vulnerabilità sismica delle costruzioni storiche in muratura. Vari metodi sono attualmente in uso per la valutazione sismica dei manufatti murari, così come diversificate sono le strategie per simulare il comportamento meccanico dei materiali costituenti. Ai consolidati metodi grafici per la valutazione della sicurezza statica degli archi, volte e cupole, si sono aggiunti nuovi modelli di analisi favoriti dall’introduzione del calcolo numerico. Questo lavoro di tesi mira a valutare il comportamento delle costruzioni storiche in muratura attraverso alcuni dei diversi approcci attualmente impiegati e convalidati dalla comunità scientifica. Gli studi eseguiti partono dall’analisi di alcuni degli elementi costitutivi maggiormente rappresentativi in un edificio, quali volte e pareti, per proseguire con analisi globali attuate con differenti strategie di modellazione. Relativamente alle analisi locali, le indagini sulle volte composte – vale a dire quelle originate dall’intersezione di due volte a botte – sono state svolte in termini statici applicando le teorie dell’analisi membranale, mentre per le pareti murarie si è valutata la loro risposta nei confronti delle azioni fuori dal piano al fine di evidenziarne il contributo nella risposta sismica d’insieme del fabbricato. Riguardo alle analisi globali, uno dei principali strumenti per la valutazione della risposta sismica è rappresentato dall’analisi statica non lineare, chiamata anche analisi pushover, la quale abbina accuratezza dei risultati ad un non eccessivo tempo di calcolo. Tuttavia, nelle strutture più irregolari, l’utilizzo degli approcci canonici – che richiedono la lettura degli spostamenti solo di alcune parti del fabbricato – può portare a risultati completamente inesatti, sia a causa dell’insorgenza dei meccanismi locali di collasso che alla differente risposta della costruzione in relazione alle sue capacità duttili a livello locale. Quest’ultimo aspetto compete al tracciamento della curva di capacità della struttura che avviene, generalmente, considerando un unico punto di controllo: se questo si sposta poco, relativamente breve sarà il ramo della curva elasto-plastico dell’oscillatore equivalente; e viceversa. È per tale ragione che si è sviluppata una metodologia consistente nel considerare diversi punti di controllo, non scelti a priori, ma suggeriti dallo stato di danneggiamento individuato dalle simulazioni numeriche. All’interno della metodologia proposta, è stata definito un nuovo strumento grafico di rappresentazione degli spostamenti dei punti di controllo: l’evoluzione del danno è mostrata utilizzando delle sfere, i cui raggi sono proporzionali agli spostamenti rilevati ed il cui baricentro ha le stesse coordinate del punto di controllo che rappresenta. Le dimensioni delle sfere possono fornire informazioni sul danno occorso e sulla posizione dei punti deboli della struttura investigata, diventando così uno strumento utile per orientare le decisioni sulla tecnica di rinforzo strutturale più adeguata. La validazione della metodologia proposta è avvenuta confrontando – per un caso studio reale consistente in una costruzione di forma triangolare realizzata esclusivamente in muratura – i valori di accelerazione spettrale ottenuti mediante tutte le tipologie di approcci impiegati: dall’individuazione del moltiplicatore dei carichi mediante il teorema cinematico dell’analisi limite, applicato sul meccanismo di collasso fuori piano ritenuto più significativo, all’analisi dinamica non lineare eseguita prendendo in considerazione un accelerogramma artificiale spettro-compatibile, passando per la già citata analisi statica non lineare. I risultati mostrano una comparabilità di valori per gli approcci numerici evidenziando, invece, una discrepanza con quelli analitici a causa di diversi fattori, fra cui la non-raffinatezza dei metodi semplificati. Tuttavia, si sono dedotte informazioni dettagliate sul comportamento strutturale generale dell’edificio, nonché sulla sua sicurezza sismica. Il sommario della tesi comprende quanto segue: Capitolo 1 – Introduzione (argomenti trattati dalla tesi, revisione della letteratura, obiettivi e campo di applicazione); Capitolo 2 – illustra alcune applicazioni effettuate mediante le trattazioni analitiche discusse nello studio dello stato dell’arte; Capitolo 3 – riporta le investigazioni sismiche di alcuni casi studio basate sulla modellazione a telaio equivalente, con un’ultima parte dedicata all’utilizzo di tale strategia di modellazione per le analisi di vulnerabilità su scala territoriale attraverso l’utilizzo delle schede CARTIS-ReLUIS; Capitolo 4 – riporta le analisi numeriche basate sull’approccio FEM e la metodologia pushover a punti di controllo multipli messa a punto per l’analisi delle costruzioni con geometria irregolare in pianta; Note conclusive – presenta le conclusioni più importanti a cui si è giunti attraverso questa tesi, tra cui alcune tabelle utili ad orientare il professionista verso la scelta della strategia di valutazione più indicata per il particolare caso studio da analizzare. Masonry buildings are the main part of the building heritage and their preservation has a primarily social and cultural role. Many of these buildings – such as churches, palaces, castles, and towers – are recognizable and representative symbols of their cities. Therefore, practitioners and researchers are interested in defining useful tools for the evaluation of the seismic vulnerability of historic masonry buildings. Various methods are currently being used for the seismic assessment of masonry artifacts, as well as several strategies for simulating the mechanical behavior of materials being available. The introduction of numerical calculation has led to new analysis models, which support the graphical methods used for evaluating the static safety of arches, vaults, and domes. This thesis aims to evaluate the behavior of historic masonry structures by using some of the different approaches currently used and validated by the scientific community. The studies start from the analysis of some typical elements of a building, such as vaults and walls. Afterwards, global analyses are implemented with different modeling strategies. Regarding the local analyses: the investigations on compound vaults – namely those originating from the intersection at right angles of two barrel vaults – are carried out in a static framework by applying the membrane theory; while the out-of-plane response of masonry walls is evaluated in order to highlight their contribution in the overall seismic response of the building. Among the global analyses, the non-linear static analysis – also called pushover analysis – is one of the main tools for the evaluation of the seismic response of a building because it combines results accuracy with a reduced computational burden. However, the use of canonical approaches - which require the reading of the displacements of only some building points - can lead to inaccurate results in the most irregular structures. This is due both to the onset of local collapse mechanisms and to the different building response concerning its local ductile capabilities. These aspects are related to the capacity curve of the structure, which plots the displacements of a single control point: a short elastoplastic branch of the bilinear curve in the case of small displacements; and vice-versa. For this reason, a coupled numerical-geometrical methodology – to represent the results arising from pushover analysis – is developed by considering an appropriate number of control points, not set a priori but suggested by the state of damage detected through numerical simulations. A new graphic tool is defined to represent the displacements of the control points, and the damage evolution is shown by using spheres in which their radiuses are proportional to displacements detected, whereas each centroid has the same coordinates as the control point which it represents. The spheres’ dimensions can provide information about the damage occurred and the position of weak points of the investigated structure, so becoming a useful tool to orientate decisions about structural strengthening technique. In order to validate the proposed methodology, a comparison between the spectral acceleration values obtained through all approaches used is carried out, taking into account a real case study consisting of a triangular construction entirely made in masonry. These accelerations are based on: the load multiplier obtained from the most significant out-of-plane collapse mechanism is defined by means of the kinematic theorem of the limit analysis; the nonlinear dynamic analysis performed by considering an artificial spectrum-compatible accelerogram; the above nonlinear static analysis. The results showed comparable values for numerical approaches, highlighting a discrepancy instead with the analytical ones due to various factors, including the non-refinement of simplified methods. However, detailed information on the structural behavior of the building, as well as its seismic safety, are drawn clearly. The (summary) thesis comprises the following: Chapter 1 - Introduction (thesis topics, literature review, aims and scope); Chapter 2 - illustrates some analytical applications on compound vaults and out-of-plane mechanisms of masonry façades; Chapter 3 - reports the seismic investigations of some case studies based on equivalent frame modeling, with the last part dedicated to the use of this modeling strategy in the seismic vulnerability assessment at the territorial scale by using of CARTIS-ReLUIS forms; Chapter 4 - reports the numerical analyses based on the FEM approach and the multi-control point pushover methodology developed to assess irregular buildings; Concluding remarks - presents the most important conclusions reached through this thesis, including some useful tables to guide the practitioner towards the choice of the most suitable evaluation strategy for a particular case study.Item Povertà energetica e sviluppo economico nell'Afroica Subsahariana: l'opportunità delle microgrids per l'elettrificazione dei villaggi rurali(Università della Calabria, 2020-05-05) Mercuri, Michele; Menniti, Daniele; Sorrentino, Nicola; Pinnarelli, Anna; Critelli, SalvatoreL’attività di ricerca svolta in questa tesi si è focalizzata sull’analisi delle specifiche problematiche dei settori energetici di paesi in via di sviluppo (PVS), in particolare l’accesso all’energia elettrica nell’area dell’Africa sub-sahariana, e alle conseguenze che le difficoltà di approvvigionamento dell’energia causa nel percorso di sviluppo dei predetti Paesi. L'Agenzia Internazionale dell'Energia (IEA) stima che attualmente 1,18 miliardi di persone vivono senza aver accesso all'energia elettrica (il 16% della popolazione mondiale), di questi circa il 53% vive nel continente africano. Nonostante l’Africa subsahariana sia ricca di risorse energetiche primarie ha una produzione di energia elettrica molto limitata. Per lo sviluppo di questa regione, che concentra il 13% della popolazione mondiale ma che conta solo per il 4% della domanda globale di energia, poter contare su un ampio accesso a fonti energetiche affidabili ed economicamente accessibili risulta essere un fattore di cruciale importanza per lo sviluppo futuro del continente. L’impossibilità per le aree rurali di accedere in maniera sicura e costante all’energia elettrica porta ad una forte dipendenza energetica dalla biomassa tradizionale e conseguentemente frena la domanda stessa di energia nonché spesso la soluzione più comune in questi contesti consiste nell’utilizzare generatori diesel, che hanno un costo di investimento basso, ma che presentano una serie di svantaggi, tra cui elevati costi operativi, emissioni dannose per l’ambiente e per la salute ed elevata manutenzione. Da questi due aspetti derivano una serie di conseguenze negative che frenano il processo di sviluppo sia a livello locale che nazionale. In particolare, la popolazione delle zone rurali dei PVS è quella che soffre maggiormente le conseguenze del problema dell’accesso all’energia elettrica la manca di energia ostacola lo svilupppo economico e crea come principale conseguenza un costante flusso migratorio di popolazioni che si spostano dalle aree in esame verso aree più sviluppate (tipicamente l’area del continente europeo). L’obiettivo principale per ridurre sia i flussi migratori che portare sviluppo nelle zone dell’africa interessate dal fenomeno nonché creare opportunità di business per i paesi investitori sarebbe, pertanto, aumentare l‘accesso all’energia elettrica, è noto infatti che la grave carenza di infrastrutture elettriche di base mette a rischio gli sforzi profusi per raggiungere un più rapido sviluppo economico e sociale. Nel continente africano per quella minoranza di persone che ad oggi può usufruire di una connessione alla rete elettrica, la fornitura è spesso inaffidabile, il che rende necessario l’uso diffuso di privati e costosi generatori di riserva alimentati a diesel o a benzina. In molte aree, le tariffe elettriche sono tra le più alte al mondo e, fatta eccezione per il Sud Africa, le perdite riportate a causa della scarsa manutenzione delle reti di trasmissione e distribuzione sono doppie rispetto alla media mondiale. Per contrastare l’emigrazione pertanto si dovrebbero meglio utilizzare le risorse finanziarie destinate agli aiuti e favorire l’accesso a forme economiche di energia pulita. L’elettrificazione delle zone senza accesso all’energia può avvenire attraverso due modalità: l’ampliamento della rete di trasmissione nazionale o la generazione distribuita in isola, per quanto riguarda la prima modalità in molte aree rurali si manifestano forti vincoli di fattibilità tecnica ed economica della fornitura elettrica se promossa tramite il tradizionale sistema centralizzato. In questi casi, i sistemi in isola basati su fonti rinnovabili di energia sono l’unica soluzione percorribile. In questo contesto, questa tesi di dottorato si concentra principalmente sul problema dell’accesso all’energia elettrica nelle aree rurali dell’Africa subsahariana e sull’analisi di sistemi in isola. La tesi è suddivisa in tre parti principali: la prima parte propone un’approfondita analisi del contesto politico, economico e di sviluppo della rete elettrica in Africa ed in particolare nelle aree rurali subsahariane. Nella seconda parte si propone una descrizione delle caratteristiche principali e un’analisi, alla luce delle dimensioni della sostenibilità, del problema dell’accesso all’energia e si dettaglia un’analisi della situazione energetica dell’Africa del bilancio energetico e del costo dell’energia in alcune aree dell’Africa. La terza parte introduce i modelli che sono stati sviluppati per rispondere in maniera specifica alla mancanza di accesso all’energia elettrica e propone un modello di elettrificazione in isola sostenibile.Item Generazione rinnovabile distribuita e nuovi Modelli di Business di Comunità per la transizione energetica del sistema elettrico(Università della Calabria, 2020-03-24) Mendicino, Luca; Critelli, Salvatore; Menniti, Daniele; Sorrentino, Nicola; Pinnarelli, AnnaIl presente lavoro di tesi si occupa dei principali indirizzi a livello nazionale e internazionale sul tema energia per comprendere le nuove traiettorie del sistema elettrico nel medio-lungo periodo e perseguire gli obiettivi di sviluppo delle fonti rinnovabili fissati al 2030-2050. Oltre a riassumere e schematizzare il contesto europeo e nazionale, illustra i fattori impattanti sulle reti elettriche a fronte dei profondi cambiamenti apportati dalla generazione rinnovabile in forma distribuita. Gli aspetti di mercato, i modelli di business per la condivisione dell’energia da parte di finali attivi e le possibili configurazioni hanno rappresentato la parte pratica del lavoro, nella quale supponendo di mettere a sistema utenti finali residenziali secondo uno schema di aggregazione definito da un nuovo modello che prende il nome di comunità energetica, si sono valutati i criteri per la sostenibilità complessiva del modello proposto. L’emergenza climatica e ambientale ha reso inevitabile un cambiamento nella logica di approvvigionamento energetico con l’abbandono dei combustibili fossili ed una transizione verso le fonti di energia rinnovabile indispensabili per la de carbonizzazione del sistema elettrico, comportando un ripensamento nel sistema di distribuzione e consumo dell’energia. Lo studio degli indirizzi strategici globali, europei e nazionali ha mostrato come, gli effetti causati dalle rinnovabili sulle reti elettriche hanno determinato un cambiamento del settore, con una trasformazione della generazione in forma distribuita ed una generale trasformazione degli utenti finali con un ruolo sempre più attivo nel sistema elettrico. Il tema dell’empowerment del consumatore e di una sua attiva partecipazione ai mercati elettrici è uno dei punti cardine delle politiche energetiche a partire dal ‘Clean Energy Package’. Infatti, in materia di energie rinnovabili tale nuovo ruolo del consumatore si traduce letteralmente nei temi dell’autoconsumo, delle collettività di consumatori e degli impianti di generazione rinnovabile. L’analisi dei futuri scenari delle reti, ha evidenziato come il binomio generazione distribuita-utente attivo, attraverso l’autoconsumo del singolo utente nonché in maniera collettiva, è un concetto ben rappresentato dalle Comunità Energetiche che sembra essere la chiave per raggiungere, sia obiettivi climatici posti a livello globale ed Europeo, sia la soluzione a problematiche tecniche dovute alla penetrazione delle rinnovabili nelle reti elettriche. Le aggregazioni di utenti che producono l’energia elettrica necessaria per soddisfare i propri fabbisogni, accumulandola e gestendola al loro interno, esprime infatti una nuova modalità di approvvigionamento e consumo che valorizza le risorse energetiche rinnovabili e distribuite. Tra un proliferare di modelli teorici proposti per la gestione delle reti e degli utenti finali con l’obiettivo di integrare risorse distribuite in un sistema nato per essere centralizzato, si è trattato il modello delle Comunità Energetiche con scambio virtuale di energia tra una pluralità di consumatori e/o autoproduttori. In questo modo l’aggregazione avviene tra utenti che non sono localizzati in uno stesso sito, ma che mettono a disposizione l’energia autoprodotta da fonti rinnovabili per gli utenti della comunità stessa tramite la rete pubblica, con l’ausilio di tecnologie abilitanti, riproducendo quello che sarebbe di un sistema di autoconsumo fisico (in sito) ma valorizzando l’utilizzo della rete pubblica di distribuzione che si configurerebbe come uno dei fattori abilitanti dell’autoconsumo in forma collettiva consentendo di mantenere qualità del servizio e libero accesso agli utenti finali. Sebbene le configurazioni per la creazione di comunità energetiche possano essere diverse si è approfondita quella promossa da un soggetto terzo che aggrega utenti in una numerosità tale da rende fattibile lo schema collettivo. È stato pertanto necessario individuare gli attori coinvolti nel modello di business e gli elementi per definire le voci di costo e ricavo dell’aggregazione prendendo in considerazione alcuni indicatori economici per valutarne la sostenibilità. Si sono costruiti diversi scenari andando a modificare delle variabili ritenute più sensibili (numerosità degli di utenti aggregati, percentuale di autoconsumo e prezzi dell’energia) distinguendo gli scenari per tipologia di utenti aggregati (soli utenti attivi e caso di utenti attivi e passivi), ipotesi di fornitura di servizi alla rete e riduzione degli oneri in favore delle comunità energetiche ipotizzando il recepimento delle recenti direttive europee in ambito nazionale. Si è valutata infine, la riduzione dei costi tecnologici o incentivi in favore delle comunità per ottenere tempi di ritorno più contenuti e almeno paragonabili a quelli di utenti che agiscono in maniera individuale. Sulla base dei prezzi applicati nella comunità, la costruzione di prospetti che replicano la spesa elettrica dell’utente finale nel contesto Italiano ha permesso di valutare oltre agli evidenti benefici sociali e ambientali, i possibili benefici economici ottenibili per gli utenti partecipanti allo schema. Le analisi numeriche hanno mostrato come le condizioni attuali richiedono una consistente numerosità di utenti finali per la realizzazione di comunità dell’energia formate da utenti prosumers, che oscillano tra 4.000-6.500 utenti a seconda delle ipotesi e della configurazione adottata nel modello con tempi di recupero che nello scenario più ottimistico sono di almeno 7 anni. Nella configurazione di comunità adottata, si richiede un livello di autoconsumo del 70%, che può essere favorito dalla progressiva diffusione dei SdA associata ad una sensibile riduzione dei costi delle tecnologie abilitanti. Per raggiungere risultati soddisfacenti e favorirne lo sviluppo, emerge come serve ancora un valido supporto da parte delle politiche comunitarie e incentivi (tra il 55-65%) che possono essere sia in forma implicita che esplicita. L’apertura al mercato dei servizi alla rete (MSD) offerti anche dai piccoli utenti aggregati può essere un ulteriore elemento di supporto anche se al momento presenta difficoltà di acceso per via di una regolazione prematura e di remunerazioni troppo contenute ma, l’introduzione di misure specifiche per le comunità energetiche può spingere ulteriormente alla nascita di questa configurazione. Le comunità energetiche possono avere una miriade di configurazioni che non sempre portano a ritorni nel breve termine e pertanto non devono essere valutate dal solo punto di vista economico, ma vanno prese in considerazione anche ricadute di natura sociale, occupazionale e soprattutto di carattere ambientale. La trasformazione in corso infatti, stravolgerà sia i consolidati modelli di gestione operativa e di dispacciamento, sia le dinamiche dei mercati elettrici portando ad essere le comunità energetiche un’occasione che non può essere sprecata. Data l’ampiezza della ricerca a tutti i livelli, molteplici sono stati i risultati: - Il quadro della situazione rinnovabili nel contesto globale, Europeo e nazionale ha permesso di capire quali saranno gli scenari futuri è ciò rappresenta un importante risultato per indirizzare le scelte sul sistema elettrico; - Lo studio dei prezzi dell’energia elettrica e delle tariffe per utenti finali ha permesso di dare una dimensione ai benefici e alle possibilità che si riescono ad ottenere per gli utenti finali domestici residenziali con autoconsumo da FER; - Il modello generale proposto con la definizione degli attori coinvolti permette di trarre informazioni utili o replicare quale sono i passi necessari per la realizzazione di impianti in ‘grid parity’ sia di piccola che di grande taglia e come definire la durata dei possibili contratti di vendita dell’energia (PPA e SEU); - L’applicazione nella simulazione, di concetti sviluppati in laboratorio dal gruppo di ricerca di Sistemi Elettrici per l’Energia permette di dare una prima analisi di fattibilità dell’iniziativa e degli investimenti per un eventuale opportunità di business che si aprirebbe dalle comunità energetiche con scambio virtuale; - La descrizione degli elementi e di un modello di business a supporto dello sviluppo di comunità energetiche; - Primi risultati economico-finanziari di una comunità energetica applicata al caso Italiano con la numerosità utile del campione per la sostenibilità. Il contributo scientifico apportato al panorama nazionale, europeo e internazionale si è concretizzato con la pubblicazione di una serie di articoli scientifici che hanno evidenziato, in ambito nazionale il vantaggio nell’aggregazione di impianti rinnovabili non programmabili secondo le attuali e previste politiche di gestione degli sbilanciamenti; la differenze di gestione di impianti tra ambito nazionale ed altri paesi europei con una simile incidenza di fonti rinnovabili (ad esempio la Spagna); gli effetti dell’autoconsumo relativo ai Prosumers sia in ambito nazionale che internazionale. Per quanto riguarda gli investimenti in grandi impianti di generazione per servire direttamente utenti consumatori di energia, attraverso la soluzione dei Power PurchaseAgreement (PPA) si è fornita una dettagliata descrizione degli attori coinvolti nel modello e dei costi e ricavi per costruire un opportuno LCOE e realizzare impianti in grid parity, siano essi fotovoltaici o eolici. Sulla gestione degli utenti attivi in forma di comunità energetiche invece il modello di business proposto che dà un ruolo centrale alle fonti rinnovabili in forma aggregata e gestite da un unico soggetto, restituisce informazioni utili a investitori e/o produttori. Il lavoro propone e analizza possibili modelli di mercato che permettono di affrontare efficacemente i cambiamenti dei prossimi anni ed è stato strutturato come di seguito: - Nel primo si evidenziano gli impatti causati dalle fonti rinnovabili non programmabili nel sistema elettrico; - Nel secondo capitolo si descrivono, le comunità energetiche come possibile soluzione di mercato per favorire l’integrazione della generazione rinnovabile-distribuita nelle reti elettriche insieme al ruolo degli Aggregatori. - Nel terzo capitolo si presentano alcuni modelli di business per la gestione di comunità energetiche facendo una proposta nel caso di utenti finali domestici che dispongono di impianti di generazione fotovoltaica di piccola taglia; - Nel corso dell’ultimo capitolo si mostrano i risultati di alcune simulazioni numeriche condotte su una configurazione di comunità energetica gestita da soggetto terzo Aggregatore.Item Sviluppo di una nuova applicazione GIS open-source per la stima della produzione di sedimenti e del trasporto solido a scala di bacino idrografico(Università della Calabria, 2020-04-16) La Rosa, Salvatore; Critelli, Salvatore; De Rosa, Rosanna; Dominici, RoccoItem Innovative Low-fouling membranes- an Advanced coating approach using UV-LED polymerisation(Università della Calabria, 2020) Gukelberger, Ephraim; Critelli, Salvatore; Gabriele, Bartolo; Figoli, Alberto; Hoinkis, JanOvercoming hurdles connected with increasing water scarcity exacerbated by climate change is one of the major challenges of this century. Membrane bioreactors (MBR) have been applied for more than two decades improving the water recovery of industrial and domestic wastewater treatment processes and ease this situation. Occurring membrane fouling phenomena pose a massive drawback for achieving a highly efficient filtration in the long run. One fouling mitigation approach is the novel low-fouling membrane coating using a polymerisable bicontinuous microemulsion (PBM). In this thesis, the membrane coating process and the layer polymerisation mainly initiated by UV-LED light was systematically studied. A casting process was evaluated on small scale samples (0.0085 m2) and further developed. For the first time UV-LED light induced PBM coating has been applied on a pilot scale of 3.125 m2 membrane surface area. Studies included the validation of a modified, low cost surfactant to reduce overall synthesis costs. Membrane pore intrusion of the low viscous PBM during the casting coating presented an obstacle to meet competitive filtration capacities compared to commercial ultrafiltration (UF) polyethersulfone (PES) membranes. Viscosity modification towards higher values was studied based on controlled radical polymerisation inhibition. Additionally, a high discrepancy to the pristine PBM coating solution was determined. The development and construction of an automated coating machine enabled high production quantities. Ultimately, the novel coating was tested in a customised pilot MBR for the treatment of domestic wastewater. The pilot tests allowed the direct and simultaneous comparison between a PBM coated and commercial PES module. Short stress tests through a flux step profile and a long-term operation were carried out under constant flux conditions. The PBM coated membrane showed lower permeability with a higher increase in the specific transmembrane pressure (TMP) within a 137-day trial period. Subsequently, post studies validated the chemical stability of the coating material qualitatively. Various experiments revealed limitations for low-strength domestic wastewater application in terms of lower critical flux. Based on these findings, a feasibility study of spray coating technology using two different atomisation approaches on a lab scale was conducted. Spray coating prevents shearing between the casting knife, the liquid PBM and the membrane surface which reduces the pore intrusion effect potentially. Various preliminary spray tests were examined to study the surface coverage along the membrane width in correlation with the given spray parameters. It was shown that there were structural differences of the polymerised coating layers compared to the casting coating techniques. In conclusion, spray coating using duel-fuel nozzles improved the membrane performance. Furthermore, high operation flexibility helped to produce defined spray coverages and layer thickness for any type of coating material as well as membrane substrate. However, some effects remain unclear. This requires a more fundamental study of material properties and atomisation technologies related to polymerisable bicontinuous microemulsions due to complex interactions.Item Applicazione dei big data nel turismo, marketing ed education(Università della Calabria, 2020-03-18) Giglio, Simona; Critelli, Salvatore; Pantano, PietroIl mondo è attualmente inondato da dati e l’avanzare delle tecnologie digitali amplifica questo fenomeno in modo esponenziale. Tale fenomeno viene etichettato con il concetto di Big Data ovvero le tracce digitali che le nostre attività quotidiane lasciano per effetto dell’uso massiccio dei sistemi ICT (Information Communication Technologies). I Big Data sono diventati il nuovo microscopio che rende “misurabile” la società. Per tali ragioni, la ricerca è incentrata sull’analisi dei Big data, estratti dai social media, da indagini online, da piattaforme di recensioni e da database, attraverso l’applicazione di tecniche e strumenti sviluppati nell’ambito dell’Intelligenza Artificiale. Algoritmi di machine learning, analisi semantica ed analisi statistica sono stati utilizzati per estrarre, dai Big Data, informazione sotto forma di “conoscenza” e “valore”, dimostrando come dati di grandi dimensioni possano fungere da ricca fonte di informazione, da un lato, per comprendere il comportamento dell’utente, parte integrante di una società complessa (conoscenza), e dall’altro, per sostenere i processi decisionali e i servizi forniti agli utenti/consumatori (valore). Il lavoro si caratterizza per un approccio multidisciplinare tra settori differenti quali le scienze sociali, le scienze statistiche e l’informatica. Questo ha permesso di fondare la ricerca sui Big Data nella teoria, e fornire un efficace recupero e analisi dei dati nella pratica. Le tecniche di machine learning sono state applicate per (i) il riconoscimento delle immagini, (ii) per la creazione di cluster, (iii) per l’analisi del testo (sentiment analysis) e (iv) per la profilazione di classi di utenti. Per il riconoscimento delle immagini l’approccio ha richiamato le reti neurali artificiali (deep artificial neural networks), algoritmi e sistemi computazionali ispirati al cervello umano utilizzando le potenzialità del programma Wolfram Mathematica e la disponibilità di dati estratti da social network quali Flickr, Twitter, Instagram ed altre piattaforme come TripAdvisor. Gli strumenti utilizzati nella ricerca hanno permesso di indagare e di rilevare in modo oggettivo dall’analisi di immagini e di testi condivisi sul web, alcuni comportamenti cognitivi degli utenti/consumatori alla base delle loro scelte nonché l’attrattività di una destinazione turistica e la qualità dell’esperienza dell’utente. Lo studio del significato delle parole nel testo ha aperto la strada al web semantico che permette ad un utente di acquisire informazioni approfondite durante una ricerca attraverso un sistema formato da una rete di relazioni e connessioni tra documenti. Partendo dalle ricerche di Ogden e Richards sullo studio del significato e di Jakobson che studiò i processi comunicativi, si è cercato di strutturare e sistematizzare un processo che riflette un atto comunicativo ed informativo tale che un simbolo (immagine) attraverso l’applicazione di un significante (machine learning che si sostituisce al processo mentale proprio dell’uomo) permettesse l’esplicitazione di un referente (oggetto\etichetta) che opportunatamente porta alla trasmissione di un messaggio sotto forma di conoscenza. Il tutto coordinato da un sistema in grado di coniugare fattori differenti in un’ottica interdisciplinare dove l’analisi dei dati combacia perfettamente con la linguistica. Attingendo da studi precedenti, i risultati raggiunti dimostrano che gli algoritmi di analisi dei Big Data quali l’apprendimento automatico contribuiscono da un lato alla comprensione sull’esperienza dell’utente verso un luogo, una destinazione; d’altra parte, la loro analisi fornisce una conoscenza sistematica delle valutazioni dei consumatori su un determinato prodotto o servizio e verso lo sviluppo di una sorta di “intelligenza sociale”. Inoltre i risultati della ricerca propongono come, un approccio più sofisticato al monitoraggio dei social media nel contesto turistico e nel marketing, nonché nel settore dell’education, possa contribuire a migliorare le decisioni strategiche e le politiche operative degli stakeholder nonché ad avere una visione psicologica sugli atteggiamenti e sul comportamento di un ampio spettro di utenti.Item Applicazione della shallow water equations per la simulazione numerica a scala di bacino degli eventi alluvionali(Università della Calabria, 2020-04-16) Gangi, Fabiola; Critelli, Salvatore; Macchione, Francesco; Costanzo, CarmelinaLa valutazione del rischio idraulico connesso alle piene dei corsi d’acqua è particolarmente delicata quando gli eventi alluvionali hanno carattere impulsivo, come accade nei bacini di modeste dimensioni. L’approccio correntemente utilizzato per l’analisi idraulica è quello di individuare dei singoli tratti di interesse dei corsi d’acqua. L’analisi è condotta sulla base di idrogrammi di progetto ricavati mediante modelli idrologici del tipo afflussi-deflussi. In questa memoria sarà invece applicato un approccio basato sull’analisi degli effetti idraulici provocati da un evento meteorico considerando come dominio per il calcolo idraulico l’intero bacino idrografico. Tale approccio è in grado di individuare situazioni di pericolo in zone che magari non sarebbero state esaminate. L’uso di modelli idrodinamici basati sulle shallow water equations, è diventato oggetto di crescente interesse per simulare eventi a scala di bacino. Un fattore che può essere limitante ai fini dell’ottenimento di risultati conseguibili con il dettaglio fisico garantito dalle SWEs è la dimensione delle celle di calcolo. Questa deve essere sufficientemente piccola da garantire un’accurata simulazione degli effetti idraulici e contestualmente non troppo piccola per non rendere proibitiva la mole dei calcoli su domini estesi. In questa ottica, il presente lavoro propone di occuparsi dell’individuazione dei criteri per la delimitazione delle aree a pericolosità idraulica definendo la più grande dimensione che può essere assegnata alla cella di calcolo per ottenere risultati sufficientemente affidabili. A tal fine, un modello numerico basato sulle SWE, sviluppato dagli autori e parallelizzato utilizzando le direttive OPENMP e MPI, è stato applicato al bacino del fiume Beltrame, collocato sulla costa Est della Calabria. Il torrente Beltrame, come altri torrenti della fascia ionica calabrese, è stato interessato, in passato, da eventi alluvionali di notevoli dimensioni. Si prenderà qui in esame l’evento accaduto il 10 settembre 2000. La risoluzione dei dati topografici a disposizione è variabile. Il 39% ha una copertura di dati DTM a risoluzione 5 metri, il 59% ha copertura di dati LiDAR a risoluzione 1 metro e l’2% ha copertura di dati LiDAR a risoluzione 2 metri. A partire dai dati topografici, sono stati generati quattro domini computazionali con griglie di tipo non strutturato, uniforme, con elementi triangolari (con area variabile da 36 a 900 m2). Le differenze tra i risultati ottenuti sono stati confrontati in termini di estensione di aree allagate e distribuzione dei valori della pericolosità all’interno delle aree perimetrate, quest’ultima quantificata secondo il prodotto hV, dove h è la profondità della corrente in un assegnato punto e in un assegnato istante e V è la contestuale velocità. La valutazione della sovrapponibilità delle aree per ciascuna classe di pericolosità è stata eseguita utilizzando diversi indici quali: Hit Rate, False Alarm Ratio, Critical Success Index. L’analisi condotta nella presente memoria ha messo in luce che, a scala di bacino, gli errori sui massimi tiranti crescano significativamente al crescere delle dimensioni delle celle di calcolo, sebbene essi si mantengano più contenuti, anche usando le griglie più grossolane, per la parte valliva, caratterizzata da estensioni più ampie dell’area allagata. In ogni caso sembra che questo abbia una scarsa ricaduta sulla valutazione della pericolosità. I calcoli e i confronti hanno mostrato che le aree a diversa pericolosità si distribuiscono all’interno dell’area del bacino in maniera simile. Inoltre, anche se non si arriva ad una perfetta sovrapposizione areale, esse sono collocate spazialmente in modo che o si sovrappongono parzialmente o, se sono delle strisce sottili, hanno dislocazioni molto prossime le une alle altre. si ritiene che anche con la griglia più grossolana si possa impiantare una buona analisi della pericolosità a scala di bacino, certamente con precisione maggiore andando dai rami montani del reticolo – più stretti - a quelli più ampli che provocano esondazioni in zone vallive.
- «
- 1 (current)
- 2
- 3
- »