Dipartimento di Matematica e Informatica - Tesi di Dottorato
Permanent URI for this collectionhttp://localhost:4000/handle/10955/103
Questa collezione raccoglie le Tesi di Dottorato afferenti al Dipartimento di Matematica e Informatica dell'Università della Calabria.
Browse
Item A techinique for automatic generation of rule-based text classifiers exploiting negative information(2006) Cumbo,Chiara; Rullo,Pasquale; Canino,AnnamariaItem La conoscenza nel nuovo mondo della conoscenza e della complessità(2007) Aiello, Aldo; Guenot, Jacques; Fabiano, AdelinaItem Interpolation problems and applications(2009) Longo, Elisabetta; Leone, Nicola; Costabile, Francesco A.Item On irregular surfaces of general type wih K2=2ҳ+1 and pg=2(2009-11-25) Gentile, Tommaso; Oliverio, Paolo Antonio; Leone, NicolaThis thesis is devoted to one of the classic topics about algebraic surfaces: the classi cation of irregular surface of general type and the analysis their moduli space. To a minimal surface of general type S we associates the following nu- merical invariants: the self intersection of the canonical class K2S ; the geometric genus pg := h0(!S) the irregularity q := h0( 1 S) = h1(OS). A surface S is called irregular if q > 0. By a theorem of Gieseker the coarse moduli space Ma;b corresponding to minimal surfaces with K2S = a and pg = b is a quasi projective scheme, and it has nitely many irreducible components. The above invariants determine the other classical invariants: the holomorphic Euler{Poincar e characteristic (S) := (OS) = 1 q + pg; the second Chern class c2(S) of the tangent bundle which is equal to the topological Euler characteristic e(S) of S. The classical question that naturally rises at this point is the so{called geographical question, i.e., for which values of a; b is Ma;b nonempty? The answer to this question is obviously non trivial. There exists the following inequalities holding among the invariants of minimal surfaces of general type: K2S ; 1; K2S 2pg 4 (Noether's inequality); if S is an irregular surface, then K2S 2pg (Debarre's inequality); K2S 9 OS (Miyaoka{Yau inequality). Thus = 1 is the lowest possible value for a surface of general type. By the Miyaoka{Yau inequality, we have that K2S 9, hence by the Debarre's inequality we get q = pg 4. All known results about the classi cation of such surfaces are listed in [MePa, Section 2.5 a]. If K2S = 2 , we have that necessarily q = 1. Since in this case f : S ! Alb(S) is a genus 2 bration, by using the fact that all bres are 2{connected, the classi cation was completed by Catanese for K2 = 2, and by Horikawa in [Hor3] in the general case. Catanese and Ciliberto in [CaCi1] and [CaCi2] studied the case K2 = 2 +1, with = 1. So in this case, by the above inequalities we get that the surfaces have the following numerical invariants: K2S = 3 and pg = q = 1: The classi cation of such surfaces was completed by Catanese and Pig- natelli in [CaPi]. The main tool for this classi cation is the structure theorem for genus 2 bration, which is proved in the same work. For 2 the situation is far more complicated and not yet studied. We consider in this thesis the case = 2. So our surfaces have the following numerical characters K2S = 5, pg = 2, q = 1: By a theorem of Horikawa, which a rms that for an irregular minimal surface of general type with 2 K2 8 3 , the Albanese map f : S ! Alb(S) 2 induces a connected bration of curves of genus 2 over a smooth curve of genus q, we have that in the considered case a bration f : S ! B over an elliptic curve B and with bres of genus 2. So we can use the results of Horikawa{Xiao and most of all those of Catanese{Pignatelli to face the challenge to completely classify all surface with the above numerical invariants. Their approach is of algebraic nature and in particular is based on a new method for studying genus 2 bration, basically giving generators and relations of their relative canonical algebra, seen as a sheaf of algebras over the base curve B. Our main results are as follows. First at all we studied the various possi- bilities for the 2{rank bundle f !S. We have that f !S can be decomposable or indecomposable. In the rst case the usual invariant e, associated to f !S by Xiao in [Xia1] can be equal to 0 or 2. We prove that the case e = 2 does not occur. Subsequently we study the case e = 0 with f !S decomposable. In such case we divide the problem in various subcases. For each such subcase we study the corresponding subspace of the moduli space M of surfaces with K2 = 5, pg = 2 e q = 1. By using the following formula: dimM 10 2K2 + pg = 12 we can consider only the strata of dimension greater than or equal to 12. We proved that almost all the strata has dimension 11, so they don't give components of the moduli space. The most important result is that, for the so-called strata V II, we have the following theorem. Theorem 0.1. (i) MV II;gen is non-empty and of dimension 12; 3 (ii) MV II2 is non-empty and of dimension 13. References [CaCi1] F. Catanese, C. Ciliberto, Surfaces with pg = q = 1, Problems in the Theory of Surfaces and Their Classi cation, Cortona, (1988), Sympos. Math., SSSII, Academic Press, London, (1991), pp. 49-79. [CaCi2] F. Catanese, C. Ciliberto, Symmetric products of elliptic curves and surfaces of general type with pg = q = 1, J. Algebraic Geom. 2, (3) (1993), 389-411. [CaPi] F.Catanese, R. Pignatelli, Fibrations of low genus, I , Ann. Sci. Ecole Norm. Sup., (4) 39 (2006), 1011{1049. [Hor3] E. Horikawa, Algebraic surfaces of general type with small c21 , V, J. Fac. Sci. Univ. Tokyo Sect. I A. Math. 283 (1981), 745-755. [MePa] M. Mendes Lopes, R. Pardini, The geography of irregular surfaces, e-print arXiv : 0909:5195 (2009). [Xia1] Xiao, G., Surfaces br ees en courbes de genre deux, Lecture Notes in Mathematics, 1137, Springer-Verlag, Berlin, (1985), x+103 pp.Item Dynamic magic sets(2010) Alviano, Mario; Lceone, Nicola; Faber, WolfgangDisjunctive Datalog with stable model semantics is a rule–based language for knowledge representation and common sense reasoning that also allows to use queries for checking the presence of specific atoms in stable models. Expressive- ness is a strength of the language, which indeed captures the second level of the polynomial hierarchy. However, because of this high expressive power, evalu- ating Disjunctive Datalog programs and queries is inherently nondeterministic. In fact, Disjunctive Datalog computations are typically characterized by two distinct phases. The first phase, referred to as program instantiation, is deter- ministic and associates input programs with equivalent ground programs; only deterministic knowledge is inferred in this phase. The second phase, referred to as stable model search, is nondeterministic and computes stable models of instantiated programs. Many query optimization techniques have been proposed in the literature. Among them are Magic Sets, originally introduced for standard Datalog pro- grams. Program instantiation is sufficient for computing the semantics of stan- dard Datalog programs because only deterministic knowledge can be represented in this case. For this reason, the original Magic Set technique is only focused on the optimization of program instantiation. Dynamic Magic Sets are an exten- sion of the technique that takes into account the nondeterministic knowledge encoded into Disjunctive Datalog programs. In fact, in addition to the standard optimization of program instantiation, Dynamic Magic Sets provide further op- timization potential to the subsequent stable model search. In this thesis, Dynamic Magic Sets are proved to be sound and complete for stratified and super–coherent programs. To this end, a strong relationship between magic atoms and unfounded sets is highlighted. Dynamic Magic Sets are also used for proving decidability of reasoning for a class of programs with uninterpreted function symbols. In particular, it is shown that the application of Dynamic Magic Sets to finitely recursive queries generates finitely ground programs, for which decidability of reasoning has been established in the liter- ature. Dynamic Magic Sets have been implemented in a prototype extending DLV, a state–of–the–art system for Disjunctive Datalog programs and queries. The effectiveness of Dynamic Magic Sets has been assessed by experimenting with the prototype system. Experimental results confirm that Dynamic Magic Sets can provide significant, possibly exponential, performance gains.Item Parallel evaluation of ASP programs:techniques and implementation(2011-11-30) Sirianni, Marco; Ricca, Francesco; Leone, NicolaAnswer Set Programming (ASP) is a purely declarative programming paradigm based on nonmonotonic reasoning and logic programming. The idea of ASP is to represent a given computational problem by a logic program such that its answer sets correspond to solutions, and then, use an answer set solver to find such solutions. The ASP language is very expressive and allows the representation of high-complexity problems (i.e., every problem in the second level of the polynomial hierarchy); unfortunately, the expressive power of the language comes at the price of an elevated cost of answer set computation. Even if this fact has initially discouraged the development of ASP system, nowadays several implementations are available, and the interest for ASP is growing in the scientific community as well as in the field of industry. In the last few years, significant technological enhancements have been achie- ved in the design of computer architectures, with a move towards the adoption of multi-core microprocessors. As a consequence, Symmetric Multi-Processing (SMP) has become available even on non-dedicated machines. Indeed, at the time of writing, the majority of computer systems and even laptops are equipped with (at least one) dual-core processor. However, in the ASP context, the avail- able systems were not designed to exploit parallel hardware; thus significant improvements can be obtained by developing ASP evaluation techniques that allow the full exploitation of the computational resources offered by modern hardware architectures. The evaluation of ASP programs is traditionally carried out in two steps. In the first step an input program P undergoes the so-called instantiation process, which produces a program P0 semantically equivalent to P but not containing any variable; in turn, P0 is evaluated by using a backtracking search algorithm in the second step. The aim of this thesis is the design and the assessment of a number of par- allel techniques devised for both steps of the evaluation of ASP programs. In particular, a three-level parallel instantiation technique is presented for improv- ing the efficiency of the instantiation process which might become a bottleneck in common situations, especially when huge input data has to been dealt with. Moreover, a parallel multi-heuristics search algorithm and a parallel lookahead technique have been conceived for optimizing the second phase of the evaluation. The mentioned parallel techniques has been implemented in the state-of-the- art ASP system DLV. An extensive experimental analysis has been carried out in order to assess the performance of the implemented prototypes. Experimental results have confirmed the efficiency of the implementation and the effectiveness of those techniques.Item Datalog with existential quantifiers: an optimal trade-off between expressiveness and scalability(2012-11-11) Veltri, Pierfrancesco; Leone, Nicola; Terracina, GiorgioOntologies and rules play a central role in the development of the Semantic Web. Recent research in this context focuses especially on highly scalable formalisms for the Web of Data, which may highly benefit from exploiting database technologies. In particular, Datalog∃ is the natural extension of Datalog, allowing existentially quantified variables in rule heads. This language is highly expressive and enables easy and powerful knowledge-modeling, but the presence of existentially quantified variables makes reasoning over Datalog∃ undecidable, in the general case. The results in this thesis enable powerful, yet decidable and efficient reasoning (query answering) on top of Datalog∃ programs. On the theoretical side, we define the class of parsimonious Datalog∃ programs, and show that it allows of decidable and efficiently-computable reasoning. Unfortunately, we can demonstrate that recognizing parsimony is undecidable. However, we single out Shy, an easily recognizable fragment of parsimonious programs, that significantly extends both Datalog and Linear Datalog∃. Moreover, we show that Shy preserves the same (data and combined) complexity of query answering over Datalog, although the addition of existential quantifiers. On the practical side, we implement a bottom-up evaluation strategy for Shy programs inside the DLV system, enhancing the computation by a number of optimization techniques. The resulting system is called DLV∃– a powerful system for answering conjunctive queries over Shy programs, which is profitably applicable to ontology-based query answering. Moreover, we design a rewriting method extending the well-known Magic-Sets technique to any Datalog∃ program. We demonstrate that our rewriting method preserves query equivalence on Datalog∃, and can be safely applied to Shy programs. We therefore incorporate the Magic- Sets method in DLV∃. Finally, we carry out an experimental analysis assessing the positive impact of Magic-Sets on DLV∃, and the effectiveness of the enhanced DLV∃ system compared to a number of state-of-the-art systems for ontologybased query answering.Item On a class of singular semilinear equations(2012-11-28) Grandinetti, Mascia; Leone, Nicola; Canino, Anna Maria; Sciunzi, BerardinoItem Solutions of problems in analytic and extremal combinatorial set theory(2012-11-29) Nardi, Caterina; Leone, Nicola; Marino, Giuseppe; Chiaselotti, GiampieroItem Integrated development environment for answer set programming(2012-11-30) Reale, Kristian; Leone, Nicola; Ricca, FrancescoAnswer Set Programming (ASP) is a truly-declarative programming paradigm proposed in the area of non-monotonic reasoning and logic programming. The successful application of ASP in a number of advanced projects, has renewed the interest in ASP-based systems for developing real-world applications. Nonethe- less, to boost the adoption of ASP-based technologies in the scientific commu- nity and especially in industry, it is important to provide effective programming tools, supporting the activities of researchers and implementors, and simplifying user interactions with ASP solvers. In the last few years, several tools for ASP- program development have been proposed, including (more or less advanced) editors and debuggers. However, ASP still lacks an Integrated Development Environment (IDE) supporting the entire life-cycle of ASP development, from (assisted) programs editing to application deployment. In this thesis we present ASPIDE, a comprehensive IDE for ASP. It inte- grates a cutting-edge editing tool (featuring dynamic syntax highlighting, on- line syntax correction, auto-completion, code-templates, quick-fixes, refactoring, etc.) with a collection of user-friendly graphical tools for program composi- tion, debugging, profiling, database access, solver execution configuration and output-handling. A comprehensive feature-wise comparison with existing environments for developing logic programs is also reported in this thesis, which shows that ASPIDE is a step forward in the present state of the art of tools for ASP programs development.Item GAMON discovering M-of-N hypotheses for text classification by a lattice-based genetic algorithm(2013-11-12) Pietramala, Adriana; Leone, Nicola; Rullo, PasqualeLo sviluppo delle moderne tecnologie informatiche, nonch´e la diffusione dei servizi per il Web, ha portato ad una considerevole produzione di informazioni e dati di diversa natura: documenti testuali (dati non strutturati), basi di dati (dati strutturati) e pagine Html (dati semi-strutturati). La disponibilit` a, sempre pi`u crescente, di considerevoli quantit`a di dati ha posto, di conseguenza, il problema della loro memorizzazione, della loro organizzazione e del loro reperimento. Inoltre, se non ci fossero strumenti idonei a trattare le sole informazioni di interesse, tutti questi dati rischierebbero di essere inutilizzabili. Le informazioni, infatti, rappresentano il punto di partenza per l’estrazione di conoscenza, attivit`a che, in passato, ha fatto riferimento all’analisi e all’interpretazione manuale, fondata sull’attivit`a di uno o pi`u esperti addetti a prendere le decisioni sul caso corrente. L’analisi manuale, chiaramente, presenta molteplici aspetti negativi. Prima tra tutti essa `e caratterizzata da lunghi tempi di analisi e da alti costi di realizzazione; infine, risulta altamente soggettiva e in accurata. Tali aspetti negativi vengono ulteriormente aggravati dall’enorme mole di dati da dover trattare. Aggregare, classificare e recuperare le informazioni di interesse con tempestivit`a, efficacia e a costi ridotti `e sicuramente pi`u vantaggioso rispetto ai tradizionali approcci di analisi manuale. In particolare, la possibilit`a di poter classificare automaticamente enormi quantit`a di documenti, potendoli poi ritrovare facilmente sulla base dei concetti espressi e sulle tematiche trattate, piuttosto che affidarsi ad un’analisi manuale, `e una necessit`a che viene sentita non solo dalla comunit`a scientifico/accademica, ma anche da quella aziendale, commerciale e finanziaria. Il Text Classification (TC) o Text Categorization `e una disciplina che coniuga diverse aree di ricerca, dall’Information Retrieval (IR), al Machine Learning (ML), al Natural Language Processing (NLP) e mira alla costruzione di sistemi per la classificazione automatica dei dati in categorie tematiche di interesse. In particolare, nel TC, i dati sono costituiti da una collezione di documenti testuali non strutturati, i quali vengono suddivisi in gruppi sulla base del contenuto, attraverso l’assegnamento del testo ad una o pi`u categorie tematiche predefinite. Le prime ricerche nell’ambito del TC risalgono all’inizio degli anni ‘60. Tuttavia, `e solo nell’ultimo decennio che tale problema sta suscitando un interesse crescente sia nel settore della ricerca scientifica che in contesti industriali. Possibili applicazioni del TC spaziano dall’indicizzazione automatica di articoli scientifici, all’organizzazione delle e-mail, al filtraggio dello spam, ecc. Negli ultimi decenni, sono stati proposti un gran numero di sistemi per la classificazione di documenti testuali suddivisibili, principalmente, in tre macro-tipologie sulla base dell’approccio seguito nella costruzione dei classificatori: • approccio di tipo Expert Systems (ES); • approccio di tipo Machine Learning (ML); • approccio di tipo Ibrido. Ibrido. Il primo approccio, affermatosi all’inizio degli anni ’60 prevede l’impiego di esperti di dominio (classificazione manuale) nella definizione dei classificatori per le categorie di interesse. Questo tipo di approccio ha consentito la definizione di classificatori molto efficaci. Di contro, per`o, l’approccio di tipo ES presenta due svantaggi principali: risulta molto dispendioso in termini di risorse umane utilizzate e poco flessibile. Infatti, nel momento in cui cambia il contesto di riferimento, i nuovi classificatori devono essere nuovamente definiti manualmente. Per questo motivo, a partire dagli anni ’90, l’approccio di tipo ES `e stato quasi completamente sostituito dall’approccio di tipo ML, il cui obiettivo principale non `e la definizione dei classificatori, quanto la costruzione di sistemi in grado di generare automaticamente i classificatori. Pi`u in particolare, nell’ambito di questo paradigma, l’obiettivo `e la definizione di sistemi capaci di apprendere automaticamente le caratteristiche di una o pi`u categorie, sulla base di un insieme di documenti precedentemente classificati (training set). Questo approccio presenta numerosi vantaggi rispetto a quello di tipo Expert Systems. I sistemi di apprendimento, infatti, mostrano generalmente un’elevata efficacia, consentono un considerevole risparmio in termini di risorse umane impiegate nel processo di definizione dei classificatori e garantiscono una immediata portabilit`a verso nuovi domini. Negli ultimi anni sono stati proposti svariati sistemi per la classificazione automatica di documenti testuali basati, essenzialmente, su processi di tipo induttivo. Tali sistemi sfruttano, generalmente, misure statistiche e, talvolta, vengono importati nell’ambito del TC da altre aree dell’Information Retrieval e del Data Mining. Un esempio emblematico `e il caso delle Support Vector Machine (SVM) utilizzate, dapprima, per la risoluzione di problemi di regressione e, attualmente, considerate allo stato dell’arte per il Text Categorization. Un posto di rilievo nel paradigma dell’induzione di classificatori `e occupato dagli algoritmi di apprendimento ”a regole” o ”rule-based”, dove i classificatori vengono specificati come insiemi di regole. Tali classificatori hanno la propriet`a desiderabile di essere comprensibili da un lettore umano, mentre la maggior parte degli altri approcci esistenti, come SVM e Neural Network, producono classificatori che difficilmente un lettore umano riesce ad interpretare. Classificatori con queste caratteristiche vengono spesso chiamati di tipo black-box. Infine, l’approccio di tipo Ibrido combina il metodo Expert System con quello Machine Learning, per ottenere un sistema di categorizzazione che sfrutta sia i benefici derivanti da una conoscenza di dominio, sia i benefici derivanti dalla costruzione di sistemi automatici. Ultimamente, la comunit`a scientifica sta adottando tecniche di TC sempre pi`u innovative che, generalmente, si discostano di molto dagli approcci classici di tipo deterministico. In effetti, una recente tendenza nell’ambito del TC `e quella di sfruttare tecniche di apprendimento basate su metaeuristiche, come gli Algoritmi Evoluzionistici o Genetici. Tecniche di questo tipo sono, general mente, costituite da tre componenti essenziali: • un insieme di soluzioni candidate, chiamato popolazione, costituito da individui o cromosomi. Questi evolvono durante un certo numero di iterazioni (generazioni) generando, alla fine dell’evoluzione, la soluzione migliore; • una funzione obiettivo, chiamata funzione di fitness, usata per assegnare a ciascun individuo un peso (score) che indica la bont`a dell’individuo stesso; • un meccanismo evolutivo, basato su operatori evoluzionistici come crossover, mutazione ed elitismo, che consentono di modificare il materiale genetico degli individui che costituiscono la popolazione. Approcci di questo tipo introducono notevoli vantaggi rispetto alle tecniche classiche. Ad esempio, il meccanismo evolutivo `e noto per essere un metodo robusto e di successo, infatti, `e utilizzato per la risoluzione di molti problemi di ottimizzazione intrinsecamente difficili da risolvere. Inoltre, il meccanismo evolutivo riduce sensibilmente lo spazio di ricerca delle soluzioni ammissibili e molte tecniche evolutive riescono a risolvere problemi complessi senza conoscere il preciso metodo di soluzione. In questo lavoro di tesi proponiamo un modello di classificazione a regole, denominato GAMoN, basato sull’utilizzo di Algoritmi Genetici per l’induzione delle regole di classificazione. Un classificatore H generato dal sistema GAMoN per una data categoria c assume la forma di una disgiunzione di atomi Hic del tipo:Hc = H1 c ∨ · · · ∨ Hr c dove ciascun atomo Hic `e una quadrupla < Pos,Neg,mi, ni >, dove: • Pos = {t1, .., tn} `e l’insieme dei termini positivi, ovvero l’insieme dei termini che sono rappresentativi per la categoria c di riferimento; • Neg = {tn+1, , tn+m} `e l’insieme dei termini negativi, ovvero l’insieme dei termini che sono indicativi della non appartenenza alla categoria; • mi e ni sono numeri naturali, chiamati soglie, tali che mi >= 0 e ni > 0. Intuitivamente, il significato attribuito a ciascun atomo Hic `e il seguente: “classifica il generico documento d sotto la categoria c se almeno mi termini positivi compaiono in d e meno di ni termini negativi compaiono in d”. Infatti, il linguaggio delle ipotesi introdotto da GAMoN `e chiamato MofN+, una estensione dei classificatori di tipo MofN con la componente dei termini negativi. Da qui nasce l’acronimo “GAMoN”, che sta ad indicare un sistema di classificazione testuale basato su “Algoritmi Genetici” di tipo “M of N”. GAMoN `e un sistema di classificazione che nasce come estensione di “Olex-GA”, un modello di classificazione “a regole” basato sul paradigma evoluzionistico e realizzato in precedenti lavori di ricerca. Un classificatore generato da GAMoN coincide con quello di Olex-GA quando mi=1 e ni = 1. Infatti, un classificatore Olex-GA assume il significato “se almeno uno dei termini positivi t1, ..., tn appare nel documento d e nessuno dei termini negativi tn+1, , tn+m appare in d, allora classifica d sotto la categoria c”. Il sistema GAMoN `e stato testato su 13 corpora di benchmark (Reuters-21578, Ohsumed, OH5, OH0, OH10, OH15, Blogs Gender, Ohscale, 20 Newsgroups, Cade, SRAA, ODP e Market) e messo a confronto con altri 5 sistemi di classificazione: BioHEL [18, 48] e Olex-GA [101], che sono sistemi di classificazione a-regole basati sul paradigma evoluzionistico; Ripper [37] e C4.5 [105], che sono sistemi di classificazione a-regole non evoluzionistici; infine, SMO che `e una implementazione di SVM lineare [76]. Gli studi sperimentali mettono in evidenza come GAMoN induca classificatori che sono, al tempo stesso, accurati e compatti. Tale propriet`a `e stata osservata su tutti i corpora utilizzati nella sperimentazione, dove GAMoN ha mostrato sempre un comportamento uniforme. Poich´e i corpora utilizzati si riferiscono a contesti applicativi notevolmente diversi, possiamo affermare che GAMoN ha dato prova di essere un sistema robusto. Complessivamente, GAMoN ha dimostrato un buon bilanciamento tra accuratezza e complessit`a del modello generato; inoltre, `e risultato molto efficiente per la classificazione di corpora di grandi dimensioni. Il seguito della tesi `e organizzato in tre parti principali di seguito elencate: • nella Parte I verr`a definito formalmente il problema del Text Categorization e verranno rivisitati i principali contesti applicativi nei quali sono sfruttate tecniche di questo tipo; • nella Parte II verranno presentati diversi metodi e sistemi di classificazione documentale, al fine di realizzare una valutazione comparativa delle loro peculiarit`a nell’ambito della tematica di interesse; • nella Parte III verr`a presentato dettagliatamente il sistema GAMoN. In particolare, verranno riportate alcune definizioni formali quali, ad esempio, il linguaggio e lo spazio delle ipotesi, gli operatori di crossover utilizzati dal sistema e verranno descritti e mostrati i risultati sperimentali ottenuti, attraverso un’analisi comparativa con i sistemi di learning s`u citatiItem Noncommutative Iwasawa theory for Selmer groups of abelian varieties over global function fields(2013-11-25) Valentino, Maria; Bandini, Andrea; Leone, NicolaItem On the enhacement of the approximation order of shepard operators(2013-11-25) Di Tommaso, Filomena; Leone, Nicola; Dell'Accio, FrancescoItem Capitulation and stabilization in various aspects of Iwasawa theory for Zp-extensions(2013-11-25) Caldarola, Fabio; Bandini, Andrea; Leone, NicolaItem Parallel and evolutionary applications to cellular automata models for mitigation of lava flow invasions(2013-11-25) Filippone, Giuseppe; Spataro, William; D'Ambrosio, Donato; Marocco, Davide; Leone, NicolaIn the lava ow mitigation context, the determination of areas exposed to volcanic risk is crucial for diminishing consequences in terms of human causalities and damages of material properties. In order to mitigate the destructive e ects of lava ows along volcanic slopes, the building and positioning of arti cial barriers is fundamental for controlling and slowing down the lava ow advance. In this thesis, a decision support system for de ning and optimizing volcanic hazard mitigation interventions is proposed. The Cellular Automata numerical model SCIARA-fv2 for simulating lava ows at Mt Etna (Italy) and Parallel Genetic Algorithms (PGA) for optimizing protective measures construction by morphological evolution have been considered. In particular, the PGA application regarded the optimization of the position, orientation and extension of earth barriers built to protect Rifugio Sapienza, a touristic facility located near the summit of the volcano. A preliminary release of the algorithm, called single barrier approach (SBA), was initially considered. Subsequently, a second GA strategy, called Evolutionary Greedy Strategy (EGS), was implemented by introducing multibarrier protection measures in order to improve the e ciency of the nal solution. Finally, a Coevolutionary Cooperative Strategy (CCS), has been introduced where all barriers are encoded in the genotype and, because all the constituents parts of the solution interact with the GA environment, a mechanism of cooperation between individuals has been favored. Solutions provided by CCS were extremely e cient and, in particular, the extent of the barriers in terms of volume used to deviate the ow thus avoiding that the lava reaches the inhabited area was less than 72% respect to the EGS 3and 284% respect to the SBA. It is also worth to note that the best set of interventions provided by CCS was approximately eighteen times more ef- cient than the one applied to divert the lava ow away from the facilities during the 2001 Mt.Etna eruption. Due to the highly intensive computational processes involved, General- Purpose Computation with Graphics Processing Units (GPGPU) is applied to accelerate both single and multiple simultaneous running of SCIARAfv2 model using CUDA (Compute Uni ed Device Architecture). Using four di erent GPGPU devices, the study also illustrates several implementation strategies to speedup the overall process and discusses some numerical results obtained. Carried out experiments show that signi cant performance improvements are achieved with a parallel speedup of 77. Finally, to support the analysis phase of the results, an OpenGL and Qt extensible system for the interactive visualization of lava ows simulations was also developed. The System showed that it can run the combined rendering and simulations at interactive frame rate. The study has produced extremely positive results and represents, to our knowledge, the rst application of morphological evolution for lava flow mitigation.Item Hydrodynamical models for charge transport in compound semiconductors(2013-11-27) Torcasio, Rosa Claudia; Pantano, Pietro; Mascali, Giovanni; Alì, GiuseppeItem Modelling complex data mining applications in a formal framework(2014-03-05) Locane,Antonio; Saccà,Domenico; Manco,Giuseppe; Talia,DomenicoItem Outflanking quantum complementarity:detection of incompatible properties in double-slit experiments(2014-03-11) Sestito,Angela; Nisticò,Giuseppe; Canino,AnnamariaItem Mixed Capacitated General Routing Problem Investigations(2014-03-11) Capolupo,Salvatore; Lagana,Demetrio; Grandinetti,Lucio; Musmanno,RobertoItem Total and Convex Total Boundedness in F-seminormed Spaces. Implicit Functions in Locally Convex Linear Space(2014-03-11) Tavernise,Marianna; Trombetta,Giulio; Leone,Nicola