Dipartimento di Matematica e Informatica - Tesi di Dottorato

Permanent URI for this collectionhttps://lisa.unical.it/handle/10955/103

Questa collezione raccoglie le Tesi di Dottorato afferenti al Dipartimento di Matematica e Informatica dell'Università della Calabria.

Browse

Search Results

Now showing 1 - 10 of 54
  • Thumbnail Image
    Item
    Optimizing inventory and distribution in supply chain management
    (Università della Calabria, 2020-01-13) Paradiso, Rosario; Laganà, Demetrio; Leone, Nicola
    Nella presente tesi di dottorato sono studiati due problemi (e relative generalizzazioni e varianti) di particolare interesse nel campo della Logistica e della Ricerca Operativa. Il primo problema trattato è il Multi Trip Vehicle Routing Problem with TimeWindows (MTVRP). Si tratta di una generalizzazione del classico Vehicle Routing Problem (VRP) in cui ogni veicolo può essere utilizzato più volte durante l’orizzonte di pianificazione. Questa caratteristica, che complica notevolmente il problema, trova applicazione in diversi contesti di last mile deliveries o urban logistics nei quali è preferibile utilizzare vettori elettrici, con limitata capacità di trasporto. Queste caratteristiche si traducono in un numero limitato di visite o in una ridotta lunghezza (temporale o spaziale) delle rotte che questi veicoli possono percorrere, rendendo necessario il riutilizzo degli stessi veicoli nella pianificazione. Nel Capitolo 2 viene proposto un metodo esatto, capace di risolvere cinque diverse varianti del problema che incorporano diverse caratteristiche motivate da applicazioni reali. Per ogni variante, il metodo proposto risulta esse migliore degli algoritmi esatti presenti in letteratura, in termini di tempo computazionale e numero di istanze risolte. Inoltre, per le prima volta vengono risolte istanze fino a 50 clienti. Nel Capitolo 3, viene studiato e definito un problema affine al MTVRP, denominato Installation Planning of Offshore Wind Farm Problem (IPOWF). Il problema nasce nel contesto della costruzione di parchi eolici off-shore: dopo la fase di progettazione in cui vengono definite tutte le specifiche (numero, tipo e posizione delle turbine), il parco deve essere costruito avendo a disposizione una flotta di vascelli che vengono utilizzati per eseguire le operazioni necessarie alla costruzione di ogni turbina. L’obbiettivo è schedulare le operazioni e definire le rotte dei vascelli in modo da completare il parco, minimizzando il costo dovuto all’utilizzo dei vascelli stessi (costo di noleggio) e il costo di mancata produzione energetica derivante dalle turbine non completate. Inoltre, le condizioni meteo devono essere tenute in considerazione, dal momento che alcune operazioni possono essere eseguite solo in presenza di condizioni controllate di agitazione ondosa. La fase di definizione delle rotte dei vascelli risulta, di fatto, un MTVRP dal momento che i vascelli hanno bisogno di tornare nel porto di provenienza per caricare risorse, prima di procedere verso la turbina successiva. Il problema è stato studiato in collaborazione con Vattenfall, una delle maggiore aziende a livello mondiale operanti nel settore. Grazie a questa collaborazione è stato possibile e testare l’approccio su dati reali. Per risolvere il problema sono stati definiti dei modelli di programmazione lineare intera (Mixed Integer Linear Programming models, MILPs). Alcuni di questi sono utilizzati per trovare soluzioni ammissibili in tempi ragionevoli. Le ipotesi alla base di tali modelli non incidono sull’ammissibilità delle soluzioni del problema originario. Tuttavia, per valutare la qualità delle soluzioni sono definiti dei modelli di lower bound basati su rilassamenti del problema. L’approccio è in grado di fornire soluzioni con gap di ottimalità inferiori del 2%. I Capitoli 4 e 5 sono dedicati al secondo problema trattato in questa tesi, ovvero a una variante del classico Inventory Routing Problem (IRP). IRP è il problema di ottimizzazione sotteso al paradigma gestionale Vendor Management System, una politica di gestione di parte della catena logistica in cui il vendor ha il controllo dei livelli di inventario dei propri clienti e del relativo rifornimento, assicurando il soddisfacimento della domanda. Si tratta quindi di un problema in cui decisioni relative al livello di inventario e al trasporto vengono prese in modo integrato al fine di minimizzare i costi del sistema. L’IRP è un problema definito su un orizzonte temporale finito e su una rete logistica caratterizzata da un nodo vendor (deposito o impianto di produzione) e da un insieme di nodi clienti che "consumano" un prodotto ad un tasso noto, e che devono essere riforniti per non andare in stock out. Anche il tasso di produzione dei prodotti presso il vendor è noto. La domanda presso i clienti deve essere soddisfatta utilizzando le quantità rese disponibili dal vendor che sono distribuite mediante una flotta di veicoli capacitati, posizionati presso il vendor stesso. Inoltre, sia clienti che il vendor possono accumulare scorte di inventario senza eccedere una capacità massima. L’obbiettivo è quello di stabilire le rotte dei veicoli e le quantità da trasportare presso i clienti durante il periodo di pianificazione, garantendo il soddisfacimento della domanda per ogni periodo e minimizzando il costo di trasporto e il costo di inventario totale (presso i clienti e presso il vendor). In questa tesi, viene studiata una versione di IRP in cui la pianificazione periodica è fatta su un intervallo di tempo "illimitato". Questo tipo di problema viene generalmente identificato come il Cyclic Inventory Routing Problem (CIRP). La pianificazione periodica è tipica nei sistemi nei produzione in cui si cerca di standardizzare le operazioni. Sistemi logistici che sposano politiche manageriali di lean production ne sono un esempio. Nel Capitolo 4 viene studiata una variante del CIRP. Per questo problema viene proposto un algoritmo esatto di branch-and-cut capace di risolvere istanze fino a 50 clienti. Nel Capitolo 5 vengono proposte delle classi di math-euristiche (matheuristic) per risolvere il CIRP mediante la risoluzione di una formulazione basata su variabili di rotta. Le rotte sono definite a priori risolvendo dei VRPs. Per le rotte generate sono definiti dei rapporti di prestazione. L’approccio proposto viene comparato con le soluzioni e i lower bounds forniti da un algoritmo esatto di branchand- cut che risolve una formulazione basata su variabili di flusso. I risultati mostrano che l’approccio basato sulle classi di math-eurisitche è in grado di fornire soluzioni di alta qualità, molto spesso migliori di quelle fornite dall’algoritmo di branch-and-cut, con tempi computazoinali contenuti.
  • Thumbnail Image
    Item
    Deep Learning and Graph Theory for Brain Connectivity Analysis in Multiple Sclerosis
    (Università della Calabria, 2020-01-16) Marzullo, Aldo; Leone, Nicola; Calimeri, Francesco; Terracina, Giorgio;
    Multiple sclerosis (MS) is a chronic disease of the central nervous system, leading cause of nontraumatic disability in young adults. MS is characterized by inflammation, demyelination and neurodegenrative pathological processes which cause a wide range of symptoms, including cognitive deficits and irreversible disability. Concerning the diagnosis of the disease, the introduction of Magnetic Resonance Imaging (MRI) has constituted an important revolution in the last 30 years. Furthermore, advanced MRI techniques, such as brain volumetry, magnetization transfer imaging (MTI) and diffusion-tensor imaging (DTI) are nowadays the main tools for detecting alterations outside visible brain lesions and contributed to our understanding of the pathological mechanisms occurring in normal appearing white matter. In particular, new approaches based on the representation of MR images of the brain as graph have been used to study and quantify damages in the brain white matter network, achieving promising results. In the last decade, novel deep learning based approaches have been used for studying social networks, and recently opened new perspectives in neuroscience for the study of functional and structural brain connectivity. Due to their effectiveness in analyzing large amount of data, detecting latent patterns and establishing functional relationships between input and output, these artificial intelligence techniques have gained particular attention in the scientific community and is nowadays widely applied in many context, including computer vision, speech recognition, medical diagnosis, among others. In this work, deep learning methods were developed to support biomedical image analysis, in particular for the classification and the characterization of MS patients based on structural connectivity information. Graph theory, indeed, constitutes a sensitive tool to analyze the brain networks and can be combined with novel deep learning techniques to detect latent structural properties useful to investigate the progression of the disease. In the first part of this manuscript, an overview of the state of the art will be given. We will focus our analysis on studies showing the interest of DTI for WM characterization in MS. An overview of the main deep learning techniques will be also provided, along with examples of application in the biomedical domain. In a second part, two deep learning approaches will be proposed, for the generation of new, unseen, MRI slices of the human brain and for the automatic detection of the optic disc in retinal fundus images. In the third part, graph-based deep learning techniques will be applied to the study of brain structural connectivity of MS patients. Graph Neural Network methods to classify MS patients in their respective clinical profiles were proposed with particular attention to the model interpretation, the identification of potentially relevant brain substructures, and to the investigation of the importance of local graph-derived metrics for the classification task. Semisupervised and unsupervised approaches were also investigated with the aim of reducing the human intervention in the pipeline.
  • Thumbnail Image
    Item
    Qualitative properties of solutions to some semilinear and quasilinear elliptic PDEs
    (Università della Calabria, 2019-12-23) Esposito, Francesco; Leone, Nicola; Sciunzi, Berardino; Farina, Alberto
    Il metodo dello spostamento degli iperpiani di A.D. Alexandrov e J.B. Serrin è lo strumento più importante utilizzato per studiare le proprietà qualitative di soluzioni di equazioni alle derivate parziali (EDP) di tipo ellittico non lineari, come simmetria e monotonia. Il Capitolo 1 tratta i principi del massimo, i principi di confronto e il lemma di Hopf che svolgono un ruolo cruciale nel metodo del moving planes. In questo capitolo, inoltre, è presente anche lo stato dell’arte nei problemi semilineari e quasilineari. Nel Capitolo 2 consideriamo le soluzioni positive di EDP ellittiche semilineari con non linearità singolari. In questo contesto, usando un argomento di “riscalamento”, dimostriamo un nuovo lemma di Hopf al bordo, eludendo la perdita di regolarità di soluzioni vicine al bordo. Il Capitolo 3 tratta della versione quasilineare del problema studiato nel Capitolo 2. Dopo aver ottenuto un lemma di Hopf per questo tipo di equazione, dimostreremo la simmetria e la monotonia delle soluzioni positive nel semispazio e nei domini limitati e convessi. Nel Capitolo 4, utilizzando il metodo del moving planes, dimostriamo la simmetria e la monotonia di soluzioni positive di EDP semilineari (possibilmente singolari) in domini limitati e illimitati. Il caso quasilineare, che è molto di più delicato e tecnico, è trattato nel Capitolo 5. Il capitolo 6 è dedicato allo studio delle proprietà qualitative di soluzioni positive e singolari di alcuni sistemi ellittici cooperativi. Verrà dimostrato che i risultati ottenuti nel Capitolo 4 restano veri in questo contesto. Nell’ultimo capitolo (Capitolo 7) dimostriamo la versione quasilineare della congettura di Gibbons.
  • Thumbnail Image
    Item
    Distributed Optimization Over Large-Scale Systems for Big Data Analytics
    (Università della Calabria, 2020-01-17) Shahbazian, Reza; Leone, Nicola; Grandinetti, Lucio; Guerriero, Francesca
    A large-scale system is defined as one that supports multiple, simultaneous users who access the core functionality through some network. Nowadays, enormous amount of data is continually generated at unprecedented and ever-increasing scales. Large-scale data sets are collected and studied in numerous domains, from engineering sciences to social networks, commerce, bimolecular research, and security. Big Data is a term applied to data sets whose size or type is beyond the ability of traditional relational databases to capture, manage, and process with acceptable latency. Usually, Big Data has one or more of the characteristics including high volume, high velocity, or high variety. Big Data challenges include capturing data, data storage, data analysis, search, sharing, transfer, visualization, querying, updating, information privacy and data source. Generally, Big Data comes from sensors, devices, video or audio, networks, log files, transactional applications, web, and social media, in a very large-scale. Big Data is impossible to analyze by using traditional central methods and therefore, new distributed models and algorithms are needed to process the data. In this thesis, we focus on optimization algorithms for Big Data application. We review some of the recent machine learning, convex and non-convex, heuristic and stochastic optimization techniques and available tools applied to Big Data. We also propose a new distributed and decentralized stochastic algorithm for Big Data analytics. Our proposed algorithm is fully distributed to decide large-scale networks and data sets. The proposed method is scalable to any network configuration, is near real-time (in each iteration, a solution is provided although it might not be the optimum one) and more critical, robust to any missing data or communication failures. We evaluate the proposed method by a practical example and simulations on cognitive radio networks. Simulation results confirmed that the proposed method is efficient in terms of accuracy and robustness. We assume that the distributed data-sources should be capable of processing their data and communicate with neighbor sources to find the network objective as an optimal decision. Some challenges are introduced by new technologies such as 5G or high-speed wireless data transfer, including imperfect communications that damage the data. We propose an optimal algorithm that uses optimal weighting to combine the shared data coming from neighbors. This optimal weight improves the performance of the decision-making algorithm in terms of error and convergence rate. We evaluate the performance of the proposed algorithm mathematically and introduce the step-sized conditions that guaranteed the convergence of the proposed algorithm. We use computer simulations to evaluate the network error. We prove that in a network diagram with ten datasources, the network performance of the proposed algorithm outperforms some of the known optimal solutions such as Metropolis and adaptive combination. Keywords: Optimization, Big Data, Large-Scale, Distributed, Optimal Weight.
  • Thumbnail Image
    Item
    Declarative solutions for the the Manipulation of Articulated Objects Using Dual-Arm Robots
    (Università della Calabria, 2020-03-17) Bertolucci, Riccardo; Leone, Nicola; Maratea, Marco; Mastrogiovanni, Fulvio
    The manipulation of exible object is of primary importance in industry 4.0 and in home environments scenarios. Traditionally, this problem has been tackled by developing ad-hoc approaches, that lack of exibility and portability. We propose an approach in which a exible object is modelled as an articulated object, or rather, a set of links connect via joints. In this thesis we present a framework based on Answer Set Programming (ASP) for the automated manipulation of articulated objects in a robot architecture. In particular, ASP is employed for representing the con guration of the articulated object, for checking the consistency of the knowledge base, and for generating the sequence of manipulation actions. The framework is exempli ed and validated on the Baxter dual-arm manipulator on a simple reference scenario in which we carried out di erent experiments analysing the behaviours of di erent strategies for the action planning module. Our aim is to have an understanding of the performances of these approaches with respect to planning time and execution time as well. Then, we extend such scenario for having a higher accuracy of the setup, and to introduce a few constraints in robot actions execution to improve their feasibility. Given the extended scenario entails a high number of possible actions that can be fruitfully combined, we exploit macro actions from automated planning in the module that generates the sequence of actions, in order to deal with this extended scenario in a more e ective way. Moreover, we analyse the possibilities of mixed encodings with both simple actions and macro actions from automated planning in di erent "concentrations". We nally validate the framework also on this extended scenario, con rming the applicability of ASP also in this complex context, and showing the usefulness of macro actions in this robotics application.
  • Thumbnail Image
    Item
    Dyadic TGDs - A new paradigm for ontological query answering
    (Università della Calabria, 2022-03-11) Marte, Cinzia; Greco, Gianluigi; Manna, Marco; Guerriero, Francesca; Leone, Nicola
    Ontology-BasedQueryAnswering(OBQA)consistsinqueryingdata– bases bytakingontologicalknowledgeintoaccount.Wefocusona logical frameworkbasedonexistentialrulesor tuple generatingdepen- dencies (TGDs), alsoknownasDatalog±, whichcollectsthebasicde- cidable classesofTGDs,andgeneralizesseveralontologyspecification languages. While thereexistlotsofdifferentclassesintheliterature,inmost cases eachofthemrequiresthedevelopmentofaspecificsolverand, only rarely,thedefinitionofanewclassallowstheuseofexisting systems. Thisgapbetweenthenumberofexistentparadigmsandthe numberofdevelopedtools,promptedustodefineacombinationof Shy and Ward (twowell-knownclassesthatenjoygoodcomputational properties)withtheaimofexploitingthetooldevelopedfor Shy. Nevertheless,studyinghowtomergethesetwoclasses,wehavereal- ized thatitwouldbepossibletodefine,inamoregeneralway,the combinationofexistingclasses,inordertomakethemostofexisting systems. Hence, inthiswork,startingfromtheanalysisofthetwoaforemen- tioned existingclasses,wedefineamoregeneralclass,named Dyadic TGDs, thatallowstoextendinauniformandelegantwayallthede- cidable classes,whileusingtheexistentrelatedsystems.Atthesame time, wedefinealsoacombinationof Shy and Ward, named Ward+, and weshowthatitcanbeseenasaDyadicsetofTGDs. Finally,tosupportthetheoreticalpartofthethesis,weimplementa BCQ evaluationalgorithmfortheclass Ward+, thattakesadvantage of anexistingsolverdevelopedfor Shy.
  • Thumbnail Image
    Item
    Ontology-driven information extraction
    (2017-07-20) Adrian, Weronika Teresa; Leone, Nicola; Manna, Marco
    Information Extraction consists in obtaining structured information from unstructured and semi-structured sources. Existing solutions use advanced methods from the field of Natural Language Processing and Artificial Intelligence, but they usually aim at solving sub-problems of IE, such as entity recognition, relation extraction or co-reference resolution. However, in practice, it is often necessary to build on the results of several tasks and arrange them in an intelligent way. Moreover, nowadays, Information Extraction faces new challenges related to the large-scale collections of documents in complex formats beyond plain text. An apparent limitation of existing works is the lack of uniform representation of the document analysis from multiple perspectives, such as semantic annotation of text, structural analysis of the document layout and processing of the integrated knowledge. The recent proposals of ontology-based Information Extraction do not fully exploit the possibilities of ontologies, using them only as a reference model for a single extraction method, such as semantic annotation, or for defining the target schema for the extraction process. In this thesis, we address the problem of Information Extraction from homogeneous collections of documents i.e., sets of files that share some common properties with respect to the content or layout. We observe that interleaving semantic and structural analysis can benefit the results of the IE process and propose an ontology-driven approach that integrates and extends existing solutions. The contributions of this thesis are of theoretical and practical nature. With respect to the first, we propose a model and a process of Semantic Information Extraction that integrates techniques from semantic annotation of text, document layout analysis, object-oriented modeling and rule-based reasoning. We adapt existing solutions to enable their integration under a common ontological view and advance the state-of-the-art in the field of semantic annotation and document layout analysis. In particular, we propose a novel method for automatic lexicon generation for semantic annotators, and an original approach to layout analysis, based on common labels identification and structure recognition. We design and implement a framework named KnowRex that realize the proposed methodology and integrates the elaborated solutions.
  • Thumbnail Image
    Item
    CORE: an intelligent trasportation systems in Calabria
    (2017-02-22) Santoro, Francesco; Leone, Nicola; Laganà, Demetrio; Musmanno, Roberto
  • Thumbnail Image
    Item
    Paracoherent Answer Set Programming
    (2017-02-22) Amendola, Giovanni; Leone, Nicola; Eiter, Thomas
    L’Answer Set Programming (ASP) è un paradigma di programmazione dichiarativa basato sulla semantica dei modelli stabili. L’idea alla base di ASP è di codificare un problema computazionale in un programma logico i cui modelli stabili, anche detti answer sets, corrispondono alle soluzioni del problema originale. La semantica degli answer sets potrebbe non assegnare alcun modello ad un programma logico a causa di contraddizioni logiche o di negazioni instabili, causate dalla dipendenza ciclica di un atomo dal suo negato. Mentre le contraddizioni logiche possono essere gestite con le tecniche tradizionali usate nel ragionamento paraconsistente, l’instabilità della negazione richiede altri metodi. Ricorriamo qui ad una semantica paracoerente in cui sono utilizzate delle interpretazioni a 3 valori, dove un terzo valore di verità, oltre a quelli classici di vero e di falso, esprime che un atomo è creduto vero. Ciò è alla base della semantica dei modelli semi-stabili che è stata definita attraverso l’utilizzo di una trasformazione del programma originario. Questa tesi ha come punto di partenza un articolo presentato nel 2010 alla dodicesima “International Conference on Principles of Knowledge Representation and Reasoning” [21], dove viene offerta innanzitutto una caratterizzazione dei modelli semi-stabili che rende la semantica più comprensibile. Inoltre, motivati da alcune anomalie di tale semantica rispetto ad alcune fondamentali proprietà epistemiche, viene proposta una correzione che soddisfa queste proprietà. Per questa nuova semantica viene offerta sia una definizione attraverso una trasformazione del programma originario che una caratterizzazione teorica dei modelli, che si rivelano essere un rilassamento della logica di equilibrio, una logica caratterizzante la semantica degli answer sets. Pertanto, la semantica introdotta viene chiamata semantica dei modelli di semi-equilibrio. Nella tesi consideriamo alcuni miglioramenti di questa semantica rispetto alla modularità nelle regole del programma, basata sugli insiemi di splitting, il principale strumento per la modularità usato nel modellare e nel valutare i programmi ASP. Tra questi selezioniamo classi di modelli canonici che permettono una valutazione bottom-up dei programmi ASP, con l’opzione di passare ad una modalità paracoerente quando si rileva la mancanza di un answer set. L’analisi della complessità computazionale dei principali task di ragionamento mostra che i modelli di semi-equilibrio sono computazionalmente più difficili rispetto agli answer sets (ovvero, modelli di equilibrio), a causa di una minimizzazione globale necessaria per mantenere quanto più piccolo possibile il gap tra atomi creduti veri e atomi veri. Successivamente consideriamo differenti algoritmi per calcolare modelli semi-stabili e modelli di semi-equilibrio, implementandoli ed integrandoli all’interno di un framework per la costruzione degli answer sets. Riportiamo poi i risultati di esperimenti condotti sui benchmarks provenienti dalle ASP competitions, identificando l’algoritmo più efficiente. I risultati di questa tesi contribuiscono alla fondazione logica dell’ASP paracoerente, che sta gradualmente ottenendo una maggiore importanza nella gestione delle inconsistenze e, allo stesso tempo, offrono una base per lo sviluppo di algoritmi e per la loro integrazione all’interno di un solver ASP.
  • Thumbnail Image
    Item
    <> impact of software on Mathematics education in high schools
    (2017-02-22) Frassia, Maria Giovanna; Leone, Nicola; Serpe, Annarosa
    Il rapporto tra tecnologia e insegnamento-apprendimento della Matematica è un fenomeno complesso che merita di essere osservato da diversi punti di vista. Uno di questi è il ruolo che i software svolgono, e potrebbero svolgere nella pratica didattica di Matematica. Nell’ultimo trentennio, la disponibilità di software nella scuola secondaria di II grado italiana è notevolmente aumentata come in molti altri paesi, questo ha aperto nuove prospettive nel processo di insegnamento e apprendimento della Matematica. A tal riguardo esiste una letteratura di ricerca vasta e crescente relativa all’integrazione di software didattici proprio perché presentano caratteristiche diverse che vanno ad incidere sulle modalità d’uso in classe: non va considerato tanto l’impatto strumentale quanto la dimensione del cambiamento generato nel processo d’insegnamento-apprendimento. Lo scopo di questa tesi è quello di dare un posto centrale allo studio dell’impatto dei software nella didattica della Matematica nella scuola secondaria di II grado A tale ragione sono stati scelti ed esaminati, nelle loro intenzionalità e potenzialità didattiche, due differenti tipologie di software: il primo è il software di geometria dinamica GeoGebra, il secondo è l’ambiente di programmazione MatCos. Lo studio è finalizzato alla disamina degli effetti prodotti dall’impatto dei suddetti software nella didattica dei seguenti argomenti: costruzione geometrica di curve piane e calcolo della probabilità. La scelta degli argomenti è dovuta al fatto che questi nella pratica didattica in classe sono - quasi sempre - trascurati, con conseguente grave perdita nel percorso formativo degli studenti. Lo studio di ricerca ha visto coinvolti un campione di studenti di scuola secondaria di II grado suddiviso in due gruppi: il primo ha utilizzato i due software durante tutte le attività di sperimentazione, mentre il secondo non li ha utilizzati. L’attività di sperimentazione ha consentito di effettuare l’indagine sull’impatto dei due software nella didattica degli argomenti prescelti, nonché sulle differenze, in termini di risultati d’apprendimento, tra i due gruppi di studenti. In definitiva, questo studio d’impatto ha preso in esame l’inquadramento dei risultati ottenuti dagli studenti e osservati sul piano epistemologico, cognitivo e didattico.