Dipartimento di Matematica e Informatica - Tesi di Dottorato

Permanent URI for this collectionhttps://lisa.unical.it/handle/10955/103

Questa collezione raccoglie le Tesi di Dottorato afferenti al Dipartimento di Matematica e Informatica dell'Università della Calabria.

Browse

Search Results

Now showing 1 - 10 of 76
  • Item
    Global Optimization and Fractal Curves
    (Università della Calabria, 2022-07-13) Nasso, Maria Chiara; Crupi, Felice; Sergeev, Yaroslav
    Il presente lavoro di tesi è principalmente dedicato all'ottimizzazione globale e in particolare a metodi numerici di ottimizzazione globale basati su frattali. Viene affrontato lo studio teorico di alcune curve frattali, vengono proposti nuovi algoritmi che si basano su approcci frattali per ridurre la dimensione del problema e vengono introdotti nuovi metodi di ottimizzazione globale basati sulla tecnica del Local Tuning. Ciascuno dei nuovi metodi proposti è stato implementato e studiato dal punto di vista teorico. Inoltre, gli esperimenti numerici, condotti su diverse centinaia di funzioni test, tratte dalla letteratura e generate in maniera random confermano i vantaggi degli algoritmi presentati.
  • Thumbnail Image
    Item
    Optimizing inventory and distribution in supply chain management
    (Università della Calabria, 2020-01-13) Paradiso, Rosario; Laganà, Demetrio; Leone, Nicola
    Nella presente tesi di dottorato sono studiati due problemi (e relative generalizzazioni e varianti) di particolare interesse nel campo della Logistica e della Ricerca Operativa. Il primo problema trattato è il Multi Trip Vehicle Routing Problem with TimeWindows (MTVRP). Si tratta di una generalizzazione del classico Vehicle Routing Problem (VRP) in cui ogni veicolo può essere utilizzato più volte durante l’orizzonte di pianificazione. Questa caratteristica, che complica notevolmente il problema, trova applicazione in diversi contesti di last mile deliveries o urban logistics nei quali è preferibile utilizzare vettori elettrici, con limitata capacità di trasporto. Queste caratteristiche si traducono in un numero limitato di visite o in una ridotta lunghezza (temporale o spaziale) delle rotte che questi veicoli possono percorrere, rendendo necessario il riutilizzo degli stessi veicoli nella pianificazione. Nel Capitolo 2 viene proposto un metodo esatto, capace di risolvere cinque diverse varianti del problema che incorporano diverse caratteristiche motivate da applicazioni reali. Per ogni variante, il metodo proposto risulta esse migliore degli algoritmi esatti presenti in letteratura, in termini di tempo computazionale e numero di istanze risolte. Inoltre, per le prima volta vengono risolte istanze fino a 50 clienti. Nel Capitolo 3, viene studiato e definito un problema affine al MTVRP, denominato Installation Planning of Offshore Wind Farm Problem (IPOWF). Il problema nasce nel contesto della costruzione di parchi eolici off-shore: dopo la fase di progettazione in cui vengono definite tutte le specifiche (numero, tipo e posizione delle turbine), il parco deve essere costruito avendo a disposizione una flotta di vascelli che vengono utilizzati per eseguire le operazioni necessarie alla costruzione di ogni turbina. L’obbiettivo è schedulare le operazioni e definire le rotte dei vascelli in modo da completare il parco, minimizzando il costo dovuto all’utilizzo dei vascelli stessi (costo di noleggio) e il costo di mancata produzione energetica derivante dalle turbine non completate. Inoltre, le condizioni meteo devono essere tenute in considerazione, dal momento che alcune operazioni possono essere eseguite solo in presenza di condizioni controllate di agitazione ondosa. La fase di definizione delle rotte dei vascelli risulta, di fatto, un MTVRP dal momento che i vascelli hanno bisogno di tornare nel porto di provenienza per caricare risorse, prima di procedere verso la turbina successiva. Il problema è stato studiato in collaborazione con Vattenfall, una delle maggiore aziende a livello mondiale operanti nel settore. Grazie a questa collaborazione è stato possibile e testare l’approccio su dati reali. Per risolvere il problema sono stati definiti dei modelli di programmazione lineare intera (Mixed Integer Linear Programming models, MILPs). Alcuni di questi sono utilizzati per trovare soluzioni ammissibili in tempi ragionevoli. Le ipotesi alla base di tali modelli non incidono sull’ammissibilità delle soluzioni del problema originario. Tuttavia, per valutare la qualità delle soluzioni sono definiti dei modelli di lower bound basati su rilassamenti del problema. L’approccio è in grado di fornire soluzioni con gap di ottimalità inferiori del 2%. I Capitoli 4 e 5 sono dedicati al secondo problema trattato in questa tesi, ovvero a una variante del classico Inventory Routing Problem (IRP). IRP è il problema di ottimizzazione sotteso al paradigma gestionale Vendor Management System, una politica di gestione di parte della catena logistica in cui il vendor ha il controllo dei livelli di inventario dei propri clienti e del relativo rifornimento, assicurando il soddisfacimento della domanda. Si tratta quindi di un problema in cui decisioni relative al livello di inventario e al trasporto vengono prese in modo integrato al fine di minimizzare i costi del sistema. L’IRP è un problema definito su un orizzonte temporale finito e su una rete logistica caratterizzata da un nodo vendor (deposito o impianto di produzione) e da un insieme di nodi clienti che "consumano" un prodotto ad un tasso noto, e che devono essere riforniti per non andare in stock out. Anche il tasso di produzione dei prodotti presso il vendor è noto. La domanda presso i clienti deve essere soddisfatta utilizzando le quantità rese disponibili dal vendor che sono distribuite mediante una flotta di veicoli capacitati, posizionati presso il vendor stesso. Inoltre, sia clienti che il vendor possono accumulare scorte di inventario senza eccedere una capacità massima. L’obbiettivo è quello di stabilire le rotte dei veicoli e le quantità da trasportare presso i clienti durante il periodo di pianificazione, garantendo il soddisfacimento della domanda per ogni periodo e minimizzando il costo di trasporto e il costo di inventario totale (presso i clienti e presso il vendor). In questa tesi, viene studiata una versione di IRP in cui la pianificazione periodica è fatta su un intervallo di tempo "illimitato". Questo tipo di problema viene generalmente identificato come il Cyclic Inventory Routing Problem (CIRP). La pianificazione periodica è tipica nei sistemi nei produzione in cui si cerca di standardizzare le operazioni. Sistemi logistici che sposano politiche manageriali di lean production ne sono un esempio. Nel Capitolo 4 viene studiata una variante del CIRP. Per questo problema viene proposto un algoritmo esatto di branch-and-cut capace di risolvere istanze fino a 50 clienti. Nel Capitolo 5 vengono proposte delle classi di math-euristiche (matheuristic) per risolvere il CIRP mediante la risoluzione di una formulazione basata su variabili di rotta. Le rotte sono definite a priori risolvendo dei VRPs. Per le rotte generate sono definiti dei rapporti di prestazione. L’approccio proposto viene comparato con le soluzioni e i lower bounds forniti da un algoritmo esatto di branchand- cut che risolve una formulazione basata su variabili di flusso. I risultati mostrano che l’approccio basato sulle classi di math-eurisitche è in grado di fornire soluzioni di alta qualità, molto spesso migliori di quelle fornite dall’algoritmo di branch-and-cut, con tempi computazoinali contenuti.
  • Thumbnail Image
    Item
    Deep Learning and Graph Theory for Brain Connectivity Analysis in Multiple Sclerosis
    (Università della Calabria, 2020-01-16) Marzullo, Aldo; Leone, Nicola; Calimeri, Francesco; Terracina, Giorgio;
    Multiple sclerosis (MS) is a chronic disease of the central nervous system, leading cause of nontraumatic disability in young adults. MS is characterized by inflammation, demyelination and neurodegenrative pathological processes which cause a wide range of symptoms, including cognitive deficits and irreversible disability. Concerning the diagnosis of the disease, the introduction of Magnetic Resonance Imaging (MRI) has constituted an important revolution in the last 30 years. Furthermore, advanced MRI techniques, such as brain volumetry, magnetization transfer imaging (MTI) and diffusion-tensor imaging (DTI) are nowadays the main tools for detecting alterations outside visible brain lesions and contributed to our understanding of the pathological mechanisms occurring in normal appearing white matter. In particular, new approaches based on the representation of MR images of the brain as graph have been used to study and quantify damages in the brain white matter network, achieving promising results. In the last decade, novel deep learning based approaches have been used for studying social networks, and recently opened new perspectives in neuroscience for the study of functional and structural brain connectivity. Due to their effectiveness in analyzing large amount of data, detecting latent patterns and establishing functional relationships between input and output, these artificial intelligence techniques have gained particular attention in the scientific community and is nowadays widely applied in many context, including computer vision, speech recognition, medical diagnosis, among others. In this work, deep learning methods were developed to support biomedical image analysis, in particular for the classification and the characterization of MS patients based on structural connectivity information. Graph theory, indeed, constitutes a sensitive tool to analyze the brain networks and can be combined with novel deep learning techniques to detect latent structural properties useful to investigate the progression of the disease. In the first part of this manuscript, an overview of the state of the art will be given. We will focus our analysis on studies showing the interest of DTI for WM characterization in MS. An overview of the main deep learning techniques will be also provided, along with examples of application in the biomedical domain. In a second part, two deep learning approaches will be proposed, for the generation of new, unseen, MRI slices of the human brain and for the automatic detection of the optic disc in retinal fundus images. In the third part, graph-based deep learning techniques will be applied to the study of brain structural connectivity of MS patients. Graph Neural Network methods to classify MS patients in their respective clinical profiles were proposed with particular attention to the model interpretation, the identification of potentially relevant brain substructures, and to the investigation of the importance of local graph-derived metrics for the classification task. Semisupervised and unsupervised approaches were also investigated with the aim of reducing the human intervention in the pipeline.
  • Thumbnail Image
    Item
    Qualitative properties of solutions to some semilinear and quasilinear elliptic PDEs
    (Università della Calabria, 2019-12-23) Esposito, Francesco; Leone, Nicola; Sciunzi, Berardino; Farina, Alberto
    Il metodo dello spostamento degli iperpiani di A.D. Alexandrov e J.B. Serrin è lo strumento più importante utilizzato per studiare le proprietà qualitative di soluzioni di equazioni alle derivate parziali (EDP) di tipo ellittico non lineari, come simmetria e monotonia. Il Capitolo 1 tratta i principi del massimo, i principi di confronto e il lemma di Hopf che svolgono un ruolo cruciale nel metodo del moving planes. In questo capitolo, inoltre, è presente anche lo stato dell’arte nei problemi semilineari e quasilineari. Nel Capitolo 2 consideriamo le soluzioni positive di EDP ellittiche semilineari con non linearità singolari. In questo contesto, usando un argomento di “riscalamento”, dimostriamo un nuovo lemma di Hopf al bordo, eludendo la perdita di regolarità di soluzioni vicine al bordo. Il Capitolo 3 tratta della versione quasilineare del problema studiato nel Capitolo 2. Dopo aver ottenuto un lemma di Hopf per questo tipo di equazione, dimostreremo la simmetria e la monotonia delle soluzioni positive nel semispazio e nei domini limitati e convessi. Nel Capitolo 4, utilizzando il metodo del moving planes, dimostriamo la simmetria e la monotonia di soluzioni positive di EDP semilineari (possibilmente singolari) in domini limitati e illimitati. Il caso quasilineare, che è molto di più delicato e tecnico, è trattato nel Capitolo 5. Il capitolo 6 è dedicato allo studio delle proprietà qualitative di soluzioni positive e singolari di alcuni sistemi ellittici cooperativi. Verrà dimostrato che i risultati ottenuti nel Capitolo 4 restano veri in questo contesto. Nell’ultimo capitolo (Capitolo 7) dimostriamo la versione quasilineare della congettura di Gibbons.
  • Thumbnail Image
    Item
    Distributed Optimization Over Large-Scale Systems for Big Data Analytics
    (Università della Calabria, 2020-01-17) Shahbazian, Reza; Leone, Nicola; Grandinetti, Lucio; Guerriero, Francesca
    A large-scale system is defined as one that supports multiple, simultaneous users who access the core functionality through some network. Nowadays, enormous amount of data is continually generated at unprecedented and ever-increasing scales. Large-scale data sets are collected and studied in numerous domains, from engineering sciences to social networks, commerce, bimolecular research, and security. Big Data is a term applied to data sets whose size or type is beyond the ability of traditional relational databases to capture, manage, and process with acceptable latency. Usually, Big Data has one or more of the characteristics including high volume, high velocity, or high variety. Big Data challenges include capturing data, data storage, data analysis, search, sharing, transfer, visualization, querying, updating, information privacy and data source. Generally, Big Data comes from sensors, devices, video or audio, networks, log files, transactional applications, web, and social media, in a very large-scale. Big Data is impossible to analyze by using traditional central methods and therefore, new distributed models and algorithms are needed to process the data. In this thesis, we focus on optimization algorithms for Big Data application. We review some of the recent machine learning, convex and non-convex, heuristic and stochastic optimization techniques and available tools applied to Big Data. We also propose a new distributed and decentralized stochastic algorithm for Big Data analytics. Our proposed algorithm is fully distributed to decide large-scale networks and data sets. The proposed method is scalable to any network configuration, is near real-time (in each iteration, a solution is provided although it might not be the optimum one) and more critical, robust to any missing data or communication failures. We evaluate the proposed method by a practical example and simulations on cognitive radio networks. Simulation results confirmed that the proposed method is efficient in terms of accuracy and robustness. We assume that the distributed data-sources should be capable of processing their data and communicate with neighbor sources to find the network objective as an optimal decision. Some challenges are introduced by new technologies such as 5G or high-speed wireless data transfer, including imperfect communications that damage the data. We propose an optimal algorithm that uses optimal weighting to combine the shared data coming from neighbors. This optimal weight improves the performance of the decision-making algorithm in terms of error and convergence rate. We evaluate the performance of the proposed algorithm mathematically and introduce the step-sized conditions that guaranteed the convergence of the proposed algorithm. We use computer simulations to evaluate the network error. We prove that in a network diagram with ten datasources, the network performance of the proposed algorithm outperforms some of the known optimal solutions such as Metropolis and adaptive combination. Keywords: Optimization, Big Data, Large-Scale, Distributed, Optimal Weight.
  • Thumbnail Image
    Item
    Declarative solutions for the the Manipulation of Articulated Objects Using Dual-Arm Robots
    (Università della Calabria, 2020-03-17) Bertolucci, Riccardo; Leone, Nicola; Maratea, Marco; Mastrogiovanni, Fulvio
    The manipulation of exible object is of primary importance in industry 4.0 and in home environments scenarios. Traditionally, this problem has been tackled by developing ad-hoc approaches, that lack of exibility and portability. We propose an approach in which a exible object is modelled as an articulated object, or rather, a set of links connect via joints. In this thesis we present a framework based on Answer Set Programming (ASP) for the automated manipulation of articulated objects in a robot architecture. In particular, ASP is employed for representing the con guration of the articulated object, for checking the consistency of the knowledge base, and for generating the sequence of manipulation actions. The framework is exempli ed and validated on the Baxter dual-arm manipulator on a simple reference scenario in which we carried out di erent experiments analysing the behaviours of di erent strategies for the action planning module. Our aim is to have an understanding of the performances of these approaches with respect to planning time and execution time as well. Then, we extend such scenario for having a higher accuracy of the setup, and to introduce a few constraints in robot actions execution to improve their feasibility. Given the extended scenario entails a high number of possible actions that can be fruitfully combined, we exploit macro actions from automated planning in the module that generates the sequence of actions, in order to deal with this extended scenario in a more e ective way. Moreover, we analyse the possibilities of mixed encodings with both simple actions and macro actions from automated planning in di erent "concentrations". We nally validate the framework also on this extended scenario, con rming the applicability of ASP also in this complex context, and showing the usefulness of macro actions in this robotics application.
  • Thumbnail Image
    Item
    Arsenic Ore Mixture Froth Image Generation with Neural Networks and a Language for Declarative Data Validation
    (Università della Calabria, 2022-04-14) Zamayla, Arnel; Greco, Gianluigi; Alviano, Mario; Dodaro, Carmine
    Computer vision systems that measure froth flow velocities and stability designed for flotation froth image analysis are well established in industry, as they are used to control material recovery. However flotation systems that has limited data has not been explored in the same fashion bearing the fact that big data tools like deep convolutional neural networks require huge amounts of data. This lead to the motivation of the research reported in the first part of this thesis, which is to generate synthetic images from limited data in order to create a froth image dataset. The image synthesis is possible through the use of generative adversarial network. The performance of human experts in this domain in identifying the original and synthesized froth images were then compared with the performance of the models. The models exhibited better accuracy levels by average on the tests that were performed. The trained classifier was also compared with some of the established neural network models in the literature like the AlexNet, VGG16 ang ResNet34. Transfer learning was used as a method for this purpose. It also showed that these pretrained networks that are readily available have better accuracy by average comapared to trained experts. The second part of this thesis reports on a language designed for data validation in the context of knowledge representation and reasoning. Specifically, the target language is Answer Set Programming (ASP), a logic-based programming language widely adopted for combinatorial search and optimization, which however lacks constructs for data validation. The language presented in this thesis fulfills this gap by introducing specific constructs for common validation criteria, and also supports the integration of consolidated validation libraries written in Python. Moreover, the language is designed so to inject data validation in ordinary ASP programs, so to promote fail-fast techniques at coding time without imposing any lag on the deployed system if data are pretended to be valid.
  • Thumbnail Image
    Item
    Reasoning in highly dynamic environments
    (Università della Calabria, 2021-07-03) Pacenza, Francesco; Greco, Gianluigi; Ianni, Giovambattista; Zangari, Jessica
  • Thumbnail Image
    Item
    Large-scale ontology-mediated query answering over OWL 2 RL ontologies
    (Università della Calabria, 2022-03-11) Fiorentino, Alessio; Greco, Gianluigi; Manna, Marco
    Ontology-mediated query answering (OMQA) is an emerging paradigm at the basis of many semantic-centric applications. In this setting, a conjunctive query has to be evaluated against a logical theory (knowledge base) consisting of an extensional database paired with an ontology, which provides a semantic conceptual view of the data. Among the formalisms that are capable to express such a conceptual layer, the Web Ontology Language OWL is certainly the most popular one. Reasoning over OWL is a very expensive task, in general. For that reason, expressive yet decidable fragments of OWL have been identi ed. Among them, we focus on OWL 2 RL, which o ers a rich variety of semantic constructors, apart from supporting all RDFS datatypes. Although popular Web resources|such as DBpedia|fall in OWL 2 RL, only a few systems have been designed and implemented for this fragment. None of them, however, fully satisfy all the following desiderata: (i) being freely available and regularly maintained; (ii) supporting SPARQL queries; (iii) properly applying the sameAs property without adopting the unique name assumption; (iv) dealing with concrete datatypes. This thesis aims to provide a contribution in this setting. Primarily, we present DaRLing: an open-source Datalog rewriter for OWL 2 RL ontological reasoning under SPARQL queries. We describe its architecture, the rewriting strategies it implements, and the result of an experimental evaluation that demonstrates its practical applicability. Then, to reduce memory consumption and possibly optimize execution times of Datalog queries over large databases, we introduce novel techniques to determine an optimal indexing schema together with suitable body-orderings for Datalog rules, based on the concept of optimal evaluation plan. The ASP encoding of a planner for the computation of such plans is provided and explained in detail. The new approach is then compared with the standard execution plans implemented in stat-of-the-art Datalog systems over widely used ontological benchmarks.
  • Thumbnail Image
    Item
    A logic-based decision support system for the diagnosis of headache disorders according to the ichd - 3 international classification
    (Università della Calabria, 2022-04-21) Costabile, Roberta; Manna, Marco; Greco, Gianluigi