Dipartimento di Ingegneria Informatica, Modellistica, Elettronica e Sistemistica - Tesi di Dottorato
Permanent URI for this collectionhttp://localhost:4000/handle/10955/31
Questa collezione raccoglie le Tesi di Dottorato afferenti al Dipartimento di Ingegneria Informatica, Modellistica, Elettronica e Sistemistica dell'Università della Calabria.
Browse
Item <> cloud-assisted, agent based framework for cyber-physical systems(2016-02-19) Vinci, Andrea; Crupi, Felice; Spezzano, GiandomenicoItem <> Defect-Centric analysis of the channel hot carrier degradation(2016-02-02) Pròcel-Moya, Luis-Miguel; Pantano, Pietro; Crupi, FeliceDurante l'ultimo decennio, il channel hot carrier (CHC) e stato considerato uno dei pi u importanti meccanismi di degrado della moderna tecnologia CMOS. La degradazione CHC si veri- ca quando un voltaggio superiore a quello di saturazione viene applicato sul terminale di drain e, contemporaneamente, un voltaggio superiore alla tensione di soglia (VTH) viene applicato sul terminale di gate. Nel presente lavoro, abbiamo utilizzato la cosiddetta defect-centric distribution (DCD) per spiegare e descrivere il meccanismo di degradazione CHC. Il DCD si basa su due presupposti: il VTH prodotto da una singola carica segue una distribuzione esponenziale (valore medio ) e il numero to- tale di difetti segue la distribuzione di Poisson (valore medio Nt). La combinazione di questi due presupposti da come risultato la DCD. Negli ultimi anni, la distribuzione DCD e stata usata per descrivere e spiegare la bias temperature instability (BTI) ed e in grado di predirre le code estreme della distribuzione VTH no a 4 . Il vantaggio di usare il DCD e che i suoi primi e secondi momenti sono direttamente correlati ai parametri sici e Nt. Nel presente lavoro, e stato dimostrato che il DCD e anche in grado di descrivere e spiegare il degrado della distribuzione VTH no a 3 . E stata studiata la dipendenza dei parametri de ect-centric, e Nt, in relazione alla geometria del dispos- itivo. E stato dimostrato che e inversamente proporzionale all'area del dispositivo come in la degradazione BTI. Inoltre, il valore previsto della distribuzione VTH (< VTH >) si incre- menta fortemente quando la lunghezza di canale (L) diminuisce e si incrementa debolmente con il decremento della larghezza del dispositivo (W). In la degradazione BTI, si riporta che non vi e alcuna dipendenza tra < VTH > ed L. Pertanto, la forte dipendenza trovata e da atribuire alla degradazione CHC. Si e anche studiata la dipendenza della temperatura (T) dei parametri defect-centric e abbiamo trovato che non dipende da T, al contrario degli esperimenti BTI, dove invece Nt aumenta con T, fatto che si spiega con l'attivazione del meccanismo di dispersione elettrone-elettrone. Inoltre, abbiamo estratto una energia di attivazione di 56meV per Nt. Finalmente, abbi- amo usato dispositivi matching-pair con la nalit a di studiare la variabilit a tempo zero e la variabilit a dipendente dal tempo. E stato dimostrato che il tempo di stress e la tensione di stress applicati sul terminale di drain non in uenzano la variabilit a.Item <> methodology for the development of autonomic and cognitive internet of things ecosystems(2018-06-08) Savaglio, Claudio; Crupi, Felice; Fortino, GiancarloAdvancements on microelectromechanical systems, embedded technologies, and wireless communications have recently enabled the evolution of conven- tional everyday things in enhanced entities, commonly de ned Smart Objects (SOs). Their continuous and widespread di usion, along with an increasing and pervasive connectivity, is enabling unforeseen interactions with conven- tional computing systems, places, animals and humans, thus fading the bound- ary between physical and digital worlds. The Internet of Things (IoT) term just refers to such futuristic scenario, namely a loosely coupled, decentralized and dynamic ecosystem in which bil- lions (even trillions) of self-steering SOs are globally interconnected becoming active participants in business, logistics, information and social processes. In- deed, SOs are able to provide highly pervasive cyberphysical services to both humans and machines thanks to their communication, sensing, actuation, and embedded processing capabilities. Nowadays, the systemic revolution that can be led through the complete realization of the IoT vision is just at its dawn. As matter of facts, whereas new IoT devices and systems have been already developed, they often result in poorly interoperating \Intra-nets of things", mainly due to the heterogeneity featuring IoT building blocks and the lack of standards. Thus, the develop- ment of massive scaled (the total number of \things" is forecasted to reach 20.4 billion in 2020) and actually interoperable IoT systems is a challenging task, featured by several requirements and novel, even unsurveyed, issues. In this context, a multidisciplinary and systematic development approach is necessary, so to involve di erent elds of expertise for coping with the cy- berphysical nature of IoT ecosystem. Henceforth, full- edged IoT methodolo- gies are gaining traction, aiming at systematically supporting all development phases, addressing mentioned issues, and reducing time-to-market, e orts and probability of failure. In such a scenario, this Thesis proposes an application domain-neutral, full- edged agent-based development methodology able to support the main engineering phases of IoT ecosystems. The de nition of such systematic approach resulted in ACOSO-Meth (Agent-based COoperating Smart Objects Methodology), which is the major contribution of this thesis along with other interesting research e orts supporting (i.e., a multi-technology and multi- protocol smartphone-based IoT gateway) and extending (i.e., a full- edged approach to the IoT services modeling according to their opportunistic prop- erties) the main proposal. Finally, to provide validation and performance eval- uation of the proposed ACOSO-Meth approach, four use cases (related to di erent application contexts such as a smart university campus, a smart dig- ital library, a smart city and a smart workshop) have been developed. These research prototypes showed the e ectiveness and e ciency of the proposed approach and improved their respective state-of-the-art. iiItem Advanced linear beam models to be exploited in the implicit corotational framework and FEM implementation(2012-10-29) Genoese, Alessandra; Bartolino, Roberto; Casciaro, Raffaele; Garcea, Giovanni; Bilotta, AntonioUniversità degli Studi della CalabriaItem Advances in mining complex data: modeling and clustering(2009) Ponti,Giovanni; Greco,Sergio; Palopoli,LuigiIn the last years, there has been a great production of data that come from di®erent application contexts. However, although technological progress pro- vides several facilities to digitally encode any type of event, it is important to de¯ne a suitable representation model which underlies the main character- istics of the data. This aspect is particularly relevant in ¯elds and contexts where data to be archived can not be represented in a ¯x structured scheme, or that can not be described by simple numerical values. We hereinafter refer to these data with the term complex data. Although it is important de¯ne ad-hoc representation models for complex data, it is also crucial to have analysis systems and data exploration tech- niques. Analysts and system users need new instruments that support them in the extraction of patterns and relations hidden in the data. The entire process that aims to extract useful information and knowledge starting from raw data takes the name of Knowledge Discovery in Databases (KDD). It starts from raw data and consists in a set of speci¯c phases that are able to transform and manage data to produce models and knowledge. There have been many knowledge extraction techniques for traditional structured data, but they are not suitable to handle complex data. Investigating and solving representation problems for complex data and de¯ning proper algorithms and techniques to extract models, patterns and new information from such data in an e®ective and e±cient way are the main challenges which this thesis aims to face. In particular, two main aspects related to complex data management have been investigated, that are the way in which complex data can be modeled (i.e., data modeling), and the way in which homogeneous groups within complex data can be identi¯ed (i.e., data clustering). The application contexts that have been objective of such studies are time series data, uncertain data, text data, and biomedical data. It is possible to illustrate research contributions of this thesis by dividing them into four main parts, each of which concerns with one speci¯c area and data type: vi Abstract Time Series | A time series representation model has been developed, which is conceived to support accurate and fast similarity detection. This model is called Derivative time series Segment Approximation (DSA), as it achieves a concise yet feature-rich time series representation by com- bining the notions of derivative estimation, segmentation and segment approximation. Uncertain Data | Research in uncertain data mining went into two di- rections. In a ¯rst phase, a new proposal for partitional clustering has been de¯ned by introducing the Uncertain K-medoids (UK-medoids) al- gorithm. This approach provides a more accurate way to handle uncertain objects in a clustering task, since a cluster representative is an uncertain object itself (and not a deterministic one). In addition, e±ciency issue has been addressed by de¯ning a distance function between uncertain objects that can be calculated o²ine once per dataset. In a second phase, research activities aimed to investigate issues related to hierarchical clustering of uncertain data. Therefore, an agglomera- tive centroid-based linkage hierarchical clustering framework for uncer- tain data (U-AHC) has been proposed. The key point lies in equipping such scheme with a more accurate distance measure for uncertain objects. Indeed, it has been resorted to information theory ¯eld to ¯nd a mea- sure able to compare probability distributions of uncertain objects used to model uncertainty. Text Data |Research results on text data can be summarized in two main contributions. The ¯rst one regards clustering of multi-topic documents, and a framework for hard clustering of documents according to their mix- tures of topics has been proposed. Documents are assumed to be modeled by a generative process, which provides a mixture of probability mass functions (pmfs) to model the topics that are discussed within any spe- ci¯c document. The framework combines the expressiveness of generative models for document representation with a properly chosen information- theoretic distance measure to group the documents. The second proposal concerns distributional clustering of XML documents, focusing on a the development of a distributed framework for e±ciently clustering XML documents. The distributed environment consists of a peer-to-peer network where each node in the network has access to a portion of the whole document collection and communicates with all the other nodes to perform a clustering task in a collaborative fashion. The proposed framework is based on modeling and clustering XML documents by structure and content. Indeed, XML documents are transformed into transactional data based on the notion of tree tuple. The framework is based on the well-known paradigm of centroid-based partitional clustering to conceive the distributed, transactional clustering algorithm. Biomedical Data | Research results on time series and uncertain data have been involved to support e®ective and e±cient biomedical data man- agement. The focus regarded both proteomics and genomics, investigat- Abstract vii ing Mass Spectrometry (MS) data and microarray data. In the speci¯c, a Mass Spectrometry Data Analysis (MaSDA) system has been de¯ned. The key idea consists in exploiting temporal information implicitly contained in MS data and model such data as time series. The major advantages of this solution are the dimensionality and the noise reduction. As re- gards micrarray data, U-AHC has been employed to perform clustering of microarray data with probe-level uncertainty. A strategy to model probe- level uncertainty has been de¯ned, together with a hierarchical clustering scheme for analyzing such data. This approach performs a gene-based clustering to discover clustering solutions that are well-suited to capture the underlying gene-based patterns of microarray data. The e®ectiveness and the e±ciency of the proposed techniques in clus- tering complex data are demonstrated by performing intense and exhaustive experiments, in which such proposals are extensively compared with the main state-of-the-art competitors.Item Agent architectures for modelling and parallel simulation of complex systems(2014-03-03) Giordano, Andrea; Giordano, AndreaItem Algorithms and techniques towards the Self-Organization of Mobile Wireless Sensor, Robot and UAV Networks(2011-11-23) Costanzo, Carmelo; Viterbo, Emanuele; Palopoli, LuigiItem Analisi dei processi idraulici in terreni insaturi, potenzialmente instabili, attraverso la sperimentazione con modello fisico in scala(2019-04-15) Spolverino, Gennaro; Furgiuele, Franco; Capparrelli, GiovannaOgni anno eventi pluviometrici, anche molto diversi per durata ed intensità, innescano frane superficiali e profonde sui versanti o colate fangoso-detritiche lungo gli impluvi naturali e le aste torrentizie, che producono danni rilevanti e un inaccettabile numero di vittime. La loro pericolosità è legata alla rapidità d’innesco, alla mancanza di indizi premonitori e all’elevata intensità di distribuzione dei singoli fenomeni sul territorio. Tra le varie tipologie di frane, lo studio dei fenomeni franosi rapidi riveste un ruolo prevalente nell’attività di ricerca, in quanto questi rientrano tra i più catastrofici eventi di frana. Lo studio e la previsione delle frane indotte da pioggia quindi, è un campo che riveste grande importanza. La letteratura tecnica propone numerose attività di ricerca, volte sia a comprendere i processi alla base dell’innesco di un fenomeno franoso, che a migliorare i sistemi previsionali, con un ruolo delle discipline idrauliche che appare sempre più rilevante. Per riprodurre e investigare l’evoluzione dell’infiltrazione in pendii insaturi, potenzialmente instabili, si possono utilizzare modelli fisici in scala ridotta. Questi modelli permettono di determinare le caratteristiche idrauliche e meccaniche di uno specifico terreno, analizzando i processi di infiltrazione e tenendo sotto osservazione le grandezze fisiche responsabili dell’innesco franoso. Esistono diverse configurazioni che differiscono in base alle dimensioni e alla strumentazione installata. Quelli maggiormente usati, permettono una modellazione di pendio indefinito con l’installazione di diverse apparecchiature in grado di misurare ogni grandezza necessaria alla comprensione del fenomeno. L’utilizzo di questi modelli consente di analizzare il comportamento di depositi di dimensioni maggiori rispetto ai provini utilizzati per le prove di laboratorio, in modo da limitare gli effetti di contorno ed avere condizioni prossime a quelle presenti in sito. Altro vantaggio di questi modelli è la possibilità di tenere conto del contributo al processo di moto fornito dalla porosità strutturale (e in qualche caso anche dalla macroporosità), che ha una lunghezza caratteristica spesso ben maggiore rispetto alle dimensioni del provino che si usa per le classiche prove di laboratorio. Lo scopo di questo lavoro è comprendere i meccanismi che controllano i processi idraulici in terreni parzialmente saturi, potenzialmente instabili. A tal fine, è stato completato un canale artificiale (la cui componente principale è stata realizzata nell’ambito del Programma Operativo Nazionale - Ricerca e Competitività 2007-2013, nel Progetto SILA “Sistema Integrato di Laboratori”) in grado di misurare le principali grandezze che controllano sia il fenomeno di collasso indotto dall’infiltrazione, sia l’evoluzione post-rottura della frana. Si tratta di un modello fisico ben strumentato che consente di approfondire le conoscenze sulla dinamica evolutiva dell’innesco franoso, consentendo così di ampliare le conoscenze del fenomeno e di valutare nel contempo le procedure più adeguate di mitigazione del rischio. A differenza di altri modelli fisici di pendio, il canale è di dimensioni notevoli ed è possibile quindi analizzare volumi di terreno maggiori e riprodurre più fedelmente il fenomeno naturale, limitando al massimo gli effetti al contorno. Inoltre, la possibilità di investigare spessori più prossimi a quelli reali, permette di studiare il comportamento di coltri di assegnate caratteristiche e gradi di addensamento con stati tensionali più vicini a quelli reali, giungendo così ad una interpretazione dei fenomeni di rottura più veritiera. È stata avviata una specifica attività sperimentale adoperando del terreno piroclastico campano dall’area di Sarno (SA). Questa zona, insieme ad altri comuni delle provincie di Salerno e Avellino, il 5 - 6 Maggio 1998, sono stati colpiti da numerose colate rapide di fango che hanno costretto l’intera regione Campania ad una situazione di emergenza con impatti drammatici sulla popolazione e sull’economia. La zona è caratterizzata da terreni di natura piroclastica, prodotti delle diverse fasi eruttive del complesso vulcanico Somma-Vesuvio, dei campi Flegrei e di altri vulcani presenti nella Regione Campania non più attivi. La stratigrafia del luogo è costituita da un’alternanza di depositi incoerenti, granulometricamente variabili, dalle sabbie, sabbie limose e limi (ceneri), alle ghiaie e sabbie con ghiaia (pomici). Di questi terreni, è stata effettuata una caratterizzazione con delle prove di laboratorio geotecniche e idrauliche. In seguito, sono state eseguite quattro prove con il modello fisico con lo scopo di analizzare e comprendere la predisposizione all’instabilità di questi terreni. In particolare, sono state eseguite una prova con un deposito omogeneo di cenere vulcanica, una prova con un deposito stratificato costituito da uno strato di cenere sovrapposto ad uno di pomici e due prove eseguite su dei pendii formati da tre strati (due di ceneri con in mezzo uno strato di pomici). Ricostruendo le diverse stratigrafie che è possibile riscontrare in sito, sono stati investigati e analizzati i processi di infiltrazione e circolazione delle acque sotterranee, con particolare attenzione al ruolo che hanno assunto gli strati maggiormente grossolani di pomici. Dalle prove è emersa la rilevanza del ruolo ricoperto dagli strati di pomici in termini di stabilità del versante. Le pomici infatti, a seconda delle condizioni di umidità iniziale e dell’intensità della forzante pluviometrica, possono manifestare differenti risposte e comportamenti che influenzano la stabilità del deposito: favorire il deflusso sub-superficiale, impendendo l’annullamento delle suzioni o favorire la formazione di sovrappressioni neutre influenzando la stabilità del versante.Item Analisi della socialità multi-livello nelle reti opportunistiche per la propagazione dei messaggi(2019-06-08) Caputo, Antonio; Crupi, Felice; Marano, Salvatore ,; De Rango, FlorianoItem Analisi di eventi pluviometrici ad elevata intensità al sud Italia(2019-04-15) Greco, Aldo; Furgiuele, Franco; De Luca, Davide LucianoLo studio rivolge l’attenzione alla problematica del rischio idrogeologico, ed in particolare alla componente relativa alle precipitazioni estreme. Nelle regioni del Mediterraneo, le caratteristiche climatiche ed orografiche risultano drammaticamente favorevoli allo sviluppo di simili fenomeni, che molto spesso provocano allagamenti, esondazioni, frane con conseguenti danni alle infrastrutture e perdite di vite umane, incidendo anche in modo negativo sulle opportunità di sviluppo socio-economico dei territori coinvolti. Il presente lavoro intende rispondere alla necessità di fornire una descrizione sempre più accurata della variabilità spaziale e temporale delle piogge, concentrando l’attenzione su eventi pluviometrici molto intensi che si sono verificati in Calabria (Sud Italia). In particolare, per la suddetta area territoriale, è stato sviluppato ed applicato un approccio metodologico, basato su: - selezione e caratterizzazione spazio-temporale degli eventi pluviometrici; - studio specifico dei massimi di precipitazione, sia in termini puntuali che areali; - suddivisione degli eventi in differenti strutture meteoriche; - analisi statistica dell’intensità sub-oraria di pioggia, sia in termini di distribuzioni marginali che condizionate; - studio dell’evoluzione temporale degli eventi, e conseguentemente delle caratteristiche geometriche che li caratterizzano, e analisi statistica dei valori finali assunti dalle stesse; - definizione di forzanti pluviometriche di progetto, sulla base dei risultati ottenuti nei passaggi precedenti. Tale metodologia ha prodotto diversi risultati. In primo luogo, partendo dalla classica ripartizione, relativamente alle strutture meteoriche che generano eventi estremi nel Mediterraneo in eventi frontali, celle temporalesche isolate e “medicanes” (De Luca C. et al., 2010), il pattern meteorologico dei cicloni frontali è stato suddiviso, a causa dell’eterogeneità dello stesso, in due nuovi raggruppamenti, ovvero cicloni ordinari e straordinari (in quest’ultimo vengono inclusi anche i gli eventi con ciclogenesi mediterranea e caratteristiche tropicali). L’intensità sub-oraria di pioggia nei cicloni straordinari presenta valori elevati lungo la fascia ionica centrale e meridionale (in particolare nell’area di allertamento Cala8), invece nei cicloni ordinari non si registra una marcata differenza tra i versanti ionico e tirrenico. In entrambe le tipologie d’evento, le aree concernenti l’altopiano della Sila, Pollino ed alto Ionio sono caratterizzate dalle più basse intensità. Lo studio delle strutture temporali degli eventi, condotto attraverso gli Standard Rainfall Profiles (Huff, 1967-1990), classificati tramite il Binary Shape Code (Terranova & Iaquinta 2011), ha portato all’individuazione delle configurazioni temporali maggiormente critiche, nonché all’analisi dell’evoluzione temporale di importanti caratteristiche come l’area e la massima cumulata degli eventi. L’analisi statistica spaziale di alcune variabili geometriche degli eventi ha dimostrato che le celle temporalesche isolate conservano le medesime caratteristiche indipendentemente dalla stagionalità e dall’ubicazione. I cicloni straordinari, invece, presentano valori elevati in termini di estensione, durate e massime cumulate nella stagione autunnale. I suddetti risultati, elaborati su di un ampio dominio di calcolo, hanno fornito gli strumenti per poter definire una forzante pluviometrica che abbia una certa probabilità di interessare una determinata area. In particolare tale analisi è terminata con la costruzione di ietogrammi relativi ad una particolare tipologia di precipitazione che segue una specifica evoluzione nel tempo (al contrario gli ietogrammi ricavati dall’Idrologia classica utilizzano dati di pioggia eterogenei, cioè appartenenti a fenomeni meteorologici diversi). Tale forzante costituisce un elemento imprescindibile alla formazione di uno scenario d’evento. Pertanto, tale tematica può essere inquadrata nel contesto relativo alle attività di allertamento, nonché di pianificazione e gestione delle emergenze ad esso connesse.Item Analisi statica non lineare nella verifica sismica di strutture a telaio in c.a.(2014-05-26) Lanari, Emira; Aristodemo, Maurizio; Vulcano, Alfonso; Casciaro, RaffaeleItem Analysis and development of physical and MAC Layer protocols in mobile ad Hoc networks involving directional antenna communications(2019-06-20) Inzillo, Vincenzo; Crupi, Felice; De Rango, FlorianoMost recent Studies and Researches in IT (Information Technology) are bringing to an increasing development of Pervasive Communication Environments Systems such as MANET and Sensor Networks that assumed great importance, since 802.1X development IEEE Standards, due to their features based on nodes mobility and power consumption that lead to the rise of several protocols which implements different designs about routing algorithms and QoS (Quality of Service) specifications. Conventionally, these kinds of network environments are equipped in their physical layer with Isotropic and Omnidirectional Antennas Systems, that lead to a radiation pattern with a constant gain in all TX/RX directions so it results in a non-directive behavior of nodes. In this context there are lots drawbacks that heavily affect and reduce protocols efficiency and SNR (Signal to Noise Ratio) such as: communication reliability, latency, scalability, power and energy consumption. For example, using an isotropic antenna in nodes, without position knowing mechanism, bring to a notable waste of consumption energy due to the non-directive behavior because the same power is transmitted/received in all directions. To overlapping this drawback are developed in last years the so called Smart Antenna Systems that usually consists of several directive radiation elements implementing adaptive algorithms for the estimation of DOA (Direction of Arrival) and SOI (Signal Of interest); for this purpose are employed beamforming techniques that are largely used in Radar Communication Systems and Phased Array Systems. The resulted radiation pattern generates a beam that should be electronically controlled, and the main beam should be pointed towards the direction of interest in communication transmission/reception. The beam is generated according an adaptive algorithm (i.e. Least Mean Square) that models the weight vector as Smart Antenna input System. Beamforming techniques take lots advantages in medium access control, effectively, employing of SDMA (Spatial Division Multiple Access) allows a great efficiency protocol growth. MANET performance can be enhanced if more efficient antenna systems such as Massive MIMO (Multiple Input Multiple Output) systems are employed; indeed, massive MIMO underlie the development of 5G Mobile Wireless Network environments. However, despite of their capability to improve network performance they introduce different kinds of issues especially in terms of energy consumption that should be addressed. The main purpose of this thesis is to limit most of the mentioned issues related to directional communications in MANET in order to improve the current state of art referring both to protocols and network performance. From a protocol point of view, important to highlight that the most of the overall contribution of the present work aims to address energy efficiency, deafness problem and finally, mobility issues occurring at physical and MAC (Medium Access Layer) layer. The reminder of the thesis is the following: Chapter 1: introduces main concepts about network communications using directional and omnidirectional antennas in MANET and their common related issues. Chapter 2: gives basics and fundamentals theoretical notions about Smart Antenna Systems (SAS) and Massive MIMO with particular emphasis to beamforming algorithms. Chapter 3: essentially, this chapter is divided into two parts. The first one, illustrates basic features of the main instrument used for experimental analysis that is the Omnet++ network simulator. The second part exposes the most significant works produced to extend the default Omnet++ framework for enabling simulation scenarios supporting SAS and massivo MIMO systems. Chapter 4: provides a detailed discussion about deafness problem in MANET directional communications and subsequently illustrates the most significant proposals in this field with a special focus on designed Round-Robin based approaches. Chapter 5: describes main issues related to mobility and energy consumption of nodes in directional MANET with particular attention to handoff problem. Nevertheless, it illustrates novel proposed strategies aiming to mitigate energy consumption in very high gain beamforming communications employing SAS and massive MIMO systems. All of the above chapters are organized in a similar way. More specifically, each chapter consists of three main parts: Background: gives a briefly theoretical explanation of the most important concepts mentioned in the chapter. State of art: illustrates the most significant works related to topics encountered in the chapter. Personal contribution: highlights the main contribution achieved (by author of this thesis) allowing to improve the current state of art related to a particular topic.Item Anomalies in cyber security: detection, prevention and simulation approaches(2018-07-03) Argento, Luciano; Crupi, Felice; Furfaro, Angelo; Angiulli, FabrizioWith themassive adoption of the Internet both our private andworking life has drastically changed. The Internet has introduced new ways to communicate and complete every day tasks. Organisations of any kind have taken their activities online to achieve many advantages, e.g. commercial organisations can reach more customers with proper marketing. However, the Internet has also brought various drawbacks and one of these concerns cyber security issues. Whenever an entity (e.g. a person or company) connects to the Internet it immediately becomes a potential target of cyber threats, i.e. malicious activities that take place in cyberspace. Examples of cyber threats are theft of intellectual property and denial of service attacks. Many efforts have been spent to make the Internet perhaps the most revolutionary communication tool ever created, but unfortunately little has been done to design it in a secure fashion. Since the massive adoption of the Internet we have witnessed a huge number of threats, perpetrated by many different actors such as criminal organisations, disgruntled workers and even people with little expertise, thanks to the existence of attack toolkits. On top of that, cyber threats are constantly going through a steady evolution process and, as a consequence, they are getting more and more sophisticated. Nowadays, the cyber security landscape is in a critical condition. It is of utmost importance to keep up with the evolution of cyber threats in order to improve the state of cyber security. We need to adapt existing security solutions to the ever-changing security landscape and devise new ones when needed. The research activities presented in this thesis find their place in this complex scenario. We investigated significant cyber security problems, related to data analysis and anomaly detection, in different areas of research, which are: Hybrid Anomaly Detection Systems; Intrusion Detection Systems; Access Control Systems and Internet of Things. Anomaly detection approaches are very relevant in the field of cyber security. Fraud and intrusion detection arewell-known research areaswhere such approaches are very important. A lot of techniques have been devised, which can be categorised in anomaly and signature based detection techniques. Researchers have also spent much effort on a third category of detection techniques, i.e. hybrid anomaly detection, which combine the two former approaches in order to obtain better detection performances. Towards this direction, we designed a generic framework, called HALF, whose goal is to accommodate multiple mining algorithms of a specific domain and provide a flexible and more effective detection capability. HALF can be easily employed in different application domains such as intrusion detection and steganalysis due to its generality and the support provided for the data analysis process. We analysed two case studies in order to show how HALF can be exploited in practice to implement a Network Intrusion Detection System and a Steganalysis tool. The concept of anomaly is a core element of the research activity conducted in the context of intrusion detection, where an intrusion can be seen as an anomalous activity that might represent a threat to a network or system. Intrusion detection systems constitute a very important class of security tools which have become an invaluable defence wall against cyber threats. In this thesis we present two research results that stemfromissues related to IDSs that resort to the n-grams technique. The starting point of our first contribution is the threat posed by content-based attacks. Their goal is to deliver malicious content to a service in order to exploit its vulnerabilities. This type of attacks has been causing serious damages to both people and organisations over these years. Some of these attacks may exploit web application vulnerabilities to achieve goals such as data theft and privilege escalation, which may lead to enormous financial loss for the victim. IDSs that exploit the n-gram technique have proven to be very effective against this category of cyber threats. However, n-grams may not be sufficient to build reliable models that describe normal and/or malicious traffic. In addition, the presence of an adversarial attacker is not properly addressed by the existing solutions. We devised a novel anomaly-based intrusion detection technique, called PCkAD to detect content-based attacks threatening application level protocols. PCkAD models legitimate traffic on the basis of the spatial distribution of the n−grams occurring in the relevant content of normal traffic and has been designed to be resistant to blending evasion techniques. Indeed, we demonstrate that evading is an intrinsically difficult problem. The experiments conducted to evaluate PCkAD show that it achieves state of the art performances in real attack scenarios and that it performs well against blending attacks. The second contribution concerning intrusion detection investigates issues that may be brought by the employment of the n-gram technique. Many approaches using n-grams have been proposed in literature which typically exploit high order n-grams to achieve good performance. However, because the n-gram domain grows exponentially with respect to the n-gram size, significant issues may arise, from the generation of huge models to overfitting. We present an approach aimed to reduce the size of n-grambased models, which is able build models that contain only a fraction of the original n-grams with little impact on the detection accuracy. The reported experiments, conducted on a real word dataset, show promising results. The research concerning access control systems focused on anomalies that represent attempts of exceeding or misusing access controls to negatively affect the confidentiality, integrity or availability of a target information system. Access control systems are nowadays the first line of defence of modern computing systems. However, their intrinsic static nature hinders autonomously refinement of access rules and adaptation to emerging needs. Advanced attributed-based systems still rely on mainly manual administration approaches and are not effective on preventing insider threat exploiting granted access rights. We introduce a machine learning approach to refine attribute-based access control policies based on behavioural patterns of users’ access to resources. The designed system tailors a learning algorithm upon the decision tree solutions. We analysed a case study and conducted an experiment to show the effectiveness of the system. IoT is the last topic of interest in the present thesis. IoT is showing the potential for impacting several domains, ranging from personal to enterprise environments. IoT applications are designed to improve most aspects of both business and citizens’ lives, however such emerging technology has become an attractive target for cybercriminals. A worrying security problem concerns the presence of many smart devices that have security holes. Researchers are investing their efforts in the evaluation of security properties. Following this direction, we show that it is possible to effectively assess cyber security scenarios involving IoT settings by combining novel virtual environments, agent-based simulation and real devices and then achieving a means that helps prevent anomalous actions fromtaking advantage of security holes for malicious purposes. We demonstrate the effectiveness of the approach through a case study regarding a typical smart home setting.Item Applicazione della programmazione stocastica nella gestione delle sale operatorie(2011) Pirelli, Domenico; Conforti, Domenico; Bruni, Maria Elena; Grandinetti, LucioItem Approximate Query Answering over Incomplete and Inconsistent Databases(Università della Calabria, 2021-09-14) Fiorentino, Nicola; Molinaro, Cristian; Trubitsyna, IrinaItem Approximate query answering over Inconsistent Databases(2014-03-03) Molinaro,Cristian; Greco,Sergio; Talia,DomenicoItem Assimilation of satellite soil moisture in hydrological modeling: assessment of observations preprocessing and error characterization methods(2019-04-15) De Santis, Domenico; Furgiuele, Franco; Biondi, DanielaIl contenuto d’acqua nel suolo svolge un ruolo fondamentale all’interno di numerosi processi che avvengono sulla superficie terrestre, ed in particolare di quelli che fanno parte del ciclo idrologico. In tal senso il contenuto d’acqua nel suolo rappresenta una variabile chiave anche nell’ambito della generazione dei deflussi nei bacini idrografici per effetto degli eventi pluviometrici, e la corretta caratterizzazione della sua evoluzione temporale risulta estremamente funzionale ad una efficace previsione degli eventi di piena. Dato il ruolo di estremo interesse occupato nell’evoluzione dei processi non solo idrologici ma anche ad esempio climatici e agricoli, crescente attenzione è stata dedicata alla modellazione del contenuto d’acqua nel suolo ai diversi fini applicativi, nonché al monitoraggio strumentale della grandezza, che avviene sia in situ, a scala sostanzialmente puntuale con sensori caratterizzati da elevata accuratezza e risoluzione temporale, che da remoto. Con riferimento al secondo caso, il monitoraggio da satellite ha avuto notevoli sviluppi negli ultimi anni, arrivando a fornire informazioni su scala globale che si distinguono per risoluzioni spaziali e temporali sempre più spinte, anche se riferite ai soli primi centimetri di suolo. Queste tre opzioni per la descrizione dell’andamento del contenuto d’acqua nel suolo devono essere viste come complementari, in virtù delle loro diverse peculiarità, nonché delle limitazioni e degli errori che le caratterizzano. In tal senso, un’interessante opportunità è costituita dalle tecniche di data assimilation sviluppate per integrare in maniera ottimale, sulla base delle relative incertezze, le osservazioni con le previsioni da modello. Una potenziale applicazione è l’assimilazione delle osservazioni da satellite all’interno dei modelli afflussi-deflussi, al fine di migliorare le stime delle variabili di stato che rappresentano il contenuto d’acqua nel suolo, e da queste la simulazione delle portate fluviali. Numerosi studi sono stati svolti sul tema, con risultati spesso contrastanti, evidenziando un grande potenziale per questo genere di applicazione, ma anche la necessità di approfondire le numerose scelte procedurali tipicamente richieste in un lavoro di data assimilation. Le tecniche di data assimilation comunemente usate forniscono soluzioni ottime per problemi con precise ipotesi di base (ad esempio l’assenza di errori sistematici), attraverso il confronto fra osservazioni e stime da modello (che devono essere eventualmente ‘mappate’ qualora rappresentino grandezze diverse, ad esempio contenuto d’acqua riferito a diversi volumi/spessori di suolo) basato sulle relative varianze d’errore. Numerose soluzioni sono state proposte per affrontare i vari steps richiesti dal data assimilation, che si sono dimostrati avere un ruolo decisivo sui risultati finali. Le soluzioni proposte riguardano tanto i modelli, ad esempio attraverso una migliorata rappresentazione delle incertezze di stima o con modifiche alla struttura che siano funzionali all’assimilazione delle osservazioni satellitari, che le osservazioni. Le operazioni condotte sulle osservazioni ai fini della successiva integrazione in modelli previsionali hanno costituito il tema principale di questo lavoro. Generalmente, nelle fasi che precedono l’assimilazione delle misure da satellite di contenuto d’acqua nel suolo sono analizzate le seguenti questioni: la verifica della qualità delle osservazioni satellitari, la differenza fra gli spessori di terreno indagato dal sensore e riprodotto nel modello, la correzione delle differenze sistematiche fra i dataset di osservazioni e simulazioni da modello, la caratterizzazione delle varianze degli errori random. Procedure di quality check sono messe a punto per scartare osservazioni ritenute troppo poco attendibili; in tal senso sono fondamentali gli indicatori inclusi nei dataset satellitari, che, fornendo ad esempio informazioni sulle condizioni ambientali durante la misura o feedback dall’algoritmo di stima, consentono una caratterizzazione della qualità del dato. Il setup delle procedure di quality check è funzione ovviamente dell’applicazione finale, tenendo conto degli effetti derivanti tanto dall’utilizzo di un dato poco accurato che dalla sua eliminazione. Un altro aspetto di cui tenere conto riguarda la profondità di suolo in cui è rilevato il dato di contenuto d’acqua da satellite, limitata a pochi centimetri, laddove i volumi di controllo dei modelli sono generalmente maggiori. A tal fine, la struttura di alcuni modelli è stata modificata inserendo uno strato superficiale di spessore ridotto. Una soluzione di uso comune (talvolta anche nel caso di modelli multilayer) è la propagazione dell’informazione superficiale allo spessore di interesse attraverso un filtro esponenziale, che restituisce un indice indicato come SWI (soil water index). La semplicità di questo approccio, basato su un unico parametro, ne ha determinato un’ampia diffusione in vari ambiti applicativi, e dataset globali di contenuto d’acqua da satellite ottenuti con questo metodo sono attualmente in distribuzione. L’eventuale presenza di differenze sistematiche fra il dato da satellite in corso di processamento e la stima da modello deve essere poi corretta, andando ad inficiare in caso contrario le prestazioni del generico sistema di data assimilation, finalizzato alla sola riduzione degli errori random. Diversi approcci sono al riguardo disponibili; quelli di uso predominante risultano indirizzati al matching delle caratteristiche complessive dei due dataset (ad esempio in termini di varianza). Tuttavia, quando la correzione risulta preliminare al data assimilation, pare più appropriato l’uso di tecniche che cerchino di tenere conto della struttura di errore dei due dataset, in modo da effettuare il matching della sola parte informativa (anche nota come segnale), separando quindi i contributi legati all’errore. Sull’osservazione così preprocessata si effettua, quindi, una stima della varianza degli errori random, che contribuirà a determinare il suo peso quando sarà combinata con la previsione ‘a priori’ del modello. Una inadeguata caratterizzazione in questa fase impedisce di giungere al valore di ‘analisi’ ottimale, caratterizzato cioè da varianza di errore minima, e può portare anche al peggioramento delle performance iniziali del modello. Anche per questo step sono stati suggeriti diversi approcci, fra cui quello di uso consolidato è denominato Triple Collocation (TC), e si basa sull’utilizzo di tre dataset indipendenti per i quali si assume la stazionarietà della varianza di errore. Un metodo alternativo, in grado di fornire una stima tempovariabile della grandezza qui indagata, è la propagazione analitica degli errori (EP, error propagation) associati agli input e ai parametri attraverso le equazioni del modello da cui deriva l’osservazione (la misura da satellite del contenuto d’acqua non è in alcun caso diretta ma prevede il processamento delle grandezze effettivamente misurate dai sensori di bordo). Questo secondo approccio tuttavia non garantisce stime in magnitudo plausibili come la TC, non tenendo conto del contributo degli errori dovuti alla struttura del modello. L’analisi delle operazioni di preprocessing e caratterizzazione degli errori delle osservazioni da satellite di contenuto d’acqua nel suolo è stata principalmente svolta attraverso lo sviluppo di due applicazioni. Nella prima applicazione sono trattati i temi del quality check delle osservazioni satellitari e, soprattutto, del trasferimento dell’osservazione superficiale di contenuto d’acqua da satellite a spessori di suolo di maggiore interesse applicativo, usando l’approccio del filtro esponenziale di largo uso in letteratura, in un contesto di verifica della capacità della stima derivata da dati satellitari di riprodurre l’andamento osservato in situ del contenuto d’acqua su strati di spessore maggiore. L’aspetto innovativo introdotto nel lavoro di tesi è costituito dalla messa a punto di uno schema di propagazione degli errori originale, finalizzato alla caratterizzazione per via analitica dell’andamento temporale delle varianze degli errori random del SWI. Le equazioni di propagazione degli errori sono state ricavate e poste in una pratica forma ricorsiva, consentendo di tenere in conto fattori che notoriamente introducono inaccuratezze negli output del filtro esponenziale. Con l’approccio proposto diventa, infatti, possibile propagare le varianze d’errore tempovariabili disponibili in alcuni dataset satellitari di contenuto d’acqua superficiale, nonché valutare gli effetti sul SWI in termini di varianza di errore legati alla disponibilità temporale di misure in input e all’incertezza nel parametro del filtro. Una valutazione preliminare della procedura di propagazione degli errori proposta è stata effettuata verificando l’effettiva corrispondenza fra varianza d’errore del SWI stimata ed effettivi scostamenti rispetto a misure in situ di riferimento; contestualmente sono state anche testate diverse configurazioni della procedura di quality check usando gli indicatori disponibili per il prodotto satellitare usato. Nella seconda applicazione sono trattati i temi della correzione delle differenze sistematiche fra i dataset di osservazioni e simulazioni da modello, e della caratterizzazione delle varianze degli errori random nelle osservazioni, ai fini della valutazione degli effetti dell’assimilazione di misure satellitari di contenuto d’acqua del suolo sulle performance di modelli afflussi-deflussi. Lo studio, svolto durante un soggiorno di ricerca presso il gruppo di Idrologia del CNR-IRPI di Perugia ed in particolare con i ricercatori Luca Brocca e Christian Massari, presenta diversi aspetti innovativi, il primo dei quali è costituito dall’elevato numero (diverse centinaia) di bacini di studio, distribuiti nel continente europeo e complessivamente rappresentativi di diverse condizioni climatiche e fisiografiche, laddove i lavori precedenti su queste tematiche coinvolgevano generalmente aree geografiche ridotte e/o un numero contenuto di bacini. Il dataset di partenza, inclusivo di valori di portata, precipitazione, temperatura e osservazioni satellitari di contenuto d’acqua nel suolo per quasi 900 bacini, è stato costruito dal gruppo di Idrologia del CNR-IRPI. Un secondo aspetto d’interesse riguarda l’aver considerato, oltre ad osservazioni da sensori di tipo sia attivo che passivo provenienti da diverse missioni spaziali, diverse scelte procedurali per le fasi di rimozione delle differenze sistematiche e di caratterizzazione degli errori delle osservazioni. Nel complesso, sebbene le metodologie utilizzate costituiscano delle pratiche riconosciute e usate in questi ambiti, l’utilizzo di procedure comuni per un così largo numero di bacini rappresenta un’applicazione raramente riscontrata in letteratura che ha come principale pregio quello di consentire di superare le soggettività introdotte con la scelta di soluzioni sito-specifiche sovente fatte in precedenti studi su scala più ridotta e talvolta orientate all’ottimizzazione dei risultati finali della procedura di data assimilation. Un terzo tema analizzato, oggetto di attenzione recente nella letteratura del settore, è legato alla presenza di bias di tipo ‘moltiplicativo’ nelle serie temporali di contenuto d’acqua nel suolo da modello e derivate da satellite, ancora presenti in seguito alla fase di rimozione delle differenze sistematiche, e al suo effetto sugli output di portata ottenuti assimilando l’osservazione. Con riferimento all’obiettivo generale del miglioramento della previsione idrologica, in questa applicazione i benefici dell’assimilazione dei dati da satellite sono apparsi variabili, confermando in qualche modo i risultati contrastanti presenti in letteratura. Quale contributo a questo dibattito, lo studio fornisce indicazioni sulla bontà dell’assimilazione di diversi prodotti satellitari in diverse aree geografiche e sotto diverse condizioni preliminari (ad esempio differenti regimi climatici ma anche differenti accuratezze degli input pluviometrici disponibili), e sugli effetti dei diversi approcci metodologici usati per le operazioni preliminari all’assimilazione nel modello. La tesi è strutturata come segue. Il capitolo 1 è costituito da una breve introduzione alle tematiche del lavoro, mentre il capitolo 2 ha per oggetto il contenuto d’acqua del suolo (definizioni, fattori e processi che ne determinano le dinamiche spaziali e temporali, cenni al ruolo nelle varie applicazioni incluse quelle idrologiche) e le caratteristiche dei vari approcci con cui ne viene descritta l’evoluzione (modellazione, misure in situ e da remoto). Il capitolo 3 è incentrato sul data assimilation, fornendo una panoramica dei diversi approcci, una sintesi di risultati ed evidenze relativi all’assimilazione delle misure di contenuto d’acqua nel suolo, e la formulazione matematica dei metodi più comunemente utilizzati per tale scopo. Nel capitolo 4 è fornito un inquadramento teorico su problematiche e metodologie relative alle operazioni di preprocessing e di caratterizzazione degli errori delle osservazioni. Nei capitoli 5 e 6 sono mostrate nel dettaglio le due applicazioni sopra descritte che costituiscono l’aspetto peculiare di questa tesi.Item Autonomic computing-based wireless sensor networks(2013-11-27) Galzarano, Stefano; Fortino, Giancarlo; Liotta, Antonio; Greco, SergioWireless Sensor Networks (WSNs) have grown in popularity in the last years by proving to be a bene cial technology for a wide range of application do- mains, including but not limited to health-care, environment and infrastruc- ture monitoring, smart home automation, industrial control, intelligent agri- culture, and emergency management. However, developing applications on such systems requires many e orts due to the lack of proper software abstractions and the di culties in man- aging resource-constrained embedded environments. Moreover, these appli- cations have to meet a combination of con icting requirements. Achieving accuracy, e ciency, correctness, fault-tolerance, adaptability and reliability on WSN is a major issue because these features have to be provided beyond the design/implementation phase, notably at execution time. This thesis explores the viability and convenience of Autonomic Comput- ing in the context of WSNs by providing a novel paradigm to support the development of autonomic WSN applications as well as speci c self-adaptive protocols at networking levels. In particular, this thesis provides three main contributions. The rst is the design and realization of a novel framework for the development of e cient distributed signal processing applications on heterogeneous WSNs, called SPINE2. It provides a programming abstraction based on the task-oriented paradigm for abstracting away low-level details and has a platform-independent architecture enabling code reusability and portability, application interoperability and platform heterogeneity. The sec- ond contribution is the development of SPINE-* which is an enhancement of SPINE2 by means of an autonomic plane, a way for separating out the provision of self-* techniques from the WSN application logic. Such a separa- tion of concerns leads to an ease of deployment and run-time management of new applications. We nd that this enhancement brings not only considerable functional improvements but also measurable performance bene ts. Third, since we advocate that the agent-oriented paradigm is a well-suited approach in the context of autonomic computing, we propose MAPS, an agent-based programming framework for WSNs. Speci cally designed for supporting Java- iii based sensor platforms, MAPS allows the development of general-purpose mobile multi-agent applications by adopting a multi-plane state machine for- malism for de ning agents' behavior. Finally, the fourth contribution regards the design, analysis, and simulations of a self-adaptive AODV routing protocol enhancement, CG-AODV, and a novel contention-based MAC protocol, QL- MAC. CG-AODV adopts a \node concentration-driven gossiping" approach for limiting the ooding of control packets, whereas QL-MAC, based on a Q-learning approach, aims to nd an e cient radio wake-up/sleep scheduling strategy to reduce energy consumption on the basis of the actual network load of the neighborhood. Simulation results show that CG-AODV outper- forms AODV, whereas QL-MAC provides better performance over standard MAC protocols.Item Background subtraction for moving object detection(2017-02-13) Guachi Guachi, Lorena De Los Angeles; Pantano, Pietro; Cocorullo, Giuseppe; Perri, Stefania; Corsonello, PasqualeBackground Subtraction è una tecnica che si occupa di separare dei cornice di ingresso in significativi oggetti in movimento (foreground) con i rispettivi confini dei (background) oggetti statici che rimangono quiescente per un lungo periodo di tempo per ulteriori analisi. Questo lavora principalmente con telecamere fisse focalizzati sul migliorare la qualità della raccolta di dati al fine di "comprendere le immagini". Questa tecnica per il rilevamento di oggetti in movimento ha diffuse applicazioni nel sistema di visione artificiale con le moderne tecnologie ad alta velocità, insieme con la progressivamente crescente capacità del computer, che fornisce un’ampia gamma di soluzioni reali ed efficienti per la raccolta di informazioni attraverso l’immagine/video come sequenza di ingresso. Un accurato algoritmo per Background Subtraction deve gestire sfide come jitter fotocamera, automatiche regolazioni della fotocamera, i cambiamenti di illuminazione, il bootstrapping, camuffamento, apertura foreground, gli oggetti che vengono a fermarsi e muoversi di nuovo, background dinamici, ombre, scena con diversi oggetti e notte rumorosa. Questa tesi è focalizzata sullo studio della tecnica di Background Subtraction attraverso una panoramica delle sue applicazioni, le sfide, passi e diversi algoritmi che sono stati trovati in letteratura, al fine di proporre approcci efficaci per Background Subtraction per alto performance su applicazioni in tempo reale. Gli approcci proposti hanno consentito indagini di varie rappresentazioni utilizzati per modellare il background e le tecniche considerate per la regolazione dei cambiamenti ambientali, questo ha fornito capacità di vari combinazioni di colori invarianti per segmentare il foreground e anche per eseguire una valutazione comparativa delle versioni ottimizzate del Gaussian Mixture Model e il multimodale Background Subtraction che sono approcci con alte prestazioni per la segmentazione in tempo reale. Deep Learning è stato anche studiato attraverso l’uso di architettura auto-encoder per Background SubtractionItem The bid generation problem in combinatorial auctions for transportation service procurement(2011) Oprea, Simona; Grandinetti, LucioNell'ambito del presente lavoro di tesi e stato a rontato un problema di rilevante interesse applicativo relativo alla valutazione e generazione di o erte (Bid Generation Problem) nell'ambito di aste combinatorie per sistemi di trasporto di tipo full-truckload (a pieno carico). L'organizzatore (auctioneer) di un'asta combinatoria, vuole acquistare tramite asta dei servizi (contratti) di trasporto, cio e rotte (lane) su cui trasportare dei carichi (load). I vari trasportatori (carrier) devono quindi fare delle o erte (bid) sulle rotte di trasporto che vogliono vendere all'asta, non in maniera individuale (come nelle aste singole), ma raggrup- pate in pacchetti (bundle) di rotte. Il Bid Generation Problem (BGP) in un'asta combinatoria e il prob- lema a rontato dal carrier per poter costruire tali o erte (bundle di rotte) da sottomettere all'asta sotto forma di bid (cio e l'insieme di load con il relativo prezzo proposto). Le aste combinatorie sono di solito scelte per procurare i servizi di trasporto per via delle sinergie che usualmente esistono tra le varie rotte messe all'asta e quelle componenti la rete di trasporto attuale di un carrier. La necessit a di valutare un numero esponenziale di bundle (pari al numero di tutti i sottoinsiemi che si possano formare con le rotte messe all'asta) conferisce al problema decisionale una natura NP- completa, come evidenziato ad esempio in [33]. La scarsit a dei riferimenti bibliogra ci, se pur motivata dall'oggettiva di colt a di soluzione sopra descritta, non ha giusti cazioni per o dal punto di vista applicativo. In tale ambito si colloca la presente tesi di Dottorato avente come obi- ettivo lo sviluppo di un advisor che assista i carrier nelle loro decisioni di bidding, integrandosi nella piani cazione dinamica delle operazioni di trasporto. In particolare, nel lavoro di tesi e stato proposto un modello di ottimizzazione misto intero per il BGP in grado di determinare non solo il bundle di load sottomesso all'asta e il relativo prezzo, ma anche il relativo routing della otta del carrier, e etuato nell'orizzonte tempo- rale per servire sia il bundle di rotte sottomesso che la rete di trasporto attuale. I principali contributi innovativi del modello proposto derivano da: 1) l'inclusione nel modello di un vincolo di tipo probabilistico (chance constraint), che mira a guidare la scelta del bundle con maggiore chance di vincita alla ne dell'asta, cio e la cui probabilit a di superare il clearing price (rappresentato tramite una variabile aleatoria) sia superiore ad un certo livello di probabilit a. Rispetto al modello di Savelsbergh et al. ([54]), si considera la probabilit a che il bundle sia vincente nei vincoli invece che nella funzione obiettivo, e la distribuzione normale del clearing price (pi u realistica) invece di quella uniforme. Inoltre, in [54], si trattava di pi u aste singole indipendenti, svolte in parallelo, qui invece abbiamo un'asta combinatoria a busta chiusa, primo prezzo, single-round. 2) il considerare il prezzo del bundle come variabile di decisione, come solo in [54] accadeva , negli altri articoli si considera o qualche formula di calcolo ([42], [52], [53]) oppure noti, ssati uguali alla somma dei prezzi richiesti dall'auctioneer (ask price) per le singole rotte componenti il bundle ([6],[24]). 3) l'inclusione dell'aspetto temporale del problema reale ( nora solo Chang aveva considerato in [6] la rete estesa spazio-tempo per il BGP). 4) il determinare anche il routing dei camion relativo a tutto l'orizzonte temporale ([24] era il primo articolo che, nel modello proposto per il BGP, includeva anche il VRP, ma senza per o considerare la variabile tempo). 5) l'inclusione delle nestre temporali (time-windows) relative alla consegna di ogni carico messo all'asta e dei carichi della rete attuale di trasporto (precedentemente contrattati) dal carrier. 6) lo studio e la quanti cazione delle sinergie tra le rotte messe all'asta e quelle dell'attuale rete di trasporto del carrier (in due modi, e diver- samente di come fatto in [2], [6], [54], [58]) e l'inclusione di tali sinergie nella distribuzione della variabile aleatoria considerata (il clearing price del bundle). Per i motivi sopra descritti, il modello proposto risulta pi u completo e pi u complesso rispetto a tutti i modelli nora esistenti per il BGP nelle aste combinatorie nei trasporti a pieno carico. Il presente lavoro e organizzato in 5 capitoli, esclusa l'introduzione e le conclusioni. Nel seguito viene riportata una breve descrizione del contenuto di ogni capitolo. La tesi inizia con una introduzione al presente lavoro. Nel capitolo 1 vengono introdotte le aste combinatorie, partendo dalla loro de nizione e descrizione(fasi dell'asta), alla loro classi cazione rispetto vari criteri, agli svantaggi e vantaggi rispetto alle aste normali, evidenziati nella letteratura esistente. Nel capitolo 2 sono descritte, partendo dalla letteratura, le aste com- binatorie utilizzate per procurare servizi (contratti) di trasporto nel caso full-truckload e forniti esempi di aste. Inoltre, vengono descritti i prob- lemi presenti in un asta combinatoria: il problema di generazione e val- utazione delle o erte (Bid Generation Problem, BGP) ed il problema di determinazione del vincitore (Winner Determination Problem, WDP), ed evidenziata la loro di colt a di soluzione (problemi NP-hard). Il capitolo 3 e dedicato al BGP, oggetto di studio di questa tesi. Dopo aver presentato lo stato dell'arte relativo al BGP, viene riportato un modello originale proposto per il BGP, evidenziando le novit a di tale modello e le complicazioni rispetto ai modelli esistenti nella letteratura. Vengono illustrate le di colt a di risoluzione di tale modello (dovute al numero esponenziale dei bundle, quindi dei vincoli e delle variabili, ecc...). Con l'obiettivo di superare a priori il problema della dimensione, quindi per diminuire la cardinalit a dell'insieme dei bundle possibili, sono state sviluppate delle procedure di preprocessamento dell'insieme delle rotte messe all'asta, tenendo conto sia dalla posizione dei camion che dalle nestre temporali di consegna dei carichi. Inoltre, sono state studiate e quanti cate le sinergie tra le rotte messe all'asta e quelle dell'attuale rete di trasporto del carrier (in due modi, e diversamente di come fatto in [2], [6], [54], [58]) ed incluse nella distribuzione della variabile aleatoria con- siderata (il clearing price del bundle). Vengono presentati i chance con- straints ed e ettuata una discussione relativamente alla distribuzione ed all'indipendenza delle variabili aleatorie rappresentando i clearing price dei load componenti il bundle. Diverse versioni di tale modello sono state prodotte a partire dalla formulazione iniziale, includendo la sinergia nella funzione obiettivo e/o nei vincoli, considerando nestre temporali di prelievo dei carichi, con- siderando vincoli di copertura delle rotte (come in [51], [53]), riformu- lando il modello tale che la rete spazio-tempo sia esplicita. Nel capitolo 4 viene proposto un approccio risolutivo di tipo euristico in quanto l'elevata dimensione (esponenziale) del problema ha permesso la soluzione esatta soltanto no ad una certa cardinalit a del insieme di rotte messe all'asta. Per dimensioni superiori sono state costruite delle euristiche che permettono una risoluzione sequenziale del problema. Una prima categoria di euristiche, partendo dal bundle di load di cardinalit a massima, cio e uguale all'insieme dei load messi all'asta, val- uta il pro tto decrementale (bene cio marginale) di ogni bundle ottenuto togliendo un load del bundle corrente alla volta, sceglie il load in cor- rispondenza di cui si e ricavato il migliore pro tto decrementale, ag- giorna il bundle corrente (eliminandone il load selezionato) e cos i via. Il procedimento e ripetuto no a quando il bundle corrente non risulta vuoto. Una variante di questa euristica e ottenuta partendo dal bundle di cardinalit a minima (vuoto, per esempio) e valutando il pro tto incre- mentale (all'aggiunta di un load al bundle corrente). La complessit a sar a soltanto dell'ordine di n2 (con n la cardinalit a dell'insieme di load messe all'asta). Una seconda categoria di euristiche considera come insieme dei bun- dle iniziali un certo insieme di bundle scelti secondo vari criteri (ran- dom, quelli con maggiore sinergia e/o compressa in qualche intervallo, di cardinalit a compressa in qualche intervallo, etc...). Risolve il problema per ogni bundle di tale insieme e seleziona tra essi il bundle di massimo valore della funzione obiettivo. Il capitolo 5 e relativo alla fase sperimentale condotta al ne della val- utazione della correttezza (validazione) del modello e delle prestazioni dei metodi risolutivi proposti in termini di e cienza ed e cacia. Come am- bienti di sviluppo (implementazione e soluzione) del modello sono stati usati GAMS, Microsoft Visual C++, ILOG CPLEX ed ILOG CON- CERT. Dal momento che per le aste combinatorie non sono in generale disponibili pubblicamente i dati reali (come spesso viene segnalato in letteratura, per esempio in [2]), si e costruito anche un generatore di problemi test, implementato in C. A causa del numero esponenziale di vincoli e variabili (relativi ai bundle di load messi all'asta), il modello proposto e stato risolto in maniera esatta soltanto no ad una certa di- mensione (20 rotte messe all'asta). Per dimensioni superiori sono state utilizzate le euristiche proposte per una risoluzione sequenziale del prob- lema. Vengono e ettuati dei confronti tra le varie euristiche proposte implementate, fornendo il gap con la soluzione ottima ed i relativi tempi computazionali. I risultati preliminari ottenuti sono molto incoraggianti e mostrano l'e cacia e l'e cienza delle strategie risolutive sviluppate e l'utilit a del modello proposto in termini di strumento in grado di supportare i carrier nelle decisioni integrate di routing della otta e di bidding pro ttevoli. La tesi chiude con la parte relativa alle conclusioni del lavoro ed alla ricerca futura. Il lavoro di tesi rappresenta un valido studio ed una scrupolosa anal- isi delle problematiche riguardanti il BGP in un asta combinatoria nei trasporti di tipo full truckload. Il maggior contributo scienti co e stato quello di aver presentato e de nito un modello matematico per la valu- tazione e la generazione di o erte (integrando anche il routing della otta dei carrier) e delle procedure euristiche in grado di risolverlo su istanze pi u complesse. 9