📅 20 Maggio 2021 🕤 dalle 9.30 alle 13.00
L’evento è rivolto a DevOps Engineer, IT Manager system engineer, IT architect e IT manager, Cloud Engineer, Data Scientists, Data Engineer, Heads of Digital Transformation, ML Engineer e Data Engineer ed a tutte quelle persone interessate ad approfondire la conoscenza sulle pipeline di Machine Learning per progettare, distribuire e gestire flussi di lavoro dei team di data science.
Ecco tutti gli interventi della mattinata
A Tale of Pipes and Pipelines: Automating ML in Tenaris
Da alcuni anni, Tenaris impiega un modello di machine learning per prevedere alcune metriche industriali dei propri prodotti. Il modello richiede un aggiornamento periodico, necessario per seguire l’evoluzione dei prodotti stessi, dei processi produttivi e per tenere conto dei fattori esterni. In questo talk verrà mostrato come l’operazione di riaddestramento, aggiornamento e messa in linea sia stata semplificata con l’uso di una pipeline CI/CD basata su Drone, Kubernetes e MLflow.
Andrea Rota è Senior Data Engineer presso il dipartimento di Data Science di Tenaris e si trova a Dalmine, in Italia. Ingegnere Informatico con più di 10 anni di esperienza, è responsabile dello stack tecnologico del dipartimento di Data Science e promuove l’approccio cloud native all’interno dell’azienda.
Soluzione containerizzata per il Model Predictive Control di un impianto a biomassa per la produzione di energia elettrica
Nel nostro intervento si parlerà delle modalità di messa in produzione tramite pipeline GitLab automatizzata di un algoritmo di controllo predittivo per un impianto a vapore per la produzione di energia elettrica, alimentato primariamente da biomassa (da potere calorifico variabile). Il deploy è stato effettuato all’interno di un cluster Kubernetes on-premises (presso il Cliente) gestito tramite Rancher in prima battuta e tramite Fury successivamente. L’architettura del controllore è costituita da due componenti principali: un container Docker per il modello di controllo e i servizi a supporto necessari e un ulteriore container “di frontend” per servire una dashboard di controllo che permetta, unitamente alla visualizzazione degli input e degli output modellistici, di impostare alcuni parametri manipolabili dell’algoritmo per far fronte ad eventualità inaspettate o ad esigenze aziendali non prevedibili dal modello.
Giovanni Tardini: ingegnere informatico da sempre affascinato dall’intersezione tra il mondo dell’AI e quello dello sviluppo software. In Ammagamma, dopo aver ricoperto il ruolo di Head of Data Architecture and Visualization, attualmente si occupa di innovazione tecnologica con un’attenzione particolare alle metodologie di sviluppo e alla prototipazione di prodotto.
Riccardo Benaglia: ingegnere energetico appassionato di machine learning e deep learning. In Ammagamma, fin dal principio ha ricoperto il ruolo di data scientist, lavorando su progetti e ambiti differenti e sviluppando grande interesse in ambito di ottimizzazione e, in particolare, nell’ambito dell’ottimizzazione predittiva.
MLOps discovery
In questo talk introduciamo il concetto di MLOps, perché è necessario e quali sono i suoi obiettivi. Descriviamo le differenze con la già famosa metodologia DevOps e quali potrebbero essere i passaggi per la sua adozione incrementale all’interno di un’organizzazione. Infine, ci sarà una discussione sui tool esistenti e sul compromesso tra make or buy.
Fabio Chiusano è Head of Data Science di Digitiamo, esperto di Natural Language Processing e Certified Google Cloud Data Engineer. È un appassionato Data Scientist con un background in Ingegneria Informatica. In precedenza ha lavorato come Data Engineer presso Machine Learning Reply.
Tommaso Bianchi è Head of Infrastructure and Operations di Digitiamo e un AWS Certified Cloud Practitioner. Con esperienza in ricerca sull’intelligenza artificiale, è un ingegnere informatico con una forte passione nella scrittura di codice efficiente e ben strutturato per risolvere problemi complessi.
DevOps per Data Scientist
I sistemi basati su machine learning sono estremamente complessi e molti dei modelli creati da data scientist non arrivano in produzione. In questo talk cercheremo di andare oltre la fase di training dei modelli e vedere cosa il paradigma DevOps può insegnare ai data scientist per rendere meno tortuosa la strada verso la produzione.
Niccolò è un DevOps Engineer specializzato in soluzioni cloud native che coinvolgono Kubernetes. Proviene dal mondo Deep Learning, dove si occupava di training ed ottimizzazione di reti neurali per sistemi di computer vision. Ora cerca di mettere insieme le due passioni sviluppando soluzioni MLOps.
Modera l’incontro
Fabio è programmatore e Agile coach freelance entusiasta di Extreme Programming e Linux. Appassionato di open source, di economia e di tutto quello che riguarda la matematica e la scienza dei dati, ha prima fondato una web agency e poi lavorato in eBay come Software Engineer. Ama la musica, l’ingegneria del suono e la divulgazione scientifica.
Il programma
9:30 – 9:45 | Welcome by GrUSP |
9:45 – 10:30 | MLOps discovery – Fabio Chiusano e Tommaso Bianchi |
10:30 – 11:15 | DevOps per Data Scientist – Niccolò Raspa |
11:15 – 11:30 | Pausa |
11:30 – 12:15 | A Tale of Pipes and Pipelines: Automating ML in Tenaris – Andrea Rota |
12:15 – 13:00 | Soluzione containerizzata per il Model Predictive Control di un impianto a biomassa per la produzione di energia elettrica – Giovanni Tardini e Riccardo Benaglia |
13:00 – 13:10 | Saluti dal GrUSP |