numero speciale cartaceo

Download Report

Transcript numero speciale cartaceo

M. Concetta Lattanzio
@concilattanzio
Responsabile Editoriale
Ingenium
Direttore Comunicazione
Engineering
A 30 anni dal primo numero,
torna Ingenium sul web.
Lo festeggiamo con un numero
speciale cartaceo!
NGENIUM COME INGEGNO. Perché è l’ingegno che governa l’innovazione.
Da monografia cartacea a web magazine, è tornato Ingenium, la storica rivista
aziendale di Engineering che, nata 30 anni fa, è stata un punto di riferimento
informativo e culturale sui temi tecnologici più innovativi fino al 2000.
Un percorso che parte quindi da molto lontano, da quella carta alla quale
torniamo oggi con questo numero speciale in occasione del Kick-Off 2017.
Un percorso che, pur nel cambiamento degli strumenti disponibili, dei contesti
di riferimento e dello scenario complessivo, non ha cambiato direzione: supportare
il processo di crescita e di evoluzione delle organizzazioni attraverso la tecnologia.
Il nuovo Ingenium adotta la grammatica del web 2.0 e dei social media, ma non dimentica l’attenzione
all’approfondimento, allo scambio, alla funzione di supporto e guida per quanti quotidianamente fanno
dell’innovazione una leva di crescita.
Affronta il tema della digital transformation partendo dalla cultura del dato.
Lo fa parlando di persone, di società, di tecnologie e di mercato, attraverso la storia di chi opera
il cambiamento quotidianamente e la vision di chi genera la trasformazione con il proprio lavoro.
Vuole essere un alleato per chi fa innovazione, fornendo spunti, idee, strumenti interpretativi e chiavi
di lettura, ma anche un luogo di scambio e confronto sui temi cruciali per la crescita delle aziende e,
con esse, della società e del Paese.
Per il nuovo progetto editoriale che si avvale del contributo di molti autori tra colleghi, docenti
universitari e opinion leader abbiamo scelto un partner qualificato come Tech Economy,
un portale di informazione, punto di riferimento fondamentale per comprendere l’innovazione
e i processi di cambiamento nel nostro Paese e a livello internazionale.
Ho lavorato alla rivista precedente per diversi anni e sono convinta che un’azienda come Engineering,
che oggi come allora fa innovazione e contribuisce a costruire il futuro, possa e debba essere anche
un luogo di incontro e dibattito sui temi della trasformazione digitale.
“DATASETS CAN’T CHANGE THE WORLD. PEOPLE DO.” (Jonathan Gray)
Stefano Epifani
@stefanoepifani
Direttore Responsabile
Ingenium
Chief Editor Tech Economy
il dato al centro della trasformazione digitale
INNOVAZIONE CHIAMA CULTURA DEL DATO, INFORMAZIONE E CONOSCENZA
PESSO, TROPPO SPESSO , quando qualcuno ci indica la luna finiamo per concentrarci
sul dito. E così, pensando alla digital transformation, ci vengono in mente droni,
stampanti 3D, sistemi di digital manifacturing, e chi più ne ha più ne metta.
Peccato, però, che si rischi di perdere di vista la reale essenza delle cose.
Senza la quale, al di là degli effetti speciali e delle meraviglie tecnologiche che
talvolta sembrano avere sull’innovatore incauto lo stesso effetto delle biglie colorate
per gli indiani (pardon, per i nativi americani), nulla funzionerebbe.
Ciò che è alla base di tutto: il dato.
Innovazione e trasformazione digitale, concetti e temi di cui tanto (troppo) si parla
oggi, nulla potrebbero se non ci si basasse sulla necessità di gestire dati per creare
informazione e generare conoscenza. Le prime vittime della trasformazione digitale
sono coloro, gli innovatori incauti appunto, che si convincono o si lasciano convincere
da loschi druidi del cacciavite che l’innovazione parta dalle tecnologie.
Nulla di più sbagliato.
>> L’innovazione parte dalla nostra capacità di analizzare
processi, mercati, tendenze e persone.
PARTE DALLA NOSTRA CAPACITÀ DI LEGGERE IL CONTESTO e comprenderne la direzione.
Parte, talvolta, dalla capacità di anticipare il cambiamento. E per anticipare il cambiamento servono dati, informazioni,
conoscenza.
Quei dati, quell’informazione e quella conoscenza che rappresentano spesso il principale cruccio delle organizzazioni
- dalle più semplici alle più complesse - che si rendono conto che la gestione di tali elementi è un driver strategico,
ma che di rado riescono a concentrarsi realmente sul problema.
Un po’ perché le perline colorate sono più attraenti e fanno più scena, un po’ perché la prima reazione ai problemi più
gravi è spesso un poco risolutivo fenomeno di rimozione. Un po’, in fondo, perchè è difficile ammettere che
in un momento in cui dovremmo parlare di come la digital transformation stia cambiando il senso delle cose siamo
ancora fermi a ragionare di automazione dei processi. Quegli stessi processi che mentre tentiamo di automatizzarli sono
totalmente cambiati, con lo sconfortante risultato di automatizzare, nella migliore delle ipotesi, processi estinti.
>> Insomma, per parlare davvero di innovazione e di trasformazione
digitale non si può non partire dalla sostanza delle cose: i dati.
IL MODO IN CUI ESSI POSSONO E DEVONO ESSERE ELABORATI per estrarre informazione. Le modalità
con le quali tale informazione si trasforma in conoscenza. Big Data, Social Media, Internet of Things, Industry 4.0,
Sharing Economy sono tutte realtà (e qualche buzzword) che ruotano attorno a questo semplice, fondamentale
e troppo spesso ignorato punto. Per questo Engineering e Tech Economy hanno deciso di sviluppare un nuovo progetto
editoriale, Ingenium: nome noto a chi ruota attorno al mondo di Engineering, che con questa iniziativa rinnova in chiave
di rete un’esperienza che fa parte della sua tradizione, conscia del fatto che la tradizione non è altro che un’innovazione
che ha avuto successo.
3
“Cosa possiamo aspettarci
in termini tecnologici dai prossimi anni,
dandoci come orizzonte il 2030?”
SOCIETY
Massimo Canducci
@mcanducci
Laureato in Scienze dell’Informazione
e in Tecnologia della Comunicazione,
è Innovation Manager in Engineering
dove si occupa di innovazione in tutti
i suoi aspetti, dalla collaborazione
e coordinamento di progetti di ricerca,
alla consulenza e formazione
specializzata. Professore a contratto
di Innovation Management all’Università
di Torino e di Consultancy
and Soft Skills all’Università di Pavia,
fa parte dell’Advisory Board
di Uninfo e del Consiglio Direttivo
dell’Università di Firenze.
Il
VISION
futuroche ci aspetta
LEGGENDO IL RAPPORTO “THE FUTURE OF JOBS DEL WORLD ECONOMIC FORUM” possiamo trovare un
dato interessante ed anche un po’ inquietante: il 65% dei bambini che attualmente entrano nelle scuole primarie
farà dei lavori completamente nuovi, lavori che oggi non esistono ancora. A pensarci bene questo non è poi così
strano, se infatti proviamo a guardare indietro di una decina d’anni, moltissimi lavori che oggi consideriamo
normali, non esistevano affatto. Solo per rimanere in ambito tecnologico possiamo citare: lo sviluppatore di app,
il social media manager, il venditore di pubblicità sui social network, il pilota certificato di droni e multi-rotori, ecc.
Noi stessi, con tutta probabilità, abbiamo dovuto mutare la nostra professionalità ed aumentare le nostre
competenze per far fronte ai cambiamenti tecnologici e sociali che si sono verificati negli ultimi anni. Inoltre chi
opera nel campo tecnologico e dell’innovazione deve essere il più possibile preparato non soltanto per curare
la propria professionalità, ma anche per aiutare i propri clienti ad affrontare nel modo migliore il loro
posizionamento su un mercato in veloce trasformazione, sia dal punto di vista tecnologico che da quello dei
nuovi modelli di business che verranno. Vediamo quindi cosa possiamo aspettarci in termini tecnologici dai
prossimi anni, dandoci come orizzonte il 2030.
ROBOTICA AL SERVIZIO DEL CONSUMATORE. Siamo abituati
a pensare ai robot come macchine veloci ed efficienti in grado di
automatizzare intere catene di produzione o linee logistiche.
L’esperienza accumulata in decenni di perfezionamento industriale
consentirà di avere macchine al servizio diretto del consumatore,
sostituendo in molti casi l’uomo in compiti di servizio, ad esempio il
commesso in un punto vendita. Già oggi ci sono esempi di punti
vendita semi-automatici in cui il consumatore si serve in autonomia e
paga da solo alla cassa oppure, come nel caso degli shop Amazon
sperimentali, non effettua direttamente il pagamento, ma si ritroverà la
spesa addebitata automaticamente sulla sua carta di credito. Nel
prossimo futuro avremo invece macchine in grado di gestire un punto
vendita in modo simile a come farebbe una persona in carne ed ossa,
questa modalità troverà applicazione primaria in contesti particolari
come la vendita dei farmaci, degli alcolici o dei tabacchi. Si tratta infatti
di verificare che il consumatore abbia effettivamente la titolarità per
acquistare quel prodotto e in che quantità. Inoltre, grazie alla raccolta
automatica dei dati di vendita, sarà possibile effettuare analisi
dettagliate sui comportamenti dei consumatori.
alla rete informazioni su clima, qualità dell’aria, traffico ed eventi
straordinari. Qualunque oggetto fisico sarà potenzialmente collegabile
alla rete con l’obiettivo di fornire servizi o di raccogliere dati da mettere
a disposizione della rete stessa.
BIG DATA. Tutto questo aumenterà di diversi ordini di grandezza
la quantità di dati resi disponibili alla rete, si stima che l’universo dei
dati a disposizione si espanderà dagli attuali 10 zettabyte a circa 200
zettabyte entro il 2030 (200 miliardi di terabyte), dati che dovranno
essere gestiti ed utilizzati nel modo migliore. Dal punto di vista
concettuale saremo in grado di prevenire e controllare qualunque tipo
di fenomeno, naturale o sociale, per il quale esistano abbastanza
informazioni ed adeguati modelli matematici. Potremo avere una
migliore consapevolezza su come utilizziamo il nostro tempo e le nostre
risorse, i nostri parametri vitali saranno costantemente monitorati in
modo da avvisarci di potenziali comportamenti pericolosi ed eventuali
situazioni di rischio per la nostra salute ci verranno notificate con molto
anticipo, in modo da poter consultare al più presto il nostro medico
di fiducia. Questi dati consentiranno di individuare comportamenti
criminali in alcuni casi anche prima che il crimine si verifichi realmente.
Saremo in grado di predire dove alcuni crimini potranno essere
compiuti ed anche quali profili personali e comportamentali avranno
le vittime ed i criminali.
Una volta resi pubblici, questi dati avranno effetto anche sul mercato
immobiliare delle varie zone delle città, in quanto a zone più pericolose
si assoceranno prezzi delle case più bassi e viceversa.
La manipolazione e la gestione di queste enormi quantità di dati
verranno effettuate con strumenti sempre meno costosi, alcuni stati
inizieranno a censire la popolazione utilizzando i dati disponibili ed
aggiorneranno in questo modo i dati ufficiali del censimento della
popolazione. Sempre di più chi controlla il dato avrà influenza e potere,
sia dal punto di vista del condizionamento diretto, sia da quello
dell’efficacia dei messaggi promozionali che saranno sempre più
orientati direttamente alla singola persona, uscendo dalla logica
attuale basata sui target di utenza.
MILLE MILIARDI DI OGGETTI CONNESSI. Quello che oggi
concepiamo come Internet of Things sarà in effetti più vicina
al concetto di Internet of Everything. L’aumento enorme di oggettistica
connessa dipenderà da diversi fattori: la diminuzione del costo
dei sensori, l’aumento della potenza di calcolo dei chip a parità
di dimensione, il diminuire del consumo energetico, il miglioramento
delle prestazioni delle batterie, l’adozione completa di IPv6 che
consentirà di avere circa 3,4 x 1038 indirizzi IP pubblici disponibili.
Questo scenario consentirà di avere circa mille miliardi di oggetti
connessi alla rete: dal frigorifero in grado di fare la spesa
autonomamente, alle scarpe da corsa capaci di avvisare l’utilizzatore
quando è ora di sostituirle, dai singoli pacchi che vengono spediti
per posta o tramite corriere e che potranno essere rintracciati
in qualunque parte del mondo si trovino, ai vestiti in grado di fornire
4
INTELLIGENZA ARTIFICIALE E ADVANCED MACHINE LEARNING.
La dimensione e la varietà dei dati disponibili consentirà di realizzare
strumenti “intelligenti” in grado di prendere decisioni, ma anche di
apprendere nuovi comportamenti da attuare sulla base degli eventi.
Utilizzando i dati esistenti, attraverso il riconoscimento di specifici
pattern comportamentali e con l’utilizzo di reti neurali artificiali,
i sistemi di Advanced Machine Learning saranno sempre più in grado
di utilizzare algoritmi adattativi, capaci cioè di modificare il loro
comportamento non soltanto in funzione della conoscenza di base,
ma anche dall’esperienza accumulata in precedenza.
Questo consentirà alle macchine di relazionarsi con l’uomo in modo
sempre più indistinguibile da un vero essere umano, ci avvicineremo
sempre più, quindi, a macchine in grado di superare il test di Turing,
macchine esperte, adattative ed in grado di utilizzare sempre più il
linguaggio naturale.
Questo tipo di tecnologia consentirà di utilizzare queste macchine
con estrema efficienza in compiti anche complessi come il prendere
decisioni societarie. Mentre oggi si utilizza la Data Analytics come
strumento di ausilio nel prendere decisioni, entro pochi anni alcune
decisioni strategiche di grandi aziende nel mondo potrebbero essere
assunte direttamente da questi sistemi, con o senza il controllo
e l’approvazione dell’uomo.
VEICOLI INTELLIGENTI E AUTONOMI. Il numero di autovetture a
guida autonoma sulle strade aumenterà in modo sensibile, i dubbi
e le incertezze causate dalla mancanza del controllo umano
verranno superati dai dati a disposizione, che dimostreranno
che questi veicoli risulteranno enormemente più sicuri dei veicoli
tradizionali. Saranno tutti connessi ad un’unica rete, a questa
forniranno tutti i dati rilevati dalla sensoristica di bordo e dalla
stessa rete preleveranno tutti i dati necessari ad ottimizzare
il percorso, sia dal punto di vista dell’efficienza nei consumi che
da quello della sicurezza. Non saranno necessariamente
autovetture, potranno essere anche mezzi di trasporto merci
su strada e anche veicoli volanti come droni e multi-rotori, tutti
connessi alla stessa rete e tutti fornitori e consumatori di dati
utili all’efficienza ed alla sicurezza.
Saranno tutti veicoli elettrici in grado di determinare in autonomia
come e dove ricaricarsi e sarà virtualmente impossibile che si
verifichi un incidente tra due di essi.
OGGETTI STAMPATI IN 3D. Le tecnologie di stampa 3D saranno
rivoluzionate dalla possibilità di stampare oggetti complessi e nuovi
materiali in tempi sempre più brevi e con costi sempre più bassi.
Questo consentirà di stampare in 3D oggetti di uso comune,
indipendentemente da forma e materiali, inoltre non sarà più
necessario modificare le linee di produzione per inserire variazioni
ai prodotti, sarà sufficiente modificare i modelli di stampa.
Questo tipo di tecnologia consentirà di “stampare” anche tessuti
biologici fino ad arrivare alla produzione di veri e propri organi
semplici funzionanti. La stampa di materiale biologico misto
a materiale tecnologico consentirà la produzione di chip di varia
natura (stimolatori cardiaci o i sensori di rilevamento dei parametri
vitali) in grado di essere impiantati senza il rischio di rigetto.
Un ulteriore passo avanti si avrà con l’utilizzo di materiali
a memoria di forma, grafene, nuove tipologie di polimeri e nano
compositi. Questi materiali innovativi, dei quali non si conoscono
ancora tutte le caratteristiche e le potenzialità, potranno essere
stampati in 3D insieme a materiali biologici, tecnologici
e tradizionali, aprendo le porte ad utilizzi al momento impensabili.
DISPOSITIVI PERSONALI. Quello che oggi siamo abituati
a chiamare smartphone cambierà sempre più natura e caratteristiche
diventando il vero centro di controllo della nostra vita reale, così
come della nostra presenza virtuale.
La componente telefonica perderà progressivamente
di importanza, diventando una delle varie forme di comunicazione
abilitate dal dispositivo. Le migliorate capacità di calcolo,
l’eccezionale durata della batteria e l’enorme spazio
di archiviazione metteranno questi dispositivi al centro della nostra
esistenza. Il concetto di “sincronizzazione” dei dati tra un dispositivo
personale ed un computer, come lo intendiamo
oggi, perderà di significato in quanto le postazioni fisse non avranno
più capacità computazionale né spazio di archiviazione, forniranno
unicamente dispositivi di input e display. Tutta la potenza di calcolo,
di archiviazione ed i software saranno forniti direttamente dal nostro
dispositivo personale che sarà collegato in modalità wireless
alle appendici tecnologiche che ci serviranno di volta in volta.
Il concetto stesso di “spazio di archiviazione” perderà significato,
tutti i nostri dati e le nostre applicazioni saranno su spazi cloud
costantemente sincronizzati ed automaticamente soggetti a backup.
La qualità della connettività migliorerà sempre più nel tempo
diventando una commodity di cui non dovremo più preoccuparci.
IL FUTURO CHE CI ASPETTA sarà quindi costellato da rilevanti cambiamenti tecnologici che avranno impatto
sui nostri comportamenti e determineranno nuove modalità con cui ci relazioneremo con la tecnologia. L’unione
di sensori biologici, dati, intelligenza artificiale e advanced machine learning consentirà di valutare molto meglio
le nostre condizioni di salute e di intercettare in anticipo eventuali segnali di pericolo. Allo stesso tempo però,
questa enorme mole di dati presente sulla rete indurrà a riflettere su tematiche di sicurezza ed inviolabilità
delle informazioni personali e su quelle legate alla privacy.
Se da un lato i veicoli autonomi ci trasporteranno ovunque a prezzi bassissimi, va considerato che la nostra
posizione geografica sarà sempre un dato presente sulla rete, così come le nostre condizioni di salute, i nostri
consumi e le nostre preferenze in vari ambiti, anche personali. Sarà quindi necessario normare l’utilizzo di questi
dati, anche per impedire che vengano usati per scopi legati al controllo non democratico delle popolazioni.
UN ALTRO ASPETTO DA CONSIDERARE CON ATTENZIONE è l’impatto occupazionale: la distribuzione di robot
per svolgere compiti fisici e ripetitivi e la disponibilità di macchine intelligenti in grado di prendere decisioni
complesse e strategiche, sono fenomeni che potrebbero causare una diminuzione della forza lavoro in molti
ambiti. Se sapremo gestire questo fenomeno non avremo una riduzione del numero dei lavoratori, ma a cambiare
sarà la natura stessa del lavoro. Le persone dovranno acquisire nuove abilità ed è quindi, già oggi, compito
della scuola indirizzare correttamente i ragazzi alle competenze necessarie per vivere e lavorare nel futuro che
ci aspetta, un futuro che molti di noi non vedono l’ora di conoscere.
5
TECH
Pearse O’Donohue
@podcloudeu
È Direttore Responsabile
per i Future Networks
e Capo dell’Unità “Cloud and Software”
di DG CONNECT presso la Commissione
Europea, dove è responsabile
dello sviluppo strategico
e dell’implementazione della politica
in materia di cloud computing
e di software e servizi.
INTERVIEW
FIWARE
per la condivisione di “soluzioni smart” tra imprese
INTERVISTA A PEARSE O’DONOHUE
Fino alla fine di ottobre 2014, Pearse è stato vicecapo di gabinetto del Vicepresidente Neelie
Kroes, Commissario europeo uscente per l’Agenda Digitale, a cui prestava consulenza
per lo sviluppo e l’implementazione della politica in materia di reti e di servizi di comunicazione
elettronica, banda larga, spettro e altre politiche connesse. In precedenza, Pearse era stato
a capo dell’Unità per la Politica dello Spettro Radio della Commissione Europea,
DG CONNECT. Le sue responsabilità comprendevano lo sviluppo e l’implementazione
di politiche per un utilizzo efficiente dello spettro e un approccio coordinato nella gestione
delle frequenze nell’UE. Ciò includeva anche lo sviluppo di misure di armonizzazione dello
spettro nel campo delle comunicazioni elettroniche, incluso il dividendo digitale, e in altri
settori del mercato interno, tra cui trasporti e ricerca.
•• NEL 2011 LA COMMISSIONE EUROPEA HA LANCIATO L’INIZIATIVA “Future Internet Public-Private Partnership
COME PREVEDE
DI ATTUARE
LA PROMOZIONE
E DIFFUSIONE
DEI RISULTATI
DEL FI-PPP?
(FI-PPP)” volta ad affrontare le sfide di natura tecnologica, commerciale, sociale e amministrativa che dovranno essere
superate per consentire all’Internet del Futuro di supportare la “società in rete” di domani. L’ultima fase dell’iniziativa
FI-PPP (Fase 3) si è conclusa a settembre 2016 e i risultati sono pronti e già disponibili per la strategia go-to-market di
FIWARE. È importante sottolineare la particolarità dell’approccio utilizzato rispetto ad altre Partnership
Pubbliche-Private, focalizzate sulla realizzazione ed espansione di piattaforme “core” open source che creano strumenti
specifici nell’ottica di uno sviluppo orientato alle PMI. Anche dopo l’iniziativa FI-PPP, il progetto FIWARE continua a
supportare la competitività globale dell’economia dell’UE attraverso l’introduzione di un’infrastruttura innovativa volta
a realizzare e diffondere in modo economicamente efficiente servizi Internet innovativi che assicurano un’elevata
qualità del servizio e garanzie di sicurezza.
FIWARE copre tutti i grandi temi che si trovano oggi ad affrontare gli sviluppatori (cloud, Internet delle Cose,
Big Data, sicurezza, …) in un ambiente integrato facile da utilizzare. FIWARE continua la sua missione con
l’organizzazione di eventi destinati al pubblico per estendere la community di utilizzatori e, grazie all’istituzione della
FIWARE Foundation (soci fondatori: Atos, Engineering, Orange e Telefónica – n.d.r.), contribuire a promuovere,
migliorare, tutelare e validare le tecnologie FIWARE e le attività della community, supportando gli utenti finali,
gli sviluppatori e gli altri stakeholder nell’intero ecosistema.
•• FIWARE È UNA PIATTAFORMA OPEN SOURCE INDIPENDENTE che definisce degli standard che consentono
DAL SUO PUNTO
DI VISTA, QUALI SONO
I PRINCIPALI ASPETTI
CHE CONTRIBUIRANNO
AL POTENZIALE
SUCCESSO DI FIWARE
SUL MERCATO?
a tutte le tipologie di imprese e industrie di realizzare e condividere soluzioni “smart” trasferibili e interoperabili
in tutto il mondo. Uno degli aspetti rilevanti che differenziano FIWARE dai principali concorrenti è rappresentato
dal suo essere una piattaforma aperta e royalty-free, con una definizione standard e implementazioni di riferimento,
semplice da integrare con il sistema esistente e con le altre tecnologie.
Il programma FIWARE non si propone soltanto di fornire tecnologie alternative aperte, ma anche di creare un
innovativo ecosistema aperto che offra maggiori opportunità a tutti gli stakeholder. Ad esempio, nell’ambito del
programma FIWARE, abbiamo creato il FIWARE Lab, un’istanza della piattaforma FIWARE disponibile per la libera
sperimentazione, dove i fornitori di applicazioni e gli sviluppatori di servizi possono sviluppare e testare i loro prodotti
direttamente con dati e utenti reali. I FIWARE Lab e la strategia go-to-market di FIWARE sono già operativi a livello
globale per promuovere FIWARE in tutto il mondo e supportare il successo degli ecosistemi FIWARE locali.
6
COME CONSIDERA
IL RUOLO DELLA
FIWARE FOUNDATION?
QUALI SONO
I VANTAGGI OFFERTI
DA FIWARE
AL MERCATO?
•• LA MISSIONE PRINCIPALE È SVILUPPARE UN ECOSISTEMA APERTO E SOSTENIBILE di piattaforme standard
dalle specifiche pubbliche e royalty-free che faciliteranno lo sviluppo di nuove Applicazioni Smart in diversi settori.
Il ruolo della FIWARE Foundation, ufficialmente istituita, è garantire e proteggere FIWARE e potenziare
il coinvolgimento degli adopters.
Organo giuridico indipendente, fornisce risorse condivise per supportare la missione di FIWARE attraverso
la promozione, il miglioramento, la tutela e la validazione delle sue tecnologie e delle attività dei membri della sua
community, inclusi gli utenti finali, gli sviluppatori e gli altri stakeholder nell’intero ecosistema. La FIWARE
Foundation ha una struttura aperta: chiunque può unirsi contribuendo a una gestione trasparente delle attività
FIWARE e crescendo nella gerarchia sulla base del merito.
•• FIWARE DISPONE DI DIVERSE CARATTERISTICHE COMMERCIALIZZABILI in grado di garantire il successo
del programma e delle imprese che lo utilizzano: la piattaforma FIWARE è estremamente facile da usare e offre
vantaggi significativi rispetto alle piattaforme esistenti per l’applicazione in diverse aree, ad esempio le smart city.
Grazie alla sua struttura open source e alla disponibilità di specifiche aperte, questa infrastruttura semplifica
l’erogazione di servizi on-line da parte di sviluppatori, fornitori di servizi e organizzazioni pubbliche e private.
FIWARE è una tecnologia aperta, disponibile gratuitamente, che richiede un tempo di adozione estremamente breve.
Nel caso delle smart city, ad esempio, trattandosi di una tecnologia open source, FIWARE consente
alle amministrazioni comunali di evitare il vendor lock-in, proteggendo il loro investimento e fornendo informazioni
di contesto in tempo reale su quanto sta accadendo in città. FIWARE è anche un importante vettore
per la digitalizzazione dell’industria europea, un’alternativa rapida ed economica per start-up, PMI e industria.
Questo decennio è sostanzialmente
caratterizzato come l’epoca dell’informazione,
dove ogni attività umana è stata digitalizzata
ed è quindi in grado di produrre dati.
SOCIETY
Alfonso Fuggetta
@alfonsofuggetta
Dopo la laurea presso il Politecnico
di Milano nel 1982, ha lavorato per
una società di consulenza software
dal 1980 al 1988, quando entra,
come ricercatore senior, in CEFRIEL,
azienda che promuove e sostiene
l’innovazione nelle imprese
e le amministrazioni pubbliche.
Professore associato presso
il Politecnico di Milano,
viene promosso a professore
ordinario e, dopo aver ricoperto
i ruoli di Vicedirettore
e di Direttore Scientifico presso
il CEFRIEL, nel 2005 ne viene
nominato amministratore delegato.
Ma quali sono le opportunità e le sfide
che da questa straordinaria disponibilità
di informazione si possono generare
a favore di imprese, amministrazioni
pubbliche e cittadini?
VISION
Opportunità e sfide nell’uso
dei dati e delle informazioni
Opportunità
>> I dati che continuamente creiamo e le informazioni che ne derivano possono sicuramente
essere utilizzati a vantaggio delle attività che diversi soggetti svolgono.
All’interno della singola impresa
>> Un primo livello di ragionamento ha a che fare con l’utilizzo di dati e informazioni per migliorare e anche
rivoluzionare il funzionamento di una singola impresa. Ciò può avvenire a vari livelli.
1. Grazie all’uso intelligente di dati e informazioni è possibile sviluppare nuove generazioni di prodotti in grado
di adattarsi o comunque comportarsi in modo “intelligente”, in funzione del contesto e delle scelte dell’utente.
È il caso, per esempio, di prodotti complessi e costosi come le più moderne automobili o di oggetti molto più semplici
ed economici come un controllore domestico (come ad esempio Nest).
2. Oggetti e sistemi intelligenti abilitano servizi a maggiore valore aggiunto. È il caso, per esempio, delle assicurazioni
auto che sono state rivoluzionate dall’avvento delle “black-box” montate a bordo dei veicoli e che sono in grado da un
lato di intervenire in caso di emergenze e, dall’altro, di monitorare il comportamento e le abitudini di guida dell’utente
e conseguentemente tarare costi e coperture.
3. Dati e informazioni possono infine essere utilizzati per migliorare i processi dell’azienda. Si pensi per esempio
ai sistemi di monitoraggio e controllo predittivo che oggi è possibile utilizzare nella gestione di impianti e infrastrutture
complesse come una rete di distribuzione elettrica o una linea ferroviaria ad alta velocità.
Tutto ciò sta già accadendo, non è solo sogno o ambizione. Le imprese stanno cambiando e sempre più cambieranno
anche a causa dell’influenza che queste grandi quantità di informazioni e di dati inevitabilmente hanno su tutti gli ambiti
e settori di ogni azienda moderna.
Tra imprese
>> Lo scambio e la condivisione delle informazioni cambia anche il modo di rapportarsi tra imprese di sviluppo di servizi
integrati. Per esempio, l’ecosistema digitale E015 creato per Expo 2015 rende possibile sviluppare nuove applicazioni
e servizi che sfruttano diverse fonti e sorgenti informative prodotte da una molteplicità di soggetti pubblici e privati.
Allo stesso tempo, sono sempre più significativi i casi di aziende che operano in distretti o filiere industriali e che
utilizzano le tecnologie digitali per fornire servizi di filiera integrati e a maggiore valore aggiunto.
Più in generale, la condivisione e la fruizione di informazioni e dati rappresentano il meccanismo abilitante lo sviluppo
di smart city e smart communities. Un altro ambito molto interessante è lo sviluppo di servizi evoluti per imprese
e consumatori che si basano sull’integrazione di fonti informative di una molteplicità di imprese. Interessanti a questo
proposito sono i casi di Weve nel Regno Unito e di Ezakus in Francia, società che sfruttano una molteplicità di fonti
informative di diverse aziende per fornire servizi evoluti di advertising e CRM.
Nelle amministrazioni pubbliche
>> Le amministrazioni pubbliche detengono una mole enorme di informazioni su cittadini, imprese, territorio e,
in generale, ogni ambito della vita sociale, economica e culturale di una nazione. Tali dati possono essere utilizzati sia
per migliorare in modo anche radicale il funzionamento stesso delle amministrazioni, sia per offrire informazioni
e servizi evoluti al pubblico, ai cittadini e alle imprese.
Per i cittadini e la società in generale
>> I singoli cittadini e le diverse realtà culturali e sociali possono utilizzare dati e informazioni
per intervenire in tutti gli ambiti della vita economica e sociale di un Paese. Non esistono limiti ai possibili campi
e settori di applicazione: dal volontariato e servizi di pubblica utilità, a nuovi servizi di assistenza e promozione sociale.
8
SFIDE
>> La straordinaria quantità di informazioni e dati che lo sviluppo delle tecnologie digitali rende
disponibili è certamente una grandiosa opportunità di crescita per ogni ambito della nostra società.
Tuttavia, è indubbio che questa pervasiva, capillare e continua capacità di monitoraggio e analisi
del comportamento di singoli e di intere comunità possa anche costituire una sfida e un rischio
che non possono essere in alcun modo minimizzati o sottovalutati. Inoltre, non basta disporre
dei “dati grezzi” per abilitare e mettere in campo servizi evoluti a maggiore valore aggiunto.
Il dato di per sé è inutile se non viene elaborato e interpretato.
>> Per questi motivi, accanto allo sviluppo di nuovi prodotti e servizi che valorizzino la disponibilità
e la creazione di queste immense quantità di informazioni, devono essere previste anche
quelle azioni che in modo permanente studino e approfondiscano gli aspetti critici e le sfide che
ci troviamo ad affrontare.
Proprietà del dato
>> Il primo e più scottante tema è quello della proprietà del dato. In prima battuta, sembrerebbe abbastanza intuitivo
che tale proprietà debba restare in capo al soggetto che lo ha generato o caratterizzato. Tuttavia, esistono molti casi
dove questa proprietà non appare così nettamente determinata, o per motivazioni di carattere operativo o per motivi
di interesse pubblico. Per esempio, di chi è la proprietà del dato relativo al transito di un’auto privata su una spira
magnetica (posizionata sotto il manto stradale) o sotto una telecamera che rileva il traffico su tratto di strada di una
città? Il cittadino potrebbe essere tracciato e quindi reclamare la proprietà di quel dato. Al tempo stesso si tratta di
informazioni che hanno una rilevanza notevole sia per motivi di sicurezza (dato singolo) che di gestione delle
infrastrutture stradali (dati aggregati). È indubbio quindi che questo tema costituisca certamente un elemento critico
che deve essere ulteriormente studiato e approfondito.
Privacy
>> La privacy delle informazioni è un’altra questione particolarmente critica e scottante. Quali sono gli ambiti possibili
di divulgazione e utilizzo di un dato, anche in relazione alla sua proprietà? Con quali vincoli e sotto quali condizioni
e abilitazioni si può utilizzare un’informazione per offrire servizi commerciali?
È indubbio che lo sviluppo dei sistemi di proliferazione e di pubblicità digitale dipende in modo decisivo dalle norme
e dalle regole esistenti o future in campo di privacy.
Glossari e ontologie
>> Perché informazioni e dati possano essere utilizzati in modo efficace è necessario disporre di strumenti che rendano
possibile da un lato confrontarli e dall’altro interpretarli. In altri termini, è necessario sviluppare modelli e schemi
interpretativi che diano significato e senso condiviso alle informazioni e ai dati che vengono raccolti. Questa sfida è
alla base delle attività di ricerca e innovazione in tema di glossari dati, ontologia e semantica. In assenza di tali decisivi
contributi, qualunque fonte informativa perde di senso e utilità in quanto vengono a mancare gli schemi interpretativi
sulla base dei quali valorizzarli e utilizzarli.
L’interpretazione della conoscenza
>> La disponibilità di dati non corrisponde necessariamente né all’avere informazioni utili né a sostenere modelli
decisionali o applicazioni realmente efficaci. Il dato deve essere studiato, interpretato ed elaborato per estrarne conoscenza
utile e applicabile nello specifico contesto applicativo. Ciò richiede una multidisciplinare commistione di tecniche
informatiche, modelli matematico-statistici e conoscenza di dominio. È solo dal virtuoso incontro di queste tre discipline
che diventa possibile dare senso e utilità a dati che altrimenti potrebbero restare del tutto inutili o poco significativi.
Cooperazione e interoperabilità
>> Dati e informazioni devono poter essere scambiati tra soggetti diversi. È un tema critico e importante soprattutto
(ma non solo) nel campo delle pubbliche amministrazioni: perché un cittadino deve comunicare la stessa informazione
a due amministrazioni diverse? Perché le amministrazioni non comunicano e si scambiano informazioni direttamente?
È un problema, appunto, di interoperabilità e di interazioni tra soggetti diversi. Tale tema estende e completa quanto
discusso a proposito di semantica, ontologia e glossari dati, introducendo per l’appunto il problema della
interoperabilità tra sistemi informatici indipendenti.
I modelli di business
>> Infine, un’ultima ma certamente non meno importante sfida riguarda i modelli economici secondo i quali sostenere
investimenti, e sfruttare e valorizzare dati e informazioni. Ovviamente, la pubblicità e i processi ad essa collegata
costituiscono lo snodo attorno al quale ruota la gran parte dei modelli di business oggi disponibili. Certamente,
è necessario capire se possano essere altre le forme secondo le quali costruire modelli di business che consentano
lo sviluppo dell’intero ecosistema della conoscenza e garantiscano la valorizzazione delle diverse forme di dati
e informazioni rese disponibili dallo sviluppo delle tecnologie digitali.
9
SOCIETY
Lanfranco Marasso
@lmarasso
Ingegnere, Ph.D. al Politecnico di Milano,
è attualmente Direttore del Programma
Smart City di Engineering.
Da oltre 25 anni si occupa di progetti
di innovazione in Italia e all’estero
nel settore pubblico, avendo ricoperto
ruoli di direzione e di amministrazione
in aziende private, pubbliche
e nel Comune di Parma.
È stato professore a contratto
dell’Università Roma Tre,
dello IUAV di Venezia
e del Politecnico di Milano.
Partecipa ai lavori di iniziative
europee quali AIOTI (Alliance Internet
Of Thing Innovation), FIWARE ed ENOLL
(European Network of Living Lab).
È Chairman del TF7 - Smart City di BDVA
(Big Data Value Association)
e del WG3.7 Smart City di ECSO
(European Cyber Security Organisation).
EXPERIENCE
Una CITTÀ di dati open,
closed, free, linked, big...
L'informazione rappresenta oggi la forza trainante delle Città del Futuro, elemento
fondamentale per generare innovazione sostenibile: possiamo dire che l’informazione
è (anche) un “bene pubblico” con la caratteristica peculiare data dal fatto che il suo
consumo da parte di un individuo non ne riduce la disponibilità per gli altri,
anzi ne amplifica il potenziale valore.
I DATI, CHE AGGREGATI COSTITUISCONO INFORMAZIONE e quindi conoscenza, sono quindi al centro di qualsiasi
processo/servizio delle Città, e il miglioramento della loro gestione e distribuzione è un tassello fondamentale per abilitare
politiche efficaci di innovazione urbana. Dimensione tecnologica e dimensione sociale si devono fondere, quindi,
impiegando strumenti ICT per aumentare le prestazioni nella co-creazione, co-gestione ed erogazione dei servizi urbani,
siano essi pubblici, di pubblica utilità o privati. E ciò può essere assicurato solo attraverso la partecipazione attiva di tutti
i soggetti che, insieme, costituiscono la Città.
In questo ambito Engineering gioca un ruolo di primo piano per l’innovazione a stretto contatto con tutti i fornitori di servizi
per il territorio (comuni, ospedali, utilities, trasporti, energia, …) e la neonata Municipia esprime proprio questo momento
di sintesi e di prossimità sul territorio a scala urbana.
ENGINEERING È ANCHE UN PLAYER PRIMARIO NELLA RICERCA E INNOVAZIONE, nazionale ed europea, avendo
Paolo Nesi
@paolonesi
È chair del DISIT Lab dell’Università
degli Studi di Firenze
e Prof. Ordinario di Sistemi
di Elaborazione. Ha coordinato
svariati progetti di ricerca
e innovazione della Commissione
Europea, nazionali e regionali.
Attualmente coordina Sii-Mobility MIUR
Smart City nazionale mobilità
e trasporti, RESOLUTE H2020
sulla resilienza nelle infrastrutture
critiche e dei sistemi di trasporto.
DISIT Lab partecipa a vari
progetti su big data, smart city,
smart cloud, industria 4.0.
un ruolo determinante nelle più importanti iniziative continentali sulle Service Open Platform (FIWARE), sull’Internet
delle Cose (AIOTI), sulla sicurezza (EOS e ECSO) e, nello specifico, sul valore aggiunto dei big data nei domini rilevanti
della società contemporanea.
Engineering infatti è tra i membri fondatori della Big Data Value Association (www.bdva.eu), a guida industriale, che conta più
di 160 membri distribuiti in tutta Europa e rappresenta la controparte privata alla Commissione Europea nell'implementazione
del programma Big Data Value PPP (Private Public Partnership). Il coinvolgimento aziendale nella BDVA copre diversi aspetti
che vanno dalla presenza nel Board of Directors per la gestione strategica dell’associazione e i rapporti con la Commissione
Europea, al coinvolgimento o gestione di gruppi di lavoro specifici.
ATTUALMENTE ENGINEERING SI PONE ALLA GUIDA DI GRUPPI quali Smart Cities, Smart Manufacturing Industry e
Business che, a partire da un rilevante interesse internazionale, stanno attirando una notevole partecipazione dei membri
dell’Associazione. In aggiunta a questi gruppi, l’azienda contribuisce all'evoluzione di temi quali healthcare, media e
finanza, oltre che a tematiche più trasversali come quelle tecniche, legali e sociali.
UNA DELLE ESPERIENZE PIÙ SIGNIFICATIVE IN ITALIA è stata concettualizzata e realizzata dall’Università di Firenze
per il Comune: il progetto KM4City (Knowledge Model for the City), di cui il Professor Paolo Nesi è coordinatore.
10
KM4City - Knowledge Model for the City
LE PRINCIPALI PROBLEMATICHE che sono state affrontate e risolte sono
legate alla gestione della complessità dell’acquisizione di dati eterogenei
(diverse sorgenti, protocolli, standard, formati), ai volumi di questi dati che
arrivano in continuo dalla Città e dalle App, alla loro qualità e discontinuità;
configurando in queso modo il problema smart city nello spazio dei Big Data.
IL PROGETTO È NATO NEL 2013 come ontologia per le smart city:
una soluzione che intende migliorare la qualità della vita abilitando la creazione
di servizi innovativi, per la mobilità la sicurezza, il turismo, la riduzione
dei consumi e dei costi, e potenziare la capacità delle persone e della Città
di reagire a eventi avversi non previsti.
LA MANCANZA D’INTEROPERABILITÀ e la qualità limitata dei dati sono
gestite in KM4City tramite strumenti di data mining per aggregare i dati e
correggere i problemi entro parametri accettabili.
Sulla base di conoscenza in KM4City sono quindi messi in esecuzione svariati
algoritmi di data analytics che si basano su intelligenza artificiale e statistica
per la produzione anche in tempo reale di predizioni, suggerimenti, stimoli
verso i cittadini e i decisori pubblici.
QUESTI OBIETTIVI AMBIZIOSI possono essere raggiunti andando a creare
servizi tramite algoritmi di intelligenza artificiale sulla base di dati presenti
nelle nostre città. Non solo gli open data, ma anche i dati raccolti da operatori
di trasporto, commercio, turismo, beni culturali, educazione, meteo, ambiente;
e quelli che possono provenire dai sensori nella città (IOT, Internet delle Cose),
dai social media e dai cittadini stessi tramite app e sistemi di partecipazione.
OLTRE AI DATI STATICI che non cambiano, o cambiano raramente, vi sono
i dati dinamici (real time) che producono flussi continui di informazione. Sono
proprio questi che suscitano maggior interesse per gli utenti finali poiché
permettono di poter avere informazioni, predizioni e deduzioni in tempo reale.
Per esempio, stato e predizioni su parcheggi, traffico, consumi, ambientc.
Su tale base si sviluppano soluzioni per la diagnosi precoce di eventi critici.
AL MOMENTO KM4CITY, come base di conoscenza a servizi di vari progetti,
copre con i suoi dati tutta la Toscana in termini di informazioni stradali, punti
di interesse (cultura, turismo, alloggi, ristorazione, educazione, commercio:
circa 300.000 POI classificati in 500 categorie), servizi di trasporto pubblico
(da 16 operatori), benzinai, informazioni sul triage di ospedali, flussi traffico da
circa 800 sensori, oltre 200 parcheggi e social media tramite TwitterVigilance:
centinaia di migliaia di nuovi dati complessi al giorno.
L’ESPERIENZA KM4CITY: INTERVISTA A PAOLO NESI, COORDINATORE DEL PROGETTO
Quali sono i beneficiari
del progetto KM4City?
I principali beneficiari sono gli utenti della città (cittadini, studenti, pendolari e turisti), e ovviamente
gli operatori e le pubbliche amministrazioni.
KM4City è un esempio di
come un uso intelligente
dei dati possa supportare
la Città per pianificare
e sviluppare nuovi servizi.
Può essere replicato
in altri territori?
KM4City è completamente open source, può essere facilmente replicato in altre regioni ed aree. È inoltre un sistema
completamente aperto nel quale si possono facilmente aggiungere nuovi dati e processi. La stessa ontologia è open
come tutto il resto. I sistemi server side sono sviluppati in linguaggi aperti come Java, PHP, Javascript, ETL, Python,
ecc. La piattaforma KM4City è modulare e scalabile, nel senso che una piccola amministrazione può installare
e utilizzare anche solo le parti di suo interesse. Tutto il sistema di acquisizione dati è in grado di ingerire/aggregare
dati statici e real time in standard multipli con soluzioni completamente scalabili in cloud oppure nei data center
delle pubbliche amministrazioni.
Come si alimenta
KM4City?
KM4City si alimenta con open data, grafi strade e dati real time, provenienti da open data, gestori
della mobilità, social network come Twitter, da qualsiasi tipo di sensori nella città e anche dalle app e quindi
dagli utenti finali stessi.
Perché KM4City
è un riferimento
nello scenario
internazionale?
Non spetta a noi dire che KM4City è un riferimento internazionale. L’ontologia e quindi il modello KM4City sono
stativalutati come i più completi da vari enti. Inoltre, le soluzioni KM4City sono utilizzate da vari progetti europei
e nazionali che contribuiscono anche al suo ampliamento come modello e strumenti. Fra questi progetti sono:
Sii-Mobility (smart city nazionale MIUR, mobilità e trasporti, con svariate sperimentazioni in quasi tutta la Toscana),
RESOLUTE H2020 della Commissione Europea (per lo studio e la messa in opera di soluzioni di resilienza
dei sistemi di trasporto, con sperimentazione a Firenze e Atene), REPLICATE H2020 della Commissione
Europea (per l’introduzione di soluzioni di mobilità sostenibile, IOT ed energia integrata, nel contesto del piano
smart city Europeo), GHOST del MIUR… e altri ancora.
KM4City può diventare
un asset importante
a supporto
della pianificazione
urbana?
Certamente, visto che con i suoi algoritmi è in grado di produrre matrici di origine-destinazione sui flussi veicoli
e anche sulle persone (con il contributo di RESOLUTE), crea modelli predittivi sui flussi, sui parcheggi e sulle persone.
Accumula dati e conoscenza su come gli utenti della città la usano e su come la città vive ed evolve.
Sulla base di conoscenza si stanno attivando strumenti per il supporto alle decisioni, per la valutazione del rischio
e anche per la valutazione della resilienza.
I prossimi passi?
Saremo impegnati nell’allargamento della sperimentazione con Sii-Mobility a molte aree della Toscana su aspetti
di mobilità e trasporti, a Firenze e Atene su aspetti di resilienza dei sistemi di trasporto.
Nel dettaglio dei dati, in base alle richieste che riceviamo, stiamo allargando la base di conoscenza in modo
da coprire più regioni fino ad arrivare all’intero territorio nazionale.
.............................................................................................................................................................................
11
PEOPLE
Flavia Marzano
@flavia_marzano
Laureata a Pisa in Scienze
dell'Informazione, da più di 25 anni
opera per l'innovazione della PA.
Docente in Tecnologie per la PA presso
Università di Bologna, Torino, Roma
Sapienza e Link Campus University
dove ha ideato e dirige il Master Smart
Public Administration.
Social network manager, esperta di
comunità virtuali, fondatrice e Presidente
(dimissionaria) di Stati Generali
dell'Innovazione, ideatrice e animatrice
della rete WISTER (Women for Intelligent
and Smart Territories).
Oggi è Assessora Roma Semplice.
EXPERIENCE
InNOVAZIONE
fa rima con semplificazione
INTERVISTA A FLAVIA MARZANO
Innovare per semplificare tanto da poter associare
la parola Semplice a una città complessa come Roma.
Questo il compito non banale che si è data Flavia Marzano,
informatica, docente universitaria di tecnologie per la PA,
impegnata da sempre nel mondo del volontariato a favore
dell’innovazione e ora Assessora alla Semplificazione
con delega al progetto smart city del Comune di Roma.
SONO TRASCORSI POCO PIÙ DI SETTE MESI da quando la Sindaca mi ha proposto l’incarico di Assessora
INNOVAZIONE
FA RIMA CON
SEMPLIFICAZIONE?
PERCHÉ OPEN DATA
IN UN ENTE LOCALE?
a Roma Semplice. Una sfida senza dubbio impegnativa che ho accolto riconoscendovi una preziosa opportunità
per mettere a disposizione di Roma e dei romani competenze ed esperienze maturate in quella che, oggi, definisco
la mia “vita professionale precedente” in cui per quasi trent’anni ho lavorato come “tecnica” al fianco delle
amministrazioni “alzando la palla” alla politica. Un onere ma soprattutto un grande onore.
Recentemente mi è stato detto che “Roma Semplice” rappresenta una contraddizione in termini, una sorta
di ossimoro. Per rispondere a questa osservazione mi piace partire dalla definizione contenuta nelle Linee
programmatiche 2016-2021 per il Governo di Roma Capitale: “Roma è semplice se diventa un luogo dove l’esercizio
dei diritti e il rispetto dei doveri siano facili per tutti e dove tutti possano contribuire al miglioramento.
È questa la visione che guida le attività che abbiamo intrapreso con l’Assessorato Roma Semplice in questi mesi,
a partire da quattro macro aree di intervento: open government, competenze digitali, agenda digitale (servizi digitali,
semplificazione processi interni all’Amministrazione, connettività), smart city.
INNANZITUTTO COME DOVEROSO ADEMPIMENTO AGLI OBBLIGHI NORMATIVI. In secondo luogo perché
la pubblicazione da parte della PA dei dati in formato aperto e riusabile è un intervento strategico al fine non solo
di valorizzare il patrimonio di informazioni pubbliche in possesso delle amministrazioni ma anche per garantire
trasparenza, accountability e partecipazione, temi prioritari all’interno del programma di governo di Roma Capitale.
In questo contesto, come Assessorato Roma Semplice siamo al lavoro per definire un nuovo programma strategico
che preveda la riorganizzazione del portale Open Data del Comune di Roma, anche attraverso possibili accordi di
partenariato con altri enti territoriali. I principali obiettivi, inseriti all’interno dell’Agenda Digitale di Roma Capitale, sono:
• rendere accessibili e riusabili i dati dell’Amministrazione e, in generale, su Roma
• rendere comprensibili per i cittadini i dati principali dell’Amministrazione
• promuovere il riuso dei dati per la realizzazione di servizi da parte delle imprese
• promuovere il coinvolgimento dei city-user e, in generale, degli stakeholder, nell’identificazione dei dati da aprire.
QUALI I DATI
PIÙ UTILI
E PIÙ DIFFICILI
DA PUBBLICARE
SECONDO LA SUA
ESPERIENZA?
IL PROGETTO PIÙ
INTERESSANTE
SU OPEN DATA VISTO?
COME POSSONO
I BIG DATA AIUTARE
LA PA NEL GESTIRE
AL MEGLIO LE RISORSE
PUBBLICHE?
LATO CITTADINI LE MAGGIORI RICHIESTE DI DATI riguardano, come è comprensibile, i servizi pubblici,
la mobilità, la mappatura dei cantieri per semplificare la viabilità, i dati sul pendolarismo e il turismo, quelli
sull’accessibilità e la sostenibilità ambientale. Si tratta di dati di cui l’amministrazione dispone e su cui siamo al
lavoro per renderli completamente aperti e riutilizzabili.
A questo proposito segnalo che il 4 marzo prossimo, in occasione dell’International Open Data Day 2017 e della
Settimana Nazionale dell’Amministrazione Aperta promossa dal Dipartimento della Funzione Pubblica, l’Assessorato
Roma Semplice invita cittadini, imprese, organizzazioni della società civile, esperti di Open Data ad un incontro di
co-progettazione in Campidoglio, dalle 9 alle 15, in sala della Protomoteca.
L’obiettivo dell’Amministrazione Capitolina è avviare un percorso partecipato sull’apertura e il riuso dei dati pubblici,
definendo insieme ai partecipanti una roadmap condivisa. A partire dai dati già disponibili sul portale Open Data
e da altri che lo saranno in occasione dell’incontro, saranno formati gruppi di lavoro per definire quali siano i dati
più significativi e il loro possibile utilizzo per promuovere innovazione sociale e processi di co-progettazione anche
attraverso sperimentazioni pratiche sui dati disponibili.
TRA LE NUMEROSE ESPERIENZE VIRTUOSE di apertura dei dati realizzate nel corso degli ultimi anni sia a livello
internazionale che nazionale, cito volentieri il catalogo Open Data del Trentino, uno dei portali che considero tra i più
evoluti dal punto di vista non solo della quantità e qualità dei dataset disponibili ma anche per gli strumenti
tecnologici di visualizzazione dei dati offerti.
L’ANALISI DEI BIG DATA ATTRAVERSO L’IMPIEGO DELLA SENTIMENT ANALYSIS, ad esempio, consente
una più facile comprensione delle informazioni che, sebbene non strutturate, possono contribuire alla creazione
di un “cruscotto decisionale”, uno strumento impiegabile dalla politica per assumere decisioni di indirizzo e,
al tempo stesso, al servizio delle strutture dell’amministrazione e dei dirigenti per supportarli in una gestione
più oculata ed efficiente delle risorse pubbliche, fornendo loro un quadro maggiormente dettagliato e ricco rispetto
all’analisi dei semplici dati aperti.
DA SEMPRE, NEL CORSO DELLA MIA “VITA PROFESSIONALE PRECEDENTE” prima menzionata, ho cercato
DA SOSTENITRICE
CONVINTA
DELL'OPENNESS,
QUALI I VANTAGGI
DELL’APERTURA
E DELLA CONDIVISIONE
DI DATI E SOPRATTUTTO
DELLA CONOSCENZA?
di portare nella politica locale e nazionale il concetto di condivisione. Condivisione di dati, di conoscenza,
di esperienze. Un impegno che ho perseguito lavorando con altre persone e associazioni e che ha condotto
a traguardi importanti su FOIA, Open Data, Software Libero, solo per citarne alcuni. Un impegno che, chiaramente,
prosegue con pari convinzione nelle mie attuali vesti di Assessora mantenendo viva la collaborazione con le
associazioni e in generale con gli stakeholder, fondamentali nella funzione di raccordo tra l’amministrazione
e i cittadini di cui raccolgono le istanze.
Rappresentanze delle Associazioni di categoria e della società civile sono state, infatti, coinvolte nel percorso
partecipativo che l’Assessorato Roma Semplice ha perseguito per la definizione dell’Agenda Digitale di Roma
Capitale. Per incentivare l'interazione tra l’Amministrazione e i cittadini secondo i princìpi dell’Open Government e
della democrazia partecipata è stata, inoltre, aperta una consultazione sia on-line - tramite l’Ideario - che
in presenza, con tavoli di approfondimento e confronto.
Condivisione, trasparenza e partecipazione possono e devono, dunque, diventare elementi costitutivi e identitari
dell’Amministrazione. Obiettivi, questi, che non possono prescindere dall’accessibilità dei dati che consente
al cittadino la possibilità di conoscere, verificare e valutare con consapevolezza l’operato della macchina pubblica.
In questo contesto le nuove tecnologie si pongono come strumento di facilitazione del processo di acquisizione
delle informazioni, garantendo così il coinvolgimento dei cittadini nelle scelte dell’Amministrazione.
Per sintetizzare le attività che l’Assessorato Roma Semplice sta portando avanti sul fronte
dell’Openness abbiamo iniziato a declinare un nostro personale alfabeto: l’Open ABC.
Open A è Open Agenda: la mia agenda è pubblica, aperta, condivisa e consultabile on-line direttamente
dalla pagina istituzionale dell'Assessorato; chiunque può sapere dove sono, chi incontro, quale
è il calendario dei miei appuntamenti.
Open B è Open Budget: i Bilanci della Pubblica Amministrazione, come è noto, devono essere pubblici
per legge. Attraverso la piattaforma OpenBilanci, i Bilanci di Roma Capitale degli ultimi 10 anni
sono stati resi più facilmente leggibili e comprensibili anche per i non addetti ai lavori grazie ad apposite
infografiche esplicative.
Open C è Open Code: lo scorso ottobre la Giunta ha approvato una delibera che prevede l’utilizzo
del software libero e la migrazione progressiva dagli attuali sistemi informatici dell’amministrazione capitolina
verso soluzioni Open Source.
Un alfabeto che vogliamo arricchire e popolare anche guardando alle esperienze delle altre amministrazioni
italiane su questi temi per mettere in comune l’innovazione. “Mettiamo in Comune l’Innovazione” è il titolo
dell’iniziativa a cui abbiamo dato avvio lo scorso ottobre a Roma e che in questi mesi
è proseguita attraverso un roadshow che ha coinvolto numerose città italiane tra cui Bologna,
Reggio Calabria, Milano con l’obiettivo di aprire un spazio di condivisione e confronto tra gli Assessori
all'innovazione e al Digitale di tutti i Comuni italiani.
Prossimo appuntamento romano il 20 Marzo in Campidoglio, Sala della Protomoteca.
13
TECH
Grazia Cazzin
@gcazzin
Direttore degli SpagoBI Labs
e responsabile dell’offerta del Centro
di Competenza Big Data,
nella Direzione Ricerca e Innovazione
del Gruppo Engineering.
È fondatrice e project leader della suite
Open Source SpagoBI della Big Data
Initiative, del consorzio internazionale
OW2 e dell’Hadoop User Group italiano.
Ha una consolidata e pluriennale
esperienza su temi quali lo sviluppo
di applicazioni aziendali, la
modellazione dati, il datawarehousing,
l’analisi dimensionale
e la business intelligence.
È stata docente esterna di Business
Intelligence e Sistemi Direzionali
presso l’Università degli Studi
di Torino, Facoltà di SMFN,
nel corso di laurea in Informatica.
FOCUS
Quando i Big Data
diventano Valore?
Approcci
e tecniche
per affrontare
le problematiche
di gestione
del dato
e trasformarlo
in informazione
di valore.
LA CRESCENTE RICHIESTA DI SOLUZIONI talvolta generosamente etichettate come Big Data porta spesso
con sé un’aspettativa di soluzione per antichi malumori legati alla gestione del dato, confondendo a volte la tecnologia
con le attività progettuali da mettere in campo per raggiungere il proprio obiettivo. Sul piano tecnologico,
dimensionando adeguatamente il cluster da attuare, si possono giocare volume e velocità, intendendo quest’ultima
come tempo di risposta di un sistema in esercizio, ma non come rapidità del processo di approvvigionamento dei dati,
in cui subentrano altri fattori che andiamo a considerare.
NELLA TRADIZIONALE DISTINZIONE TRA SISTEMI produttori di dati (i cosiddetti operazionali o transazionali) e
sistemi di analisi, si è spesso tentati di unificare i due livelli, sostanzialmente spostando l’analisi sul piano operativo
stesso (operational intelligence, real-time), per rimediare ai limiti di questa distinzione che porta lunghe attese e costi
difficili da comprendere per portare in produzione una nuova informazione. Ma basare interamente i sistemi di analisi
sul livello operazionale ha comunque delle controindicazioni (elevati costi delle appliance in-memory) e presenta dei
limiti (carico concorrente tra operazionale e analitico, parzialità dell’operazionale se non si opera con un unico ERP
ma con molteplici soluzioni gestionali) che hanno contribuito a contenere questa tendenza. Con l’avvento dei Big Data,
sistemi distribuiti e scalabili che non richiedono un hardware pregiato, sembra essere stata offerta una via più
percorribile per il superamento di questa distinzione ed è facile pensare che il datawarehouse possa diventare obsoleto,
superato da un più vasto data lake contenente tutto il dato originale, a livello operativo.
� però necessario chiarire
cosa la tecnologia può risolvere
e dove rimane un semplice,
seppur utile, supporto.
risolverà di per sé le questioni appena citate, che sono problematiche
derivanti dai dati stessi e non dall’infrastruttura o paradigma ospite.
Per cui, anche volendo seguire la strada dell’abbandono
dei datawarehouse, bisognerà sviluppare sul data lake tutta una serie
di processi di trasformazione e derivazione dai dati primari al fine
di garantire la stessa coerenza, funzionalità informativa, possibilità
di incrocio e revisione storica che è solito aspettarsi oggi
da un datawarehouse. Proprio perché le problematiche del dato non
sono risolte da una piattaforma tecnologica, anche le questioni di qualità
dell’informazione si ripropongono sul data lake esattamente come
si presentano sulle architetture tradizionali, con l’unica differenza che
non abbiamo più alcuna barriera strutturale in ingresso.
SE IL POTENZIALE di un data lake con il dato operazionale privo
di limiti temporali è confrontabile a quello del datawarehouse,
non è vero che attuare quel potenziale sia un’attività marginale
o semplicemente risolvibile dal cambio di infrastruttura.
La modellazione dati che viene fatta in un datawarehouse imprime
già una prima semantica e una rete di controlli (integrità referenziale)
che definiscono anche il livello minimo di qualità garantita
del dato che viene caricato.
A questo va aggiunto che normalmente il datawarehouse risolve
anche altri tipi di problematiche quali ad esempio:
• il raccordo storico tra anagrafiche che cambiano nel tempo
(lo stesso oggetto logico che cambia codice di anno in anno)
• la variabilità delle caratteristiche di uno stesso oggetto nel
tempo (l’appartenenza ad un gruppo, ad un portafoglio, ad
una unità organizzativa)
• il raccordo tra dati e anagrafiche che provengono da sistemi
diversi (lo stesso cliente che ha un identificativo diverso nel CRM
o nel sistema di billing)
• il raccordo tra dati e anagrafiche che provengono da aziende
diverse nel caso di fusioni e acquisizioni.
Nessun data lake, anche se in grado di ricevere i dati operazionali
di tutti i sistemi di un’azienda per un tempo tendente all’infinito,
I sistemi Big Data sono fatti innanzitutto per accogliere dati (come una
grande staging area), indipendentemente dal loro formato,
origine e qualità. Per trasformarli in informazione di valore bisogna però
affrontare tutte le problematiche enunciate fin qui, con approcci
e tecniche magari diverse, più orientate all’utilizzo finale che ad una
coerenza complessiva, ma comunque con attività e costi da considerare.
Se poi, come auspichiamo, si vira verso i Big Data anche
per accogliere dati nuovi, esterni al dominio strettamente aziendale,
le problematiche si amplificano ancora ma aprono anche interessanti
e nuove opportunità.
14
Quali opportunità con i Big Data?
LA SFIDA INNOVATIVA dei Big Data viene colta appieno dalle iniziative
che non si richiudono in un discorso di pura tecnologia e non
rimangono confinate nel perimetro dell’IT. Le opportunità più
interessanti nascono quando si lavora con dati nuovi o si opera in
modo nuovo su dati vecchi o si fanno contemporaneamente le due
cose, cercando di arricchire l’informazione già governata con altri dati,
interni o esterni che siano. Il primo passo che apre ad un dato esterno
è fatto solitamente dal marketing, che vuole valutare la reputazione
del brand o il sentimento diffuso verso una certa iniziativa.
Questo è certamente uno spazio importante, ma limitato ai soggetti con
cui si ha già una qualche relazione, costruendo un’informazione quasi
autoreferenziale. Si può fare un passo avanti cercando di costruire
informazioni di contesto allargate, grazie all’integrazione di contenuti
anche non strettamente riconducibili al proprio perimetro informativo
(open data, social, meteo, data set a pagamento, linked data).
Poiché però non si tratta mai di informazioni puntuali su soggetti
singoli chiaramente identificabili, possono sembrare informazioni
inutilizzabili qualora si sia ancora nell’idea che l’unico dato fruibile
sia quello in perfetto raccordo con i proprio sistemi, quello in cui sia
possibile identificare un soggetto reale e ricondurlo ad una propria
istanza anagrafica (cosa peraltro che potrebbe generare qualche
problema di violazione della privacy da più parti).
Basterebbe però invertire l’approccio e pensare di generalizzare
il proprio dato quel tanto che basta a renderlo confrontabile con un
dato esterno, operando sostanzialmente per cluster. A questo livello
l’informazione utilizzabile è molta e va ad arricchire il cluster magari
con dati di reddito, di spesa, di propensione a certi tipologie di attività
e così via. Non si potrà mai dire che un cliente (di cui si conoscono con
certezza solo le informazioni minime atte a regolare un contratto),
poichè cade in un certo cluster, guadagni sicuramente una certa cifra o
spenda realmente in un determinato modo. Si potrà però affermare con
un ragionevole grado di accuratezza, che persone che assomigliano
molto ad un dato cliente, hanno solitamente una certa fascia di reddito
e sono più o meno propensi ad acquistare alcune categorie di prodotti.
Lo stesso si potrebbe fare esaminando il territorio da un punto di vista
più alto: dei propri clienti si ha magari l’indirizzo di residenza ma niente
di più circa la zona in cui questi vivono.
Li si potrebbe però collocare territorialmente e, ad un livello meno
puntuale (non per indirizzo ma per quartiere, città, provincia, regione),
arricchire l’informazione con indicatori demografici (numero di abitanti
per tipologia: sesso, fascia di età, nazionalità italiana/straniera)
o legati al tessuto sociale e industriale (grado di scolarizzazione,
tasso di occupazione, numero di PMI) e così via.
SOLO COSÌ È POSSIBILE RACCOGLIERE gli elementi per fare un’analisi
completa della propria forza di attrazione reale, più che confrontando
l’anno corrente con il precedente.
SOLO COSÌ È POSSIBILE ANDARE OLTRE le usuali domande
prestazionali (Ho raggiunto gli obiettivi? Ho contenuto le perdite?
Ho massimizzato i ricavi? Ho efficientato i processi?) per affrontare
con nuove armi le domande più sfidanti, volte a impostare politiche di
sviluppo più che di contenimento (Ho colto tutte le opportunità?
Ho perso qualche treno? Sono dentro un cambiamento lento che
non sto cogliendo? C’è una domanda che non sto captando?).
Si sta allargando anche
il vero e proprio MERCATO DEI DATI
o dei servizi basati sui dati,
a conferma del loro valore
non astratto ma BEN MONETIZZABILE
per il quale il PREFISSO BIG
non caratterizza neanche
più la piattaforma tecnologica.
15
Innovare
MARKET
nel settore auto
INTERVIEW
Luigi Falasco
@renaultitalia
Luigi Falasco fa parte del Comitato
di Direzione di Renault Italia S.p.A.
dal 2004. Una prima esperienza
come Direttore Cliente poi, a fine 2007,
ha ricevuto l’incarico
di Direttore Sistemi Informativi Renault
e Nissan, sempre all’interno
del Comitato di Direzione.
Ha diretto con successo la Filiale
Renault di Milano e seguito
l’avviamento di filiali sul territorio
nazionale. Ha maturato una notevole
esperienza come manager
per la gestione delle relazioni
con il Cliente, introducendo strumenti
innovativi per l’implementazione
del settore e-business e ottenendo
successi crescenti in termini di CRM,
Customer Satisfaction e fidelizzazione.
Dati, strumenti di business intelligence e analytics al servizio dell’Automotive
Intervista a Luigi Falasco di Renault Italia
Un brand oggi per essere vincente deve saper comunicare
chiaramente i propri punti di forza al cliente, offrendo i migliori
servizi al momento giusto, nel posto giusto, alla persona giusta,
attraverso il canale giusto.
Anche le automobili non vengono più scelte esclusivamente
in base al rapporto prezzo/prestazioni.
È necessario passare da un approccio orientato
al CRM ad uno orientato alla Customer Experience.
Inizia in questo modo il colloquio con Luigi Falasco, Direttore dei Sistemi Informativi di
Renault Italia. Negli ultimi anni anche nel settore automobilistico l’attenzione si è gradualmente
spostata dal prodotto al consumatore, per cui è necessaria un’analisi attenta dei bisogni della
persona ma soprattutto delle sue aspettative, per fornire un’esperienza di acquisto ad hoc,
omnichannel, in grado di massimizzare le probabilità d’acquisto e di riacquisto.
Quali i percorsi intrapresi da Renault Italia in tal senso?
IL CONCETTO DI DRIVING EXPERIENCE, così come i bisogni dei conducenti, sono in continua evoluzione
e a dimostrarlo c’è la crescita continua dell’utilizzo delle auto connesse: 27 milioni sul mercato mondiale attuale, cifra
destinata a triplicare entro il 2020. I servizi di Infotainment, Security, Maintenance, Driving Style e Navigation offrono
un valore aggiunto tangibile. Investire in tecnologie che permettano al guidatore di comunicare con la casa madre,
il servizio assistenza, il dealer o l’officina più vicina, oppure di ottenere informazioni personalizzate in base ai propri
bisogni direttamente nell’abitacolo, garantirà sempre più agli OEM (Original Equipment Manufacturer) maggiore
competitività ed il rafforzamento del legame tra brand ed utente, favorendo la loro interazione anche dopo l’acquisto e
migliorando il customer journey. Anche per noi come per molte altre aziende uno degli obiettivi principali è migliorare
la customer experience con un programma molto vasto per accogliere il cliente. Negli ultimi 3 anni stiamo sviluppando
molto l’attività del CRM per personalizzare le offerte migliori al cliente che tengano in maggior conto i bisogni,
le esigenze e i tempi del cliente stesso.
Quali le strategie messe in atto da Renault?
STIAMO PROCEDENDO ALL’INTERNO DELL’AZIENDA ad un utilizzo spinto della business intelligence
e diffondendo al tempo stesso tool per facilitare il lavoro dei colleghi, ad esempio automatizzando la redazione
di report attraverso il recupero e l’analisi dei dati e previsioni di business, andando in profondità nell’analisi
delle dinamiche commerciali. Esaminando l’efficacia storica di vari tipi di azioni promozionali cerchiamo
anche di capire quanto l’utilizzo possa essere realmente efficace.
L’integrazione di mondo reale e digitale è necessaria non solo per permettere al consumatore di utilizzare diversi canali
per l’acquisto, ma anche e soprattutto per facilitare la comparazione e la valutazione dei prodotti, e per migliorare
la showroom experience. Creare una strategia omnichannel significa essere pronti a soddisfare gusti, bisogni
ed aspettative del cliente, durante tutto il customer journey, dalla valutazione all’acquisto, alla creazione
di loyalty, e con qualsiasi touchpoint.
16
>> CONCESSIONARIA DEL FUTURO
ACCOGLIENZA PERSONALIZZATA CLIENTE
NOTIFICA INGRESSO CLIENTE A FORZA VENDITA
CONTENUTI MULTIMEDIALI PERSONALIZZATI (ESTERNO/INTERNO VETTURA)
BROCHURE INTERATTIVA
CONTEGGIO INGRESSI E PROFILAZIONE ANONIMA E STATISTICA
TRACCIATURA PERCORSI E DEFINIZIONE HEAT MAPS
MISURAZIONE TEMPI DI PERMANENZA
DIGITAL SIGNAGE INTERATTIVO
MISURAZIONE EFFICACIA MESSAGGI
PROMOZIONI PERSONALIZZATE SALES & AFTER SALES
Quali i progetti più importanti ai quali state lavorando?
INSIEME A ENGINEERING ABBIAMO PROGETTATO L’AREA CUSTOMER INTERACTION 2.0, ovvero uno spazio
innovativo all’insegna della multimedialità e delle tecnologie digitali. Abbiamo immaginato quella che può essere
la “Concessionaria del Futuro” che potrà riconoscere e accogliere il cliente in maniera personalizzata all’ingresso
in concessionaria, notificare aila forza vendita l’arrivo di un cliente, gestire i messaggi pubblicitari e informativi
in maniera mirata in concessionaria e le offerte post-visita, aumentare l’appeal delle vetture esposte in base
alle informazioni richieste dal cliente interessato all’acquisto, gestire i sondaggi e i questionari di gradimento.
Sempre in questo contesto di sviluppo abbiamo deciso di implementare in una delle nostre concessionarie un progetto
pilota sull’analisi dei dati di frequentazione degli showroom attraverso l’utilizzo di una tecnologia innovativa che traduce
il flusso di visitatori in un algoritmo per un conteggio anonimo ma univoco. L’analisi dell’affluenza che avviene attraverso
dispositivi video non prevede lo stoccaggio di immagini per rispetto della privacy dei visitatori. Indubbiamente però
questa tipologia di analisi è molto utile per approfondire la dinamica commerciale, mettendo in collegamento in maniera
diretta l’attivazione di azioni promozionali con l’affluenza nei punti di vendita. Ad esempio lo scorso weekend abbiamo
organizzato una due giorni di porte aperte e grazie a questo progetto abbiamo rilevato un incremento intorno al 50-60%
di visitatori. L’analisi di questo flusso ci consente di conoscere meglio le attese dei clienti e avvicinarli maggiormente
e più efficacemente all’offerta Renault.
Quali sono gli obiettivi raggiunti in termini di rafforzamento del brand aziendale?
DALLE NOSTRE INDAGINI DI SODDISFAZIONE DEL CLIENTE abbiamo raggiunto un ottimo posizionamento
per la raccomandabilità, raggiungendo una percentuale di oltre l’80% sia in vendita sia in post-vendita, che è ancora
in crescita. In Italia la percentuale di fedeltà media nei confronti dell’acquisto dell’auto è intorno al 35% quindi c’è molto
lavoro da fare per posizionarsi meglio sul mercato. Il fatto che più di 8 clienti su 10 siano risultati soddisfatti non solo
del prodotto ma anche della cura ed assistenza è per noi un risultato importante. Un tratto che ci contraddistingue come
azienda è indubbiamente l’apertura all’innovazione anche al fine di sviluppare una migliore user experience.
Qual è nel vostro settore il valore aggiunto dei dati e dell’analisi dei dati?
UN FATTORE CHIAVE PER IL SUCCESSO DELLE NOSTRE INIZIATIVE è l’integrazione delle informazioni:
i dati raccolti, ovviamente con il consenso dei clienti, devono poter essere correlati e analizzati nel complesso
dei sistemi informativi aziendali (preventivazione e vendite, CRM, interventi di officina, dati provenienti dalle vetture
connesse, logistica, stock, customer care, competitività, web analytics, questionari di customer satisfaction).
Una corretta analisi dei dati permette una migliore conoscenza con la quale è possibile fare correlazioni
tra efficacia risorse e vendite finali. In merito ai dati commerciali c’è ovviamente un interesse in termini di efficacia
ma oggi di dati commerciali ne abbiamo fin troppi.
Quello che stiamo cercando di ottenere sono dati di qualità che vanno isolati, attraverso strumenti di business
intelligence, dall’enorme flusso al fine di poter riconoscere il trend commerciale. La ridefinizione dei processi ha impatti
positivi anche in termini economici: in Renault Italia ad esempio con un investimento di 50 mila euro su uno strumento
integrato di business intelligence siamo riusciti a coprire quasi tutte le necessità di analisi dell’azienda in tutti i vari reparti.
17
TECH
Monica Franceschini
@twittmonique
Con più di quindici anni di esperienza
su tecnologie Java, ha sviluppato
progetti per l’industria,
la finanza, le telco e la pubblica
amministrazione ed è stata membro
del team SpagoBI Labs in ambito
Business Intelligence.
Ora è responsabile della definizione
delle architetture Big Data
per il Big Data and Analytics
Competency Center di Engineering.
Si occupa principalmente di guidare
il Gruppo nello sviluppo di progetti
e POCs, di offrire servizi di consulenza
ai clienti e di coadiuvare la fase
di pre-vendita apportando il contributo
sulle tecnologie Big Data.
Eroga corsi interni e per i clienti
per conto della Scuola di
IT & Management
“Enrico Della Valle” e svolge inoltre
attività di sostegno alla diffusione
delle competenze di Engineering
in questo contesto, sia a livello
nazionale che internazionale.
FOCUS
Cloud
utile nella gestione
dei Big Data ?
QUALI LE OPPORTUNITÀ E I RISCHI DI QUESTA SCELTA
>> I termini Cloud e Big Data sono in voga da tempo
e vengono spesso associati generando a volte incertezze
e malintesi, sia involontari che studiati a tavolino, da parte
di fornitori di prodotti o servizi a fini promozionali
e di marketing. Vale quindi la pena soffermarsi a riflettere
sulle reali potenzialità offerte da questo scenario.
>> Il fenomeno dei Big Data, supportato da tecnologie
che hanno come capostipite il progetto open source
Hadoop che ha recentemente compiuto 10 anni di vita,
è talmente consolidato che la società di ricerca Gartner,
da qualche anno, lo identifica come una pratica
e non come una tecnologia emergente.
>> Nella realtà però richiede di superare difficoltà legate
all’individuazione di scenari analitici ragionevoli e
profittevoli, alla molteplicità di competenze specifiche
richieste a chi deve sviluppare le soluzioni, alla scelta
tra i diversi strumenti software disponibili
e infine all’individuazione dell’infrastruttura hardware
e software di supporto.
¿
18
“Tutto dovrebbe
essere reso
il più semplice
possibile, ma non più
semplicistico.”
- Albert Einstein
Big Data e Cloud
Big Data as a Service?
SECONDO FORBES, ENTRO IL 2020 ogni essere umano genererà
1,7 Mb di informazioni al secondo, e un terzo di queste sarà gestito
in cloud. Da una recente ricerca condotta su 1.400 aziende
in 77 Paesi da un produttore di soluzioni analitiche su Hadoop emerge
che il 53% degli intervistati ha già rilasciato la propria piattaforma Big
Data in cloud e che il 72% ha in programma di farlo in un futuro
prossimo. Fin qui si tratta di un ragionamento causa-effetto abbastanza
scontato e inequivocabile: portiamo i Big Data sul cloud per facilitarne
la gestione.
CLOUD PROVIDER come IBM, Microsoft e Amazon espongono servizi
Big Data adottando soluzioni proprietarie o open source in grado di
soddisfare le molteplici esigenze di progetto. L’offerta è vastissima
e valida e solleva sia dalla responsabilità della scelta, delegandola di
fatto all’autorevolezza data dal brand del fornitore, sia dalla gestione
e manutenzione delle soluzioni software.
La platea di opzioni resa disponibile dai cloud provider resta comunque
limitata rispetto a quella a disposizione dell’attività progettuale
di definizione di un’architettura. Paradossalmente ciò può risultare
confortante e rassicurante per un architetto IT, vista la notevole mole
di strumenti tra i quali è chiamato a scegliere. Un’ulteriore
considerazione, che riguarda soprattutto la possibilità di fruizione
dei Big Data in modalità servizio (Big Data-as-a-Service) riguarda
il cosiddetto lock-in, ovvero la difficoltà di svincolarsi da un fornitore
di tecnologia senza sopportare costi notevoli.
Vincolarsi ad una scelta tecnologica, in una fase di vivacità
del panorama Big Data e delle molteplici opportunità che questo
offre, potrebbe rivelarsi estremamente controproducente, anche
nell’arco di un breve periodo temporale.
Ma ci sono diversi aspetti da considerare e non tutti portano vantaggi
sicuri. Il cloud possiede caratteristiche intrinseche particolarmente
appetibili per la gestione dei Big Data, quali la disponibilità di risorse
a richiesta e la facilità di approvvigionamento (on demand/fast
provisioning), l’elasticità (capacità di adattarsi a mutevoli carichi
di lavoro) e la flessibilità dell’infrastruttura, la possibilità di ottenere
un time-to-market vantaggioso e quella di abilitare una spesa costruita
in funzione dell’effettivo utilizzo delle risorse (pay-as-you-go capacity).
La possibilità data dal cloud di acquisire in tempi rapidissimi macchine
virtuali su cui misurare la propria soluzione Big Data è efficace e riduce
i tempi di avviamento del progetto oltre ad agevolare eventuali
sperimentazioni tecnologiche o la realizzazione di attività dimostrative
(proof of concept). Scegliendo opportunamente i fornitori
della tecnologia - i cloud provider - possiamo conoscere i costi a priori
e contenerli senza sprechi o brutte sorprese.
Va considerato che esistono diverse modalità di fruizione del cloud
e anche per questo va fatta una scelta oculata.
E la
protezione dei dati?
UNA DELLE PRINCIPALI PROBLEMATICHE legate all’adozione
di infrastrutture cloud per ospitare i Big Data è la protezione
dei dati. Molti settori, in particolare quello finanziario, spesso
rinunciano al cloud per il timore di violazioni ai propri dati, sia per
quanto riguarda il traffico in rete, sia per la dislocazione fisica degli
stessi. Un altro aspetto da considerare riguarda la rispondenza
alle normative relative alla privacy che sono differenti nei diversi Paesi.
L’archiviazione di informazioni sensibili sulla nuvola, se può offrire
costi inferiori rispetto ad altre soluzioni, è assoggetta alle pratiche
di sicurezza dettate dal service provider.
Una possibile soluzione, che non consente di usufruire appieno
dei vantaggi economici offerti dal cloud pubblico, è quella di affidarsi
a fornitori di cloud privati o di cloud ibridi (hybrid clouds).
Quest’ultima opzione consente di concentrare le attività più delicate
e i dati sensibili su private cloud (che nella soluzione on-premises può
risiedere anche presso il proprietario delle informazioni) e conservare
sul cloud pubblico quelle provenienti da dati esterni che, anche a fronte
di un volume consistente, richiedono minore protezione, consentendo
di ottenere comunque un sufficiente risparmio economico.
19
TECH
Marco Caressa
@mcaressa
Ingegnere nucleare ceduto a titolo
definitivo all’informatica.
25 anni di coding, progettazione,
ricerca e management ICT
in Engineering Ingegneria Informatica.
Attualmente si occupa di ingegneria
dell’offerta, attraverso la proposizione
di soluzioni architetturali e tecnologiche
innovative sulle diverse aree di mercato.
PMP®, PMI-ACP®, appassionato
di Project Management tradizionale
e “agile”. Blogger, trainer, mentor
e coach per la preparazione
alla certificazione PMP.
È intervenuto in diversi eventi formativi
e webinar di settore per la Scuola
di IT & Management di Engineering,
per il Project Management
Institute e per la LUISS University.
FOCUS
Project Management e
Intelligenza Artificiale
COME I METODI E GLI ALGORITMI DI MACHINE LEARNING POSSONO AFFIANCARE
GLI STRUMENTI DI PROJECT MANAGEMENT ANALYTICS PIÙ TRADIZIONALI
In un precedente articolo di Ingenium pubblicato nella versione on-line
abbiamo fatto conoscenza con alcuni strumenti e tecniche di Project Management
Analytics, utili per far emergere dai dati di progetto regolarità e andamenti
di supporto al processo decisionale.
Il passo successivo è derivare dai pattern di dati delle inferenze, per sviluppare modelli
regressivi/predittivi attraverso il contributo della AI (Artificial Intelligence).
La crescente disponibilità a basso costo di algoritmi di machine e deep learning
determinerà presto l’evoluzione dei software di Project Management da sistemi
di supporto alle decisioni a veri e propri sistemi intelligenti.
Cosa potete fare già oggi e cosa potrete
fare presto con l’AI, partendo dai dati
di progetto, per automatizzare
un numero sempre maggiore di funzioni
e attività di Project Management?
NEI MODELLI DI ANALYTICS, sia quelli statistici come il PERT o il Metodo Monte Carlo, sia quelli algebrici come
la tecnica AHP, i dati di partenza provengono da misure sul progetto (work performance raw data) o sono indicati
manualmente da esperti umani. In una simulazione Monte Carlo potete partire da una three-point estimation, che
probabilmente avreste fatto comunque per valutare tempi e costi di progetto. E siete sempre voi che attribuite i pesi
numerici ai diversi fattori di decisione nella tecnica AHP.
Le vostre valutazioni di esperti umani possono derivare dall’esperienza - il cosiddetto “expert judgement” - oppure
dal confronto con dati storici di sintesi, che possono essere usati a scopo predittivo in modo automatico. La premessa
fondamentale è l’archiviazione in un database storico dei dati di progetto nella maniera più dettagliata e strutturata
possibile (per esempio i dati di stima, i dati effettivi di tempi, costi e risorse utilizzati su ciascuna attività nei progetti
precedenti, magari raggruppati per aree tematiche o tipologia di progetto).
LA CONOSCENZA CONTENUTA NEI DATI STORICI può essere utilizzata per sviluppare un modello predittivo con
metodi di Machine Learning (ML), come reti neurali, alberi di decisione o SVM (Support Vector Machine). Alcuni domini
del Project Management di maggiore applicazione del ML sono il Quality Management (defect prediction), il Risk
Management, il Time & Cost Management. Ad esempio, un approccio predittivo ai tempi e costi di progetto richiede
la messa a punto di una “funzione o modello predittivo” attraverso la scelta di uno specifico metodo di ML che, in accordo
ai dati storici, possa fornire in output la previsione di tempi e costi, sia per l’intero progetto che per specifiche attività. In
molti casi si tratta di una seconda giovinezza di metodi e approcci, un tempo confinati in nicchie di ricerca a causa
della loro complessità computazionale, oggi divenuti praticabili grazie al costante calo dei costi di storage e capacità
di calcolo, come i metodi di Deep Learning, essenzialmente basati su reti neurali (note dagli anni ’60) molto più grandi
e complesse di un tempo.
20
Analytics + Machine Learning = PMBot?
UN BOT È UN’APPLICAZIONE di Intelligenza Artificiale che, semplificando molto, raccoglie e analizza dati, evidenziando
pattern e imitando – con l’obiettivo di migliorarli – comportamenti umani. Sono già disponibili bot per ordinare cibo
o prenotare un volo on-line, o chatbot che sostituiscono sistemi di assistenza on-line tradizionali.
Un bot può essere programmato per imparare dalle vostre best practice. Può utilizzare algoritmi di machine learning
per comprendere come lavorate, come analizzate i problemi, come prendete decisioni, per diventare a tutti gli effetti
una vostra estensione, un vero e proprio assistente virtuale.
Immaginate di aver fatto un assessment dei rischi di progetto. Ciascun rischio individuato può avere impatto su
obiettivi, tempi, costi, change management. Un ipotetico PMBot potrebbe analizzare diversi scenari in tempo reale o
quasi reale per suggerire il miglior piano di mitigazione dei rischi in base alle priorità e alle best practice di contesto.
Potrebbe simulare l’impatto dello specifico rischio su tempi e costi di progetto, inviando l’esito dell’analisi sul vostro
smartphone mentre camminate per recarvi alla riunione di pianificazione col vostro team, aiutandovi a prendere
decisioni migliori e più informate in base ad un’analisi dei dati la più accurata possibile.
Conclusioni
AFFIANCANDO AGLI STRUMENTI di Project Management Analytics statistici e algebrici i metodi e algoritmi di Machine
Learning, in sé non nuovi ma oggi disponibili a costi sempre più bassi, il vostro ruolo di “capo progetto umano”
cambierà. Parzialmente liberati dai vostri PMbot, potrete concentrarvi sui task non ripetitivi e difficilmente
automatizzabili, come la comunicazione con gli stakeholder e la gestione del team. Insomma, in tutte quelle attività dove
creatività, intuito e la vostra esperienza di Project Manager saranno insostituibili per molto tempo ancora. Per rendere
possibile tutto questo, però, dovete prepararvi per tempo, raccogliendo e archiviando con struttura e granularità
adeguate i dati dei vostri progetti: in essi è racchiusa gran parte della conoscenza che vi occorre.
21
COMPLESSITÀ
COLLETTIVITÀ
IDENTITÀ
Nel kick-off 2017 sono presentati i progetti più significativi dell'ultimo anno.
Li raccontano:
Morena Pietraccini
Dario Fabbri
Andrea Salvaggio
Valerio Lupi
Piero Luisi
Carlo Riccucci
Marco Breda
Alessandro Pandozy
Giovanni Leva
Andrea Peron
Lorenzo Coslovi
Vito Morreale
Maurizio Mariani
Alessio Derme
Marco Zanuttini
22
DIVERSITÀ
Auditorium
Parco della Musica
#KICKOFF_ENG2017
SPECIALE
KICK-OFF
ENGINEERING
2017
23
Roma, 27 febbraio 2017
SPECIALE
KICK-OFF
ENGINEERING
2017
Auditorium Parco della Musica
Roma, 27 febbraio 2017
..........................................................................................................................................................
COMPLESSITÀ
COMPLESSITÀ
COMPLESSITÀ
Andrea Salvaggio
@randazzos75
Engineering
Morena Pietraccini
@mpietraccini
Engineering
Dario Fabbri
@darfabbri
Engineering
Valerio Lupi
@valeriolupi74
Engineering
DIGITAL
WORKPLACE
INITIATIVE
INNOVARE NELLA
PUBBLICA
AMMINISTRAZIONE
SISTEMA TLC
PER LA LINEA 4
DI METRO RIO
LA PARTNERSHIP di Engineering con Comau,
società specializzata in automazione e robot
di saldatura, prevede la realizzazione di un
framework applicativo per la raccolta in cloud
dei dati dei macchinari e l’analisi degli stessi,
mediante l’uso di algoritmi di machine
learning, per analizzarne il comportamento
e l’andamento. Gli algoritmi relazionano
questi valori con gli eventi significativi che
si manifestano in campo, come fermate,
degrado delle prestazioni, malfunzionamenti
e guasti, al fine di definire modelli predittivi
in grado di prevedere e anticipare eventuali
nuove situazioni di guasti e degrado,
riducendo così le perdite produttive
all’interno della fabbrica.
IL PROGETTO “GIUDICO” (Giustizia Digitale
Contabile) rappresenta il principale sistema
informativo della Corte dei Conti e permette
la gestione completa dell’operatività delle
Sezioni e delle Procure. Consente alle varie
tipologie di utenza della Corte dei Conti
(amministrativi, magistrati e procuratori)
l’esecuzione dei workflow di lavorazione
della documentazione e delle comunicazioni,
a partire dalla fase istruttoria fino
al monitoraggio dell’esecuzione
delle decisioni. Fornisce, inoltre, agli avvocati
la possibilità di accedere al fascicolo
di giudizio e ai cittadini di consultare
le sentenze attraverso funzioni di ricerca
semantica. La versione realizzata fornirà
tutti gli strumenti necessari all'attuazione
del processo contabile telematico.
IL PROGETTO RAPPRESENTA per Engineering
la prima esperienza di realizzazione dell’intero
sistema di telecomunicazioni che costituisce
l’infrastruttura tecnologica del sistema
informatico delle metropolitane.
Nove i sottosistemi componenti: rete di dati,
telefonia, comunicazioni radio, sistema
di supervisione e controllo e di diffusione
sonora, informazioni ai passeggeri,
bigliettazione, videosorveglianza e controllo
accessi.
La data di rilascio improrogabile (l’apertura
delle Olimpiadi di Rio 2016), l’ambiente
multiculturale, i valori in gioco,
la complessità delle interfacce e le difficoltà
strutturali sono stati gli elementi
caratterizzanti il contesto all’interno del quale
il progetto si è inserito.
..........................................................................................................................................................
24
SPECIALE
KICK-OFF
ENGINEERING
2017
Auditorium Parco della Musica
Roma, 27 febbraio 2017
..........................................................................................................................................................
COLLETTIVITÀ
Piero Luisi
@piero_luisi
Engineering
COLLETTIVITÀ
Carlo Riccucci
@carloriccucci
Engineering
COLLETTIVITÀ
Marco Breda
@erbremar
Engineering
Alessandro Pandozy
@bitglueagency
bitglue
DESIGN
PARTECIPATIVO
Cliente e utenti
coinvolti per progetti
innovativi
ANALYTICS
PER INAIL
Un caso di successo
JACK
CONTEMPORARY
ARTS TV
E VIRTUAL MAXXI
TRE PROGETTI ACCOMUNATI dallo stesso
metodo, il design partecipativo, e orientati
verso un comune obiettivo: creare servizi
digitali per il grande pubblico dall’esperienza
d’uso efficace e appagante.
• Il progetto SUS riguarda la realizzazione
ex-novo del portale web unico che i cittadini
sardi utilizzeranno per avvalersi di tutti
i servizi on-line offerti dalla Regione.
Il suo design supporta stili di navigazione
differenti e permette accessi alternativi
e multidimensionali ai servizi.
• Varese Digitale è un progetto
di trasformazione digitale dei servizi pubblici
dell’Area Vasta di Varese, in cui tutti
i fornitori del territorio (Comune, Università,
Utility, Trasporti) partecipano alla costruzione
dell’ecosistema di servizi digitali rivolti
al cittadino e all’impresa.
• Il sistema Allerta Meteo è l’ambiente digitale
per la gestione delle informazioni
e delle comunicazioni con cui la Protezione
Civile locale avverte, in modalità multicanale,
la cittadinanza dell’approssimarsi
del rischio causato da fenomeni ambientali
prevedibili e monitorabili.
L'ISTITUTO OGNI ANNO eroga finanziamenti
a fondo perduto a imprese per progetti
di miglioramento dei livelli di salute e
sicurezza nei luoghi di lavoro. Le concessioni
rispettano criteri di precedenza temporale
delle richieste e di positività delle verifiche
tecniche, amministrative e di correttezza
realizzativa. Insieme a INAIL sono state
pensate e realizzate diverse analisi avanzate,
usando tecniche di data mining per capire
se i progetti finanziati sono stati efficaci
nella riduzione degli infortuni, per prevedere
l’esito delle richieste di finanziamento,
per esplorare i motivi alla base della loro
promozione, bocciatura o ritiro.
Sono state impiegate tecniche di elaborazione
avanzata dei testi (text mining), in grado
di estrarre e rappresentare il significato
in essi contenuto in una forma adatta ai
trattamenti successivi. Attraverso di esse
e impiegando anche altri algoritmi, tra cui
quelli di classificazione e di costruzione di
mappe e grafi, si è potuto dare una risposta
alla domanda di importanza capitale
che il cliente si poneva: “Sì, il finanziamento
è utile, gli infortuni si riducono”.
LA PARTNERSHIP TRIENNALE con il MAXXI
- Museo delle Arti del XXI secolo - instaurata
da Engineering nel 2016, prevede
la realizzazione di progetti innovativi
e strategici. I primi due realizzati:
• JACK Contemporary arts tv, una web tv
internazionale dedicata all’arte
contemporanea che vede, già al momento
del lancio, la presenza di 14 istituzioni
di 7 Paesi diversi
• Virtual MAXXI, una mostra in realtà virtuale
esposta permanentemente presso il museo,
per la quale Engineering ha curato oltre
alla realizzazione dell’app fruita dai visitatori
anche la digitalizzazione dei plastici
architettonici oggetto della mostra.
Con questa collaborazione, Engineering offre
un contributo alla diffusione dell’arte e della
cultura nel nostro Paese, anche nell’ottica
del percorso di responsabilità sociale
intrapreso dall’azienda da alcuni anni.
..........................................................................................................................................................
25
SPECIALE
KICK-OFF
ENGINEERING
2017
Auditorium Parco della Musica
Roma, 27 febbraio 2017
..........................................................................................................................................................
IDENTITÀ
IDENTITÀ
IDENTITÀ
Giovanni Leva
@giovanni7218
Engineering
Andrea Peron
@andreaxon
Engineering
Lorenzo Coslovi
@webresultsit
WebResults
LA KNOWLEDGE
BANK DEL FUTURO
Deal management
per BNL
IN VIAGGIO
ALLA CONQUISTA
DELL’AUTOMOTIVE
STORYLOOP
Content creation
per B2B marketing
IL PROGETTO SVILUPPATO PER BNL Italia
e sponsorizzato dalla capogruppo BNP
Paribas, è il sistema di CRM adottato
dall’Area Commerciale della Divisione
Corporate. La soluzione implementata
su piattaforma Microsoft Dynamics 365
prevede un tool user friendly per la gestione
del piano di azione commerciale da parte
delle figure commerciali della Divisione,
per la gestione delle opportunità
e delle relazioni commerciali con i clienti,
e per il monitoraggio, con report
e cruscotti, della pipeline commerciale.
Il tool rende più semplice la pianificazione
degli obiettivi e la gestione delle opportunità
commerciali, facilita la condivisione
delle informazioni tra tutti gli attori
coinvolti e alleggerisce le figure commerciali
della banca dalle incombenze di alcune
attività di reportistica.
Questa iniziativa rientra in un programma
lavori DATA&CRM che ha l’obiettivo di
realizzare la knowledge bank del futuro e una
maggiore organizzazione e gestione dei dati
sui clienti del gruppo BNP Paribas.
Il progetto pilota italiano farà da benchmark
per le altre banche dei mercati domestici.
LA RAPIDA EVOLUZIONE e diffusione
delle nuove piattaforme digitali, al pari delle
rivoluzioni in corso nel settore Automotive,
presentano nuove opportunità di business,
aprono scenari innovativi legati ai processi
di vendita e rendono possibile l’ingresso
di nuovi operatori di mercato dal mondo
della tecnologia. Il mondo fisico e quello
digitale devono essere integrati: questo è
l’aspetto che contraddistingue “ENG4AUTO”,
il brand lanciato alla fine del 2016
che caratterizza l’offerta di Engineering
a supporto della Digital Transformation
e della Customer Experience nei processi
di vendita e post-vendita per i Brand
Automotive, sia che si tratti di produttori
che di filiali nazionali di produttori esteri.
L’ADOZIONE DEL PARADIGMA della content
creation per attività di marketing in ambito
B2B è l’elemento di innovazione che ha
permesso ad HPE EMEA di ottenere
un’importante crescita in termini
di promozione dei propri prodotti e dei servizi
offerti dei partner. Tale risultato è stato
possibile favorendo lo sviluppo di una
community on-line che consentisse al vendor
e ai suoi partner di contribuire, con contenuti
di qualità e valore, alla realizzazione di una
vetrina web per stimolare lo sviluppo
di nuove opportunità nell’obiettivo comune
di crescita del business.
L’abilitatore tecnologico di queste iniziative è
uno strumento CMS dedicato, sviluppato su
platform cloud che permette con facilità di
pubblicare su portale web i contenuti a
disposizione strutturati e collegati tra loro,
per moltiplicarne spontaneamente
la consultazione amplificandone l’impatto.
..........................................................................................................................................................
26
SPECIALE
KICK-OFF
ENGINEERING
2017
Auditorium Parco della Musica
Roma, 27 febbraio 2017
..........................................................................................................................................................
DIVERSITÀ
DIVERSITÀ
DIVERSITÀ
Vito Morreale
@vitomorreale
Engineering
Maurizio Mariani
@mmariani77
Engineering
SINTESYS:
SECURITY
INTELLIGENT
SYSTEMS
CLOUD
GAMING
LA RIVOLUZIONE
DELL’ERA
“POST-APP”
IL PROGETTO, TERMINATO NEL 2015
ha rappresentato il punto di partenza per
la costruzione di una piattaforma open source
per la scoperta, il monitoraggio, l’analisi
e l’investigazione di sorgenti dati multimodali
e disponibili su Internet, a supporto
degli organi investigativi e di Intelligence
per l’identificazione e la prevenzione
di attività criminali e terroristiche on-line.
La piattaforma si basa su tecniche innovative
di text mining, audio analysis, video/image
analysis, information fusion e intelligenza
artificiale, il cui utilizzo integrato consente
di fare emergere situazioni di potenziale
pericolo che la valutazione disgiunta
delle singole sorgenti non riuscirebbe
ad evidenziare, come ad esempio
la segnalazione di frasi e contenuti testuali
minacciosi su forum, blog e chat, soggetti
pericolosi in contenuti multimediali
pubblicati su social media, oggetti
pericolosi in immagini e video, relazioni
tra individui sospetti.
NEGLI ULTIMI ANNI il modo di fruire
dei contenuti è cambiato radicalmente
e ne sono testimonianza i servizi
di TV on-demand come NETFLIX e TIM Vision
e i servizi di musica on-line come Spotify
e TIM Music. La sfida di Engineering,
in collaborazione con TIM, è quella
di utilizzare lo stesso concetto e applicarlo
al mondo dei videogames per realizzare
un servizio innovativo basato su tecnologie
cloud: accedere ad un ampio catalogo
di giochi costantemente in evoluzione
utilizzando una semplice applicazione
client installata su un set-top box android
o un pc, demandando tutte le attività
computazionali ai server remoti.
NEL PROSSIMO FUTURO si assisterà alla
rivoluzione dell’era “Post-App”, una
trasformazione radicale del mondo delle App
attualmente conosciute. I dispositivi
e le interfacce delle applicazioni saranno
sempre più integrati con Realtà Aumentata e
Virtuale, tecnologie in via di consolidamento
anche nelle soluzioni realizzate da OverIT.
Tra queste, Geocall Work Force Management
racchiude al suo interno le più recenti
innovazioni tecnologiche, tra cui la Realtà
Aumentata, che produce un aumento della
percezione dell’ambiente in cui l’operatore
lavora e riduce la complessità delle
operazioni da eseguire, e la Realtà Virtuale,
che eleva di un ulteriore livello la modalità
di presentazione delle informazioni
nello svolgimento dei lavori.
AR e VR: l’innovazione virtuale che
semplifica l’esecuzione delle attività
operative sul campo.
Alessio Derme
@aderme
Telecom Italia
Marco Zanuttini
@overitspa
OverIT
..........................................................................................................................................................
27
www.ingenium-magazine.it
@ingeniumTW
Direttore Responsabile
Stefano Epifani
Responsabile Editoriale
M. Concetta Lattanzio
Caporedattore
Sonia Montegiove
Coordinamento Editoriale
Marcello Migliavacca
Progetto grafico
e impaginazione
Bonifacio Pontonio
Elena Minafra
Roberto Luciani
Stampa
Intese Grafiche Brescia