Leggi l`articolo di Andrea Melegari

Download Report

Transcript Leggi l`articolo di Andrea Melegari

Cyber
PROVE DI CYBER WARFARE
MANDANO MAVERICK IN PENSIONE?
Mentre dovremo aspettare qualche decennio per vedere eserciti
composti da robot, nel contesto della cyber warfare sono già
disponibili sistemi in grado di operare a una velocità impossibile
all’essere umano. Nelle intenzioni del Pentagono si tratta sempre
di sistemi che non puntano a sostituire l’uomo, ma a supportarlo in
modo efficace
ANDREA MELEGARI chief marketing & innovation officer – CY4Gate Srl
Nel mondo militare, e nell’immaginario collettivo creato anche dal celebre film Top Gun, interpretato da un giovanissimo Tom Cruise, i piloti di
aerei da caccia sono sempre stati descritti come il
frutto di una selezionatissima élite di Superman.
Ma c’è chi mette in dubbio la supremazia del genere umano. In un duello simulato, il colonnello
Gene Lee, pilota pluridecorato, istruttore di volo e
abituato a confrontarsi ed esercitarsi con simulatori di volo in battaglie virtuali, è stato abbattuto
in diversi test da Alpha, un software d’intelligenza
artificiale sviluppato in Ohio da un piccolo pool di
imprese e ricercatori universitari.
“Sono rimasto sorpreso dalla reattività e dalla capacità del software di anticipare le mie intenzioni e di reagire istantaneamente ai miei cambi di
strategia in modo da vanificare le mie manovre e
i miei attacchi”. Il successo di Alpha s’inserisce
perfettamente in un dibattito di grande attualità:
quali compiti affiderà il Pentagono ai robot?
Il Pentagono, infatti, ha deciso di intensificare gli
investimenti in algoritmi d’intelligenza artificia22
le nel tentativo di colmare un gap con l’industria
privata, dove i robot trovano già grande impiego
in molte attività che un tempo costituivano una
prerogativa esclusivamente umana.
Come spesso accade oltreoceano, alle intenzioni
si affiancano sempre investimenti adeguati che,
secondo le dichiarazioni del vice ministro della
Difesa americano Robert Work dovrebbero variare dai 12 ai 15 miliardi di dollari nel budget previsto per il 2017. Lo sviluppo di nuove forme d’intelligenza artificiale applicate alle tecnologie già
in uso è considerato infatti un fattore-chiave per
garantire agli Stati Uniti un vantaggio strategico
nel dominio militare.
Mentre dovremo probabilmente aspettare qualche decennio per vedere eserciti composti da
robot, in altri contesti l’intelligenza artificiale e
le tecnologie di machine learning si evolvono più
rapidamente e sono già impiegate.
Si tratta, ad esempio, di software in grado di analizzare enormi volumi di dati con l’obiettivo di intercettare segnali di cambiamento sociale e fornire
ottobre 2016
agli analisti indicatori utili per mitigare il cosiddetto effetto sorpresa. Recentemente, la società
italiana Expert System, specializzata nell’analisi
strategica di grandi moli di informazioni, aveva
anticipato chiaramente il risultato del referendum
sulla Brexit elaborando automaticamente il contenuto di migliaia di contenuti pubblicati su Twitter.
Anche nel contesto della cyber warfare sono già disponibili sistemi in grado di operare a una velocità impossibile all’essere umano. Nelle intenzioni
del Pentagono si tratta sempre di sistemi che non
puntano a sostituire l’uomo, ma a supportarlo in
modo efficace. Robert Work ha infatti affermato
che “l’intenzione è dotarsi di sistemi che in situazioni di attacco siano in grado di garantire protezione e supporto grazie alla reattività e alla velocita che software d’intelligenza artificiale sono
in grado di garantire, ma l’uomo rimarrà l’unico
a decidere se e quando esercitare la forza letale”.
Nonostante queste rassicurazioni, il pensiero torna alla finzione cinematografica del film Terminator, dove Skynet, la rete immaginaria composta
71
da super-computer, decide che per adempiere al
compito di salvaguardare il mondo, la migliore
strategia è l’eliminazione del genere umano.
È comprensibile come questa discussione stia
sviluppando un acceso dibattito su impatti e rischi sociali di un utilizzo improprio dell’intelligenza artificiale. Google, in collaborazione con
l’Università di Stanford, ha identificato i fattori
critici e una serie di raccomandazioni che ogni
programmatore dovrebbe considerare quando
sviluppa un software di intelligenza artificiale,
così da evitare la creazione di robot che possano
essere rischiosi per gli esseri umani.
Ma la vera perplessità è un’altra. Che cosa ci deve
preoccupare di più?
Il fatto che un algoritmo di intelligenza artificiale abbia battuto un esperto top gun o che questo
algoritmo sia stato sviluppato da Nick Ernst, un
giovane laureato, fondatore e ceo di Psibernetix,
una start up con sede in Ohio che nel proprio sito
web, a oggi, dichiara un team di tre persone (fondatore incluso)?
23