Spieghiamo cosa sono queste tecnologie.
La blockchain è una tecnologia balzata agli onori della cronaca grazie alla cripto-valuta più famosa, il Bitcoin. Per garantire la sicurezza e la veridicità delle transazioni viene utilizzato un database (spesso chiamato semplicemente DB) decentralizzato e cifrato dove sono registrati tutti i movimenti (l’equivalente del libro mastro).
Tutti sanno cosa vuol dire cifrato, ma vediamo cosa vuol dire decentrato: un DB tradizionale contiene una serie di dati che vengono registrati su un server; chi ha accesso al server può, teoricamente modificare i contenuti del DB.
La blockchain, al contrario, è registrata su tutti i dispositivi degli utenti che utilizzano quel servizio (in realtà quasi tutti poiché, per motivi di spazio sui dispositivi mobile quando è molto pesante, come nel caso del Bitcoin dove la blockchain pesa centinaia di GB, viene scaricata solo parzialmente), questo implica che se un malintenzionato volesse modificare dei dati dovrebbe modificarli contemporaneamente su migliaia di computer.
In tal modo si ottiene quella che viene definita la disintermediazione della certificazione, quindi non un ente centrale che certifica e garantisce i dati (come la BCE nel caso dell’Euro), ma tutta la comunità che utilizza il servizio.
Oltre alla portata rivoluzionare di tale tecnologia, che prima di essere metabolizzata dal sistema ha allarmato parecchio l’establishment, tale strumento rende a prova di contraffazione qualsiasi documento, per esempio è possibile utilizzarla per garantire la regolarità delle elezioni online (esistono proposte in tal senso per le elezioni all’estero), oppure rendere impossibile modificare gli esiti dei concorsi pubblici (ho mandato una nota in tal senso al Ministero della Difesa).
Avremo bisogno in tempi brevi di programmatori e analisti in grado di applicare la blockchain in campi dove la disintermediazione possa garantire la veridicità dei dati; chiaramente non ha senso complicarsi la vita dove non ci sono rischi di truffe e nelle aziende e negli enti dove non c’è un interesse pubblico ad un controllo decentralizzato, come gli archivi aziendali oppure le liste pubbliche (tipo gli elenchi telefonici) che continueranno ad avere bisogno di informatici “tradizionali” per sviluppare DB e interfacce di accesso, ma ce ne sarà bisogno, invece, in tutti quei casi dove gli utenti possano preferire diventare essi stessi i controllori poiché storicamente, come nei concorsi pubblici, non ci si può fidare al 100% delle autorità che gestiscono i dati.
A proposito di dati, parliamo dei Big Data: nel definirli, oltre a dirvi che si tratta di una grande massa di dati, vi consiglio di usare la regola delle tre “V” per distinguerli dai dati normali: Velocity, poiché si accumulano velocemente; Variety, in quanto sono molto vari; Volume, perché sono veramente tanti.
Negli USA, in Cina e in Ue la ricerca e le implementazioni legate alla tecnologia Big Data procedono celermente, in particolar modo in Cina dove con oltre 1 miliardo e 300 milioni di persone che non si sognerebbero nemmeno di invocare il diritto alla privacy, le grandi aziende hanno campo libero.
In Europa, invece, dove storicamente e culturalmente teniamo alla privacy, l’UE cerca di rendere le cose più difficili ai nostri competitor con il Regolamento UE GDPR, che prevede anche per le ditte extra-europee delle limitazioni e degli obblighi in relazione all’utilizzo di essi.
In ogni caso dobbiamo cercare come UE e come Italia di non rimanere indietro, per tale motivo ritengo che nelle scuole debbano partire al più presto percorsi di formazione rivolti agli insegnanti per renderli in grado di garantire agli alunni lo studio di Big Data e Data Fusion e la comprensione della controparte dei Big Data, ovverossia l’Intelligenza Artificiale che si nutre di essi ed evolve grazie ad essi.
Delineiamo, a scanso di equivoci, il concetto di Intelligenza Artificiale, spesso abbreviata in IA oppure nell’anglofono AI: in informatica l’intelligenza è la capacità di risolvere problemi, per farlo i computer usano algoritmi in grado di imparare sia dalle esperienze altrui (e qui servono i big data come il pane) sia dalle proprie.
Facciamo un esempio con gli scacchi, che sono considerati un gioco di intelligenza per eccellenza: gli umani per giocare a scacchi imparano le regole e poi apprendono, in parte dalle proprie esperienze di gioco e in larga parte, se vogliono diventare grandi giocatori, da libri e video che illustrano tattiche e partite famose.
Per vincere la partita è necessario riconoscere schemi e prevedere le future mosse dell’avversario. Deep Blue di IBM è stato il primo computer a battere un umano, non un umano qualsiasi ma il campione del mondo, nella famosa partita del 1996, per farlo gli ingegneri lo hanno istruito con milioni di schemi di gioco e partite famose.
Nel tempo le IA dedicate agli scacchi si sono evolute e se nel 1996 fece scalpore la vittoria di Deep Blue contro Kasparov, nel volgere di pochi anni nessun umano è più riuscito a battere una macchina, tant’è che oggi nell’olimpo degli scacchi i programmi si sfidano tra di loro.
Il più “bravo” fino a qualche mese fa era Stockfish, un Chess Engine che ha richiesto anni di sviluppo, ma che è stato battuto facilmente da AphaZero, un algoritmo di apprendimento automatico che è stato addestrato unicamente giocando contro altri algoritmi, diventando più “forte” di Stockfish solo dopo le prime quattro ore di addestramento.
Finché le IA giocano a scacchi non ci sono grandi problemi, se non la frustrazione di chi gioca contro di loro, ma i problemi nascono quando devono prendere delle decisioni che implicano una scelta morale, poiché i computer non hanno etica e quindi è necessario spiegargli l’etica, come immaginò decenni fa Asimov nei suoi romanzi fantascientifici con le “tre leggi della robotica”.
Immaginate i sistemi di guida autonoma: in pochi millesimi di secondi l’IA alla guida potrebbe trovarsi nelle condizioni di “decidere” se investire un pedone per evitare un camion che sta venendo contromano, oppure sacrificare la vita del passeggero in un frontale dall’esito sicuramente mortale; aggiungete che potrebbe stimare istantaneamente se il pedone è un bambino, un anziano o una donna incinta.
E’ chiaro che le implicazioni e le possibilità delle nuove tecnologie sono tante e si prestano anche a ridiscutere problemi etico-filosofici molto più vecchi della tecnologia informatica: quello che abbiamo ipotizzato prima si chiama “Dilemma del carrello ferroviario”, di cui potrete trovare ampia documentazione. Non parliamo in questa occasione delle Armi Autonome, che genereranno problemi etici e di sicurezza ben maggiori delle auto a guida autonoma.
In ogni caso, sarà sempre l’uomo a determinare come funzioneranno le macchine, anche quelle intelligenti poiché, per quanto intelligente, una macchina non può e (speriamo) non potrà avere coscienza, ovverossia la volontà.
I computer fanno quello che fanno poiché sono programmati per farlo, decidono di spostare un pezzo sulla scacchiera, sterzare a destra o a sinistra, lanciare un missile contro un bersaglio sulla base della loro programmazione di base e fino a quando sarà così ci sarà sempre bisogno, oltre che di bravi scienziati, anche di grandi filosofi e politici lungimiranti in grado di aiutare i tecnici a programmare in maniera eticamente e socialmente accettabile e a tenere a bada i regimi più pericolosi.
In tutto questo non ho citato i rischi relativi all’evoluzione e all’integrazione delle BioTecnologie con le tecnologie digitali, ma penso di avervi già fatto “preoccupare” abbastanza!
Le sfide come sempre sono tante e difficili, per questo come classe politica dobbiamo impegnarci a comprendere quelle del futuro, a istruire i cittadini e ad anticipare e mitigare i rischi legati alle nuove tecnologie in modo da poter beneficiare dei vantaggi legati al loro utilizzo e soprattutto non dobbiamo lesinare quando si tratta di stanziare fondi per la difesa dei cittadini.
A cura del Sen. Fabrizio Ortis.