Il Cloud Nazionale fa impazzire il mondo IT italiano e non solo in maniera positiva. E’ notizia di questi giorni la volontà dello stato italiano di assegnare il progetto del cloud nazionale al Consorzio composto da Tim, Cassa Depositi e Prestiti, Sogei e Leonardo, al fine di aumentare i servizi digitali a supporto della cittadinanza, proteggendo allo stesso tempo i dati personali dei cittadini e quelli di interesse nazionale. I dubbi più diffusi sono collegati agli accordi economici che un anno fa Google ha stretto con Tim e che potrebbero esporre i dati italiani nell’universo militare statunitense.

Non solo Tim, ma anche la componente francese di Vivendi, già titolare delle azioni del gigante telefonico italiano, di cui nessuno parla” mette in guardia il giornalista e scrittore Livio Varriale che legge la scelta del Governo come “un modo per saldare l’accordo trilaterale messo in piedi da almeno un semestre tra Draghi, Biden e Macron. Gli aspetti che possono stravolgere questa lettura sono o la non aggiudicazione, quasi improbabile, al Consorzio o la cessione delle quote di Tim al fondo statunitense come fatto trapelare il mese scorso e che escluderebbe i francesi”.

Tanto tuonò, che dalla nuvola piovve. Ma con la Strategia Nazionale Cloud, che oggi viene indirizzata sulla proposta del consorzio guidato da TIM, non aspettatevi tempesta. Al massimo arriverà una lieve, seppur necessaria, rugiada digitale sull’arido terreno dell’arretratezza tecnologica italiana”. Smorza l’entusiasmo il professor Carlo Alberto Carnevale Maffè della SDA Bocconi School of Management che solleva una riflessione sulla finalità del cloud intravista dal Governo, il cui “progetto è declinato nel PNRR con obiettivi alquanto modesti. La migrazione al cloud dei sistemi della PA, già in ritardo di un paio di lustri, è descritta come un sostanziale trasloco del portafoglio applicativo esistente, spesso vecchio di decenni. Se la migrazione hardware è ormai inevitabile, se non altro per questioni di cybersecurity, nel PNRR ben poco si dice della pur indispensabile riconfigurazione dei back-end software”. Dalle critiche, il docente cerca di tracciare quella che considera la reale essenza delle tecnologie cloud che “come hanno dimostrato le spettacolari crescite dei big player del settore, dovrebbe invece essere quello di massimizzare il valore d’uso e il valore di scambio dei dati digitali. Ciò è ancora più vero dopo l’affermarsi delle tecnologie di intelligenza artificiale, che consentono la condivisione dei risultati con processi di apprendimento distribuito”.

Carnevale Maffè, a differenza di molti esperti che circuiscono il Cloud solo alle attività meramente statali, ritiene inoltre che “Non basta che regolamentazione e protocolli standard definiscano l’interoperabilità in termini tecnici: serve un mercato economico, aperto e regolato, reciproco e simmetrico, dei dati digitali. Il fatto che i Consorzi proponenti abbiano scelto di avviare partnership con i player globali dei servizi cloud conferma che la collaborazione tecnologica è la strada da intraprendere, purché in un quadro di vivace concorrenza di mercato”.

Dal punto di vista prettamente tecnico non è stato ancora raggiunto un consenso neppure tra gli esperti” dichiara al Riformista l’ingegner Federico Fuga perché “il Cloud è un insieme di servizi diffusi su più sistemi, che però interagiscono tra loro e con altrettanti sistemi terzi. Di solito è implementato su macchine virtuali installate all’interno di server fisici ubicati in datacenter distribuiti geograficamente su luoghi diversi. Dunque riunire esclusivamente su infrastrutture nazionali tutti i servizi non solo è utopico, ma potrebbe essere anche poco efficiente”.

Una situazione ben più complessa che deve tenere conto di fattori di sicurezza, sia informatica sia di privacy, di affidabilità e fruibilità perché secondo l’ing. Fuga “i fruitori sono utenti, che possono essere cittadini italiani, stranieri o turisti ed i rischi sono enormi. Uno dei punti critici è anche la sicurezza dei fornitori. Il software è implementato utilizzando spesso codici di altri software e se questi non vengono messi in sicurezza si rischia un collasso dell’affidabilità dell’intero servizio come è avvenuto nel caso altamente critico di Log4J. Pertanto l’unificazione di migliaia di software diversi di Pubbliche amministrazioni, comuni ed enti sotto una piattaforma unica che abbia in comune procedure di validazione della supply chain e metodi di sviluppo e di gestione degli incidenti è ancor più importante che avere datacenter all’interno dei confini nazionali, cosa che comunque accanto a vantaggi porterebbe sfide notevoli sia dal punto di vista informatico che da quello ingegneristico“.

Avatar photo

Esperto di social media, mi occupo da anni di costruzione di web tv e produzione di format