L’inchiesta che ha scosso l’Italia sulla cybersecurity ha rivelato una vulnerabilità diffusa nei sistemi informatici istituzionali, evidenziando come l’accesso illecito alle banche dati dello Stato da parte di criminali informatici, supportati da pubblici ufficiali corrotti, costituisca una minaccia concreta alla sicurezza nazionale. L’agenzia investigativa coinvolta, Equalize, sarebbe stata il centro operativo di un gruppo capace di infiltrarsi nel cuore dei sistemi riservati, inclusi archivi sensibili come il Sistema Informativo Interforze e l’anagrafe dei conti correnti bancari. L’attacco, che ha esposto oltre 800.000 cittadini italiani, compresi vertici istituzionali come il Presidente della Repubblica, evidenzia non solo l’esposizione ad assalti esterni, ma anche l’insufficienza delle misure di prevenzione contro i “tradimenti interni”, ossia l’uso improprio delle credenziali da parte di coloro che dovrebbero garantirne la sicurezza. Ci si interroga se l’impiego di strumenti avanzati, come l’autenticazione OTP e la crittografia omomorfica, possa finalmente garantire una difesa efficace e se la politica possa recepire l’urgenza di un aggiornamento tecnologico per bloccare simili intrusioni.
L’introduzione della crittografia avanzata, raccomandata dal GDPR e dalla direttiva europea NIS2, rappresenterebbe un’innovazione chiave per proteggere le informazioni sensibili. Il meccanismo consentirebbe infatti di cifrare i dati in ogni fase del loro utilizzo, evitando che possano essere compromessi in caso di accessi non autorizzati, senza tuttavia essere in grado di arginare del tutto il problema degli “infedeli” interni. La crittografia omomorfica, per esempio, può garantire una protezione continua dei dati in tre stati — a riposo, in transito e in uso — offrendo un’ulteriore barriera a chi tenta di accedere ai contenuti riservati. Tuttavia, l’attuazione diffusa di tali soluzioni incontra ancora limiti legislativi e pratici, lasciando gli enti pubblici e le imprese private esposti a rischi che potrebbero essere evitati.
Parallelamente a queste problematiche, la proliferazione di soluzioni basate sull’intelligenza artificiale (AI) pone questioni altrettanto cruciali. L’AI, infatti, si presenta contemporaneamente come un’opportunità di miglioramento della sicurezza e una sfida sul fronte etico e di governance. Se da un lato la sua capacità di automatizzare i processi e di rilevare schemi sospetti potrebbe rafforzare le difese digitali, dall’altro le aspettative spesso inflazionate sul suo potenziale pongono interrogativi sulla capacità umana di controllare la crescita esponenziale della tecnologia. L’hype mediatico attorno alla AI, descritto da esperti come Luciano Floridi e altri studiosi, porta con sé il rischio di eccessive semplificazioni. Vi è, infatti, chi paragona erroneamente i sistemi di AI generativa a strumenti tradizionali come i CRM, sottovalutando la differenza tra queste tecnologie e riducendo la complessità delle loro applicazioni. Tuttavia, la visione a lungo termine suggerisce che l’AI, nonostante sia un catalizzatore di innovazioni, non sia in grado di gestire in autonomia la sicurezza: essa rimane, infatti, uno strumento subordinato alla responsabilità umana e alla qualità delle strategie di cybersecurity messe in atto.
Resta dunque aperto il dibattito sulla necessità di un’adeguata “governance” tecnologica che permetta di integrare le diverse innovazioni digitali in un sistema sicuro e resiliente. La sfida non riguarda solo le singole applicazioni tecniche, ma la loro integrazione armonica con il quadro normativo e con le pratiche quotidiane nelle amministrazioni pubbliche e nelle aziende. In tal senso, servirebbe una sorta di “fusione dei saperi”, richiamata alla memoria dallo stesso Floridi e da altri esperti di etica digitale, che consentisse di affrontare le criticità in modo multidisciplinare. Le considerazioni filosofiche si uniscono quindi alla necessità di formare professionisti capaci di comprendere tanto l’aspetto tecnico quanto quello umano della cybersecurity. La consapevolezza della responsabilità collettiva nell’utilizzo della tecnologia dovrebbe diventare la nuova chiave di volta, allineando l’accelerazione tecnologica con i tempi di adattamento delle organizzazioni sociali, secondo quanto teorizzato dalla legge di Martec.
Se l’Italia e l’Europa – e la stessa San Marino, che nella famiglia europea si appresta ad entrarci a pieno titolo – non risponderanno in tempi rapidi alle nuove esigenze, si rischia che l’intelligenza artificiale e le altre tecnologie emergenti si sviluppino senza controllo, aumentando i pericoli anziché offrire protezione.
David Oddone
(La Serenissima)