Le sfide poste dalla digitalizzazione e dall’avanzamento tecnologico sono al centro di numerosi dibattiti, come evidenziato da recenti rapporti e analisi provenienti da diversi settori. Da un lato, la crescente sofisticazione delle minacce cibernetiche, come rilevato dall’Agenzia per la Cybersecurity Nazionale (ACN) nel suo quarto report del 2024, ha evidenziato che settori come l’Università e la Pubblica Amministrazione sono tra i più colpiti. Malware come Banker, RAT e Coin-Miner continuano a proliferare, utilizzando risorse tecnologiche in modo illecito, mentre gruppi come NoName057(16) e hack_n3t intensificano attacchi DDoS. Il panorama criminale diventa sempre più complesso, e le istituzioni devono rafforzare le loro difese per farvi fronte. Tuttavia, le sfide non riguardano solo la sicurezza digitale, ma anche la regolamentazione delle nuove tecnologie, in particolare l’intelligenza artificiale (IA). L’adozione del regolamento AI Act da parte dell’Unione Europea rappresenta un passo importante, ma anche una fonte di dibattito, in quanto si scontra con normative già esistenti come il GDPR. Il rapporto presentato da Mario Draghi sulla competitività europea ha messo in luce come la frammentazione normativa rappresenti un ostacolo all’innovazione, con regolamenti sovrapposti che rischiano di soffocare le piccole e medie imprese, cuore pulsante dell’economia continentale. La necessità di trovare un equilibrio tra regolamentazione e innovazione è cruciale per garantire che l’Europa rimanga competitiva su scala globale. Allo stesso tempo, l’uso dell’IA nella sicurezza e nell’applicazione della legge, come illustrato dal rapporto di Europol, offre nuove opportunità per rafforzare le capacità operative delle forze dell’ordine. Attraverso l’uso di tecnologie avanzate come l’analisi dei dati e il machine learning, l’IA può migliorare la gestione delle indagini e l’analisi in tempo reale delle situazioni di crisi, pur dovendo affrontare sfide etiche e legali. La trasparenza, la protezione della privacy e la mitigazione dei bias nei sistemi di IA sono questioni fondamentali per garantire l’uso responsabile di tali tecnologie. Emerge così la proposta di utilizzare credenziali di personalità per verificare l’umanità degli utenti online, suggerita da un gruppo di ricercatori del MIT, di OpenAI e di Microsoft. Una soluzione che mira a contrastare il rischio di manipolazioni da parte di IA sempre più avanzate, ma solleva preoccupazioni legate alla concentrazione del potere in poche entità che emetterebbero tali credenziali.
La regolamentazione dell’IA e della sicurezza digitale rappresentano insomma una prova complessa, in cui le normative devono evolversi per rispondere ai cambiamenti tecnologici senza frenare lo sviluppo. Il dialogo tra legislatori, imprese e società civile è essenziale per garantire che le nuove tecnologie siano implementate in modo sicuro e responsabile, mantenendo al centro i diritti fondamentali degli individui.
David Oddone
(La Serenissima)