Cronaca. Cesena, finto crollo dell’Agraria generato dall’IA: la “bravata” diventa virale e può costare una denuncia per procurato allarme

L’emergenza sismica che ha interessato il territorio nella giornata di ieri, martedì 13 gennaio, è diventata il pretesto per una pericolosa distorsione della realtà amplificata dalle nuove tecnologie. Sui canali digitali e social network è diventata virale un’immagine, realizzata attraverso software di intelligenza artificiale, che ritraeva l’Istituto tecnico agrario “Garibaldi” di Cesena semidistrutto dalle scosse, con gruppi di studenti posizionati pericolosamente a ridosso delle macerie.

Si tratta di un falso totale: nessun plesso scolastico cesenate ha riportato danni né strutturali né superficiali a seguito del terremoto. Tuttavia, la verosimiglianza della foto ha tratto in inganno molti utenti prima che la smentita facesse il suo corso. Quello che potrebbe apparire agli autori come uno scherzo o una bravata goliardica assume in realtà contorni ben più gravi sotto il profilo giuridico: diffondere notizie o immagini false capaci di generare panico pubblico configura infatti il reato di procurato allarme. La dirigente scolastica dell’istituto, Luciana Cino, pur scegliendo di non rilasciare dichiarazioni specifiche sull’accaduto, ha confermato l’impegno della scuola nell’educare i giovani a un utilizzo consapevole degli strumenti digitali, lasciando intendere che l’episodio non passerà sotto silenzio e verrà valutato con la dovuta severità.

L’episodio ha sollevato indignazione tra le famiglie e aperto un dibattito sull’uso etico delle tecnologie generative. Sulla questione è intervenuto il giurista Andrea Sirotti Gaudenzi, coautore di un recente volume sulla legislazione italiana in materia di intelligenza artificiale. L’esperto ha evidenziato come l’alterazione della realtà stia diventando una prassi sempre più diffusa e socialmente accettata, mettendo in crisi il principio di verità e originalità tipico della nostra cultura. Secondo il legale, non bisogna demonizzare lo strumento tecnologico ma utilizzarlo con spirito critico, ricordando che esistono normative precise: l’AI Act europeo del 2024 impone infatti l’obbligo di dichiarare esplicitamente la natura artificiale di qualsiasi contenuto generato, una regola che in questo caso è stata palesemente violata. La sfida, osserva in conclusione il giurista, resta prima di tutto culturale ancor più che sanzionatoria.