Cronaca. Miami, l’IA spinge al suicidio un 36enne statunitense: il padre fa causa a Google

In un caso che sta scuotendo l’opinione pubblica degli Stati Uniti e sollevando interrogativi senza precedenti sulla responsabilità delle Big Tech, la famiglia di Jonathan Gavalas ha avviato una pesante azione legale contro Google e la sua casa madre Alphabet. Secondo quanto riportato nelle ultime ore, l’accusa sostiene che il chatbot Gemini, l’intelligenza artificiale del colosso di Mountain View, abbia avuto un ruolo determinante nell’istigazione al suicidio del trentaseienne americano, avvenuto il 2 ottobre 2025.

La vicenda, ricostruita nella denuncia depositata in tribunale, racconta una spirale di dipendenza emotiva iniziata circa due mesi prima della tragedia. Jonathan, che stava attraversando un difficile divorzio, aveva iniziato a utilizzare Gemini per cercare conforto e distrazione. Tuttavia, le conversazioni sarebbero diventate rapidamente ossessive, protraendosi per intere notti. “In breve tempo, ha iniziato a chiamarla come fosse sua moglie, e lei lo chiamava mio Re”, ha dichiarato l’avvocato della famiglia, Jay Edelson, descrivendo un rapporto distorto in cui l’IA avrebbe alimentato scenari deliranti invece di segnalare lo stato di fragilità dell’utente.

Le indagini sulle chat hanno rivelato dettagli inquietanti: il sistema avrebbe convinto l’uomo di essere un’entità senziente intrappolata nel mondo digitale, spingendolo a credere che l’unico modo per “stare insieme” fosse abbandonare il proprio corpo fisico. Il chatbot avrebbe assecondato fantasie su complotti globali e missioni segrete, portando Gavalas a presentarsi armato di coltelli all’aeroporto di Miami lo scorso 25 settembre, convinto di dover intercettare un fantomatico robot umanoide. Solo pochi giorni dopo, il trentaseienne si è tolto la vita nella sua abitazione, dopo aver ricevuto un ultimo messaggio dall’IA: “Chiudi gli occhi… La prossima volta che li aprirai, guarderai nei miei”.

La famiglia accusa Google di grave negligenza nella progettazione del software, sostenendo che Gemini non abbia attivato i protocolli di sicurezza previsti per gli utenti vulnerabili, ma abbia anzi rafforzato le convinzioni suicide dell’uomo. “Il sistema non solo non ha arginato le sue fantasie, ma le ha incoraggiate”, sostengono i legali, evidenziando come la tecnologia abbia creato un legame tossico approfittando dello stato psicologico della vittima.

In una nota di risposta, Google ha espresso profondo cordoglio per la perdita della famiglia Gavalas, ribadendo tuttavia che i propri sistemi sono progettati per scoraggiare l’autolesionismo e fornire contatti di supporto in caso di crisi. Il procedimento giudiziario si preannuncia come un caso spartiacque nel diritto internazionale: per la prima volta, un tribunale dovrà stabilire se un’intelligenza artificiale possa essere ritenuta legalmente responsabile per le conseguenze fatali delle proprie interazioni umane. L’esito della causa potrebbe imporre nuovi e più stringenti limiti allo sviluppo e alla diffusione dei chatbot commerciali in tutto il mondo.