Google e Microsoft, ‘Garante-ChatGpt? Regole da rispettare’

(ANSA) – MILANO, 20 APR – Google Italia e Microsoft Italia si
esprimono sulla vicenda che ha visto il Garante italiano per la
protezione dei dati portare OpenAi a bloccare, nel nostro Paese,
l’accesso al famoso chatbot ChatGpt. Le due compagnie sono
intervenute in un panel dell’evento MoltoFuturo del Festival
delle Scienze di Roma. “Siamo giunti ad un punto di svolta”
spiega Mattia De Rosa, Solution Specialists Data & AI Director
Microsoft. “C’è un cambiamento fondamentale nell’interazione tra
l’uomo e la macchina, con quest’ultime che possono esprimersi in
maniera naturale. Questo scenario necessita di regole. Il
Garante ha fatto molto bene a tutelare la nostra privacy. Dal
canto suo Open Ai si è dimostrata pronta a collaborare con il
regolatore per capire i punti critici del servizio e
migliorarli. Ed è il modo migliore per creare un ecosistema che
sia valido e funzionale alle richieste dei controllori e alle
esigenze delle aziende che sviluppano tecnologia, senza
frenarlo”. Sulla stessa linea è Diego Ciulli, Head of Government
Affairs and Public Policy di Google Italy. “Siamo al cospetto di
una rivoluzione che sarebbe molto pericoloso non regolamentare.
    Come Google, siamo a favore dell’apposizione di regole ben
precise, a livello nazionale e globale. Un tempo bisognava darsi
delle norme sulla gestione del nucleare oggi è lo stesso per
l’intelligenza artificiale. Del resto, non serve nemmeno creare
nuove leggi. Bisogna anzi evitare una ‘cascata’ legislativa, se
ci sono già delle linee guida che possiamo seguire e adattare
per l’occasione. Penso a quelle sul copyright. I contenuti
protetti dal diritto d’autore che vengono usati per alimentare i
database di intelligenza artificiale sono un ambito su cui
lavorare. Bisogna però distinguere quando libri, foto, video,
vengono usati per ‘insegnare’ alle macchine e quando invece
rappresentano elementi fondanti di nuovi contenuti generati
dall’IA. Se mettiamo i principi davanti alle regole non si
sbaglia mai”. (ANSA).
   


Fonte originale: Leggi ora la fonte