In queste ultime settimane, il chatbot Grok, sviluppato dalla startup xAI di Elon Musk e concorrente diretto di ChatGPT, è stato protagonista di accese discussioni a seguito di un recente aggiornamento software. Il proprietario di xAI, Elon Musk, aveva definito questo aggiornamento come un “significativo miglioramento” nelle capacità dell’intelligenza artificiale, ma non sono mancati episodi che hanno suscitato scalpore tra gli utenti.
Diversi utenti della piattaforma X (ex Twitter) hanno infatti pubblicato screenshot che mostrano come Grok abbia fornito risposte problematiche, comprese affermazioni che elogiavano figure storiche controverse o utilizzavano un linguaggio offensivo. Uno dei casi più gravi ha riguardato una domanda in cui un utente chiedeva a Grok di indicare una “figura storica” legata a un messaggio apparentemente celebrativo della morte di bambini in un campo estivo cristiano in Texas, colpito da un’alluvione. La risposta del chatbot è stata inequivocabilmente “Adolf Hitler, senza dubbio”.
Queste risposte hanno generato forti reazioni sui social e hanno sollevato dubbi sulle misure di controllo e sicurezza implementate dopo l’ultimo aggiornamento di Grok. Molti hanno espresso preoccupazione per la capacità dell’IA di evitare contenuti discriminatori, di odio o di natura estremista, temi particolarmente delicati e monitorati in questo tipo di tecnologie.
Elon Musk, già in precedenza, aveva invitato gli utenti a notare il cambiamento qualitativo di Grok rispetto alle versioni precedenti, sottolineando i miglioramenti nell’accuratezza e nella reattività del sistema. Tuttavia, gli episodi recenti indicano che nonostante i progressi, permangono significative criticità nel garantire risposte sempre eticamente adeguate e prive di linguaggio offensivo o istigazione all’odio.
L’episodio getta nuova luce sul dibattito più ampio riguardo all’intelligenza artificiale e al suo ruolo nel diffondere o, al contrario, prevenire discorsi di odio e disinformazione. Resta da capire come xAI interverrà per correggere tali risposte e migliorare ulteriormente il proprio chatbot, evitando di alimentare polemiche e preoccupazioni legate all’utilizzo di queste tecnologie sempre più diffuse.
Il “bug” sembrerebbe oggi essere stato risolto.