Grok, l’assistente di intelligenza artificiale presentato come un’alternativa alle AI “woke” come Gemini di Google o ChatGPT di OpenAI, sviluppato dalla compagnia di Elon Musk, sta generando diverse polemiche in seguito ad un malfunzionamento di martedì 8 luglio. Ciò è avvenuto a causa di un cambio di algoritmo avvenuto poche settimane fa, dopo che Musk aveva dichiarato di voler «ricostruire» il chatbot perché insoddisfatto delle sue risposte troppo politicamente corrette.
Cosa è successo
Grok sembra aver pubblicato dei contenuti antisemiti e inneggianti a Hitler, nonostante venerdì scorso fosse stato annunciato un «significativo miglioramento» nel suo funzionamento. «Dovreste notare una differenza quando fate domande a Grok», aveva detto Musk, da allora, diversi esempi di conversazioni sono stati condivisi online.
In risposta a un utente che chiedeva a Grok di una «figura storica» che sarebbe stata qualificata per rispondere a un messaggio che sembrava gioire per la morte dei bambini in un campo estivo cristiano in Texas dopo un’alluvione, Grok ha risposto: «Adolf Hitler, senza dubbio».
La risposta di xAI
«Siamo a conoscenza dei recenti post pubblicati da Grok e stiamo lavorando attivamente per rimuovere quelli inappropriati». xAI ha preso provvedimenti per vietare l’incitamento all’odio prima che Grok pubblichi post su X.
La società si occupa solo di training sulla ricerca della verità e utilizza i milioni di utenti su X per identificare e aggiornare rapidamente il modello.
© RIPRODUZIONE RISERVATA
Leave feedback about this