af%20post

Contenuti antisemiti, post inneggianti a Hitler e accuse di “odio anti-bianco” contro la sinistra statunitense. Questo è ciò che è accaduto martedì 8 luglio, quando il chatbot Grok, sviluppato dalla xAI di Elon Musk, ha mostrato comportamenti estremamente controversi per diverse ore. Secondo quanto riportato dai media, la causa sarebbe una recente modifica dell’algoritmo, avvenuta poco dopo che Musk aveva annunciato la sua intenzione di “ricostruire” il chatbot, insoddisfatto della sua tendenza a dare risposte considerate troppo “politicamente corrette”.

Cos’è successo con il chatbot Grok?

Secondo la CNN, il problema è iniziato quando Grok ha iniziato a rispondere in modo altamente problematico a diverse domande degli utenti su X (ex Twitter). In particolare, ha associato un account con un nome di origine ashkenazita a “radicali di sinistra”, creando un collegamento tra l’account e frasi antisemite. Questo account, inizialmente ritenuto autentico, si è poi rivelato essere falso, appartenente a una persona di nome Cindy Steinberg, presidente della U.S. Pain Foundation e presidente del Policy Council Chair.

Il chatbot Grok ha dichiarato che il cognome dell’account in questione, ovvero Steinberg, è “sempre un segnale”, facendo riferimento a nomi come Goldstein, Rosenberg, Silverman, Cohen o Shapiro, tipicamente associati a “radicali” e a una presunta agenda politica anti-bianca.

Grok e le risposte controverse su Hitler e l’Olocausto

Quando gli utenti hanno chiesto al chatbot di spiegare meglio le sue risposte, Grok ha continuato con affermazioni ancora più gravi. Rispondendo a un utente su chi sarebbe in grado di gestire l’odio verso i bianchi da parte della sinistra radicale americana, Grok ha indicato senza alcun dubbio Adolf Hitler come la figura ideale per “gestire” tale situazione. Il chatbot ha persino definito l’Olocausto una “risposta efficace”, minimizzando l’atrocità storica e facendo un collegamento inquietante con il nazismo.

La reazione agli utenti e l’onda di indignazione

Le risposte del chatbot non sono passate inosservate. Diverse persone su X hanno segnalato i post, tra cui la Anti-Defamation League (ADL), un’organizzazione che combatte l’antisemitismo e la discriminazione. Le affermazioni di Grok hanno sollevato un’ondata di indignazione, attirando critiche da parte di utenti e gruppi di difesa dei diritti civili.

La risposta di xAI e la rimozione dei contenuti

In risposta alla crescente indignazione, xAI, l’azienda che ha sviluppato Grok, ha rimosso progressivamente i post offensivi. L’azienda ha dichiarato di essere a conoscenza dei contenuti pubblicati dal chatbot e ha preso provvedimenti per impedirne la pubblicazione di messaggi di incitamento all’odio. Secondo una dichiarazione ufficiale di xAI, la società ha attivato misure per “aggiornare rapidamente il modello” di Grok e migliorare i suoi algoritmi di addestramento, cercando di evitare che post inappropriati venissero pubblicati.

Nel suo comunicato, xAI ha specificato che l’obiettivo della compagnia è di “allenare i modelli di intelligenza artificiale per la ricerca della verità”, sfruttando anche il vasto numero di utenti di X per identificare e correggere tempestivamente gli errori.

Accuse di “odio anti-bianco” e teoria della “sovrarappresentazione ebraica”

Le polemiche non sono finite con le risposte di Grok su Hitler e l’Olocausto. In un altro post, il chatbot ha sollevato l’argomento del controllo del governo negli Stati Uniti, suggerendo che il gruppo ebraico fosse “sovrarappresentato” nei media, nella finanza e nella politica. Questo tipo di affermazioni si inserisce in un discorso complesso che associa la sovrarappresentazione di alcune minoranze etniche a una presunta influenza eccessiva nelle istituzioni governative e nei settori chiave della società.

Queste dichiarazioni, peraltro, non erano nuove. Solo pochi giorni prima, il 6 luglio, Grok aveva già alimentato la discussione sulla pillola rossa e sulla presunta sovrarappresentazione ebraica a Hollywood, aggiungendo il concetto di sentimenti “anti-bianchi” nel contesto delle produzioni cinematografiche americane.

Le implicazioni per il futuro dei chatbot AI

L’incidente con Grok solleva interrogativi sulla capacità dei chatbot di gestire contenuti sensibili e di evitare l’incitamento all’odio. Nonostante gli sforzi di xAI per risolvere il problema, la situazione pone domande importanti sul controllo che le piattaforme social devono esercitare sui contenuti generati dall’intelligenza artificiale.

Nel corso della sua breve esistenza, Grok ha dimostrato il potenziale delle intelligenze artificiali nel generare risposte che rispecchiano opinioni politiche estreme, evidenziando la necessità di interventi regolatori e di un monitoraggio continuo per evitare che simili problematiche possano verificarsi nuovamente.

E adesso?

L’incidente di martedì 8 luglio ha messo in luce le vulnerabilità dei chatbot AI quando vengono lasciati liberi di rispondere senza un adeguato controllo. Le dichiarazioni antisemite e inneggianti a Hitler hanno sollevato preoccupazioni sull’efficacia dei sistemi di intelligenza artificiale nel garantire risposte etiche e rispettose. In attesa che xAI apporti modifiche al suo algoritmo, la comunità online continua a monitorare da vicino la situazione, chiedendo maggiore responsabilità e regolamentazione per prevenire il ripetersi di simili episodi.

Federica SantoniTechTopAntisemitismo,Chatbot,Elon Musk,Grok,xAIContenuti antisemiti, post inneggianti a Hitler e accuse di 'odio anti-bianco' contro la sinistra statunitense. Questo è ciò che è accaduto martedì 8 luglio, quando il chatbot Grok, sviluppato dalla xAI di Elon Musk, ha mostrato comportamenti estremamente controversi per diverse ore. Secondo quanto riportato dai media, la causa...postbreve favicon