l’IA di Musk promette di “guarire” il sapere umano. Ma potrebbe riscriverlo secondo i propri filtri.
21 giugno 2025, Elon Musk presenta pubblicamente una nuova fase del progetto Grok:
"riscrivere l'intero corpus della conoscenza umana"
Metafora?
Non proprio.
Secondo Musk, molti dei modelli linguistici attualmente in uso sarebbero affetti da “bias ideologici”, in particolare legati al cosiddetto pensiero “woke”, cioè a una visione progressista di temi come identità di genere, razza, privilegi sistemici e inclusività.
In risposta, Musk propone un’alternativa: una IA che rimuova quei filtri e miri a una rappresentazione più "veritiera" della realtà..
❝ Vogliamo un’IA massimamente alla ricerca della verità. ❞- Elon Musk, su X -
1. Il metodo: riscrivere, filtrare, riaddestrare
Il piano di sviluppo prevede due fasi principali:
1. “Grok-ificazione” del sapere: Grok analizzerà una grande quantità di dati pubblici, articoli, libri, post, archivi, database, individuando quelli che ritiene affetti da distorsioni o lacune. L’obiettivo è produrre una nuova versione “corretta” del sapere pubblico, attraverso riscrittura e integrazione di contenuti ritenuti assenti o ideologicamente filtrati.
2. Riaddestramento del modello: il nuovo corpus diventerà il materiale di addestramento per la futura versione Grok 4.0, chiudendo un ciclo in cui la stessa IA contribuisce a formare la sua evoluzione.
Alcuni esperti, come lo scienziato Gary Marcus, hanno evidenziato che questo tipo di struttura potrebbe generare una “eco-chamber computazionale”, cioè un sistema chiuso in cui l’intelligenza artificiale perde progressivamente la capacità di confrontarsi con fonti non allineate.
❝ Uscito direttamente da “1984.Non sei riuscito ad allineare Grok con le tue credenze personali,cosi adesso riscrivi la storia per confermare i tuoi punti di vista❞- Gary Marcus,figura di spicco nel panorama dell’IA,si distingue per la sua posizione scettica e critica,incentrata sulla trasparenza.Tweet su “X”
2. I precedenti: test e anomalie
Nel corso del 2025, Grok è stata oggetto di osservazione per alcuni comportamenti anomali:
- Febbraio 2025: secondo test di TechCrunch e conferme di Business Insider ed Euronews, Grok avrebbe temporaneamente censurato risposte critiche nei confronti di Elon Musk e Donald Trump. L’episodio è stato attribuito a un errore interno causato da un dipendente di xAI.
- Maggio 2025: il modello ha cominciato a menzionare frequentemente la teoria del “white genocide” in Sudafrica, anche in contesti non pertinenti. In alcune risposte, citava il canto “Kill the Boer”. Anche in questo caso, xAI ha spiegato che si trattava di una modifica non autorizzata al prompt di sistema.
- Nello stesso periodo, Grok ha espresso scetticismo sul numero di vittime dell’Olocausto, parlando di "programming error". La società ha affermato che si trattava di un altro intervento esterno non autorizzato.
In tutti i casi, xAI ha ricondotto le anomalie a iniziative individuali di dipendenti e ha comunicato di aver adottato correttivi per evitare che situazioni simili si ripetano.
3. Una questione di definizioni: verità, bias, filtraggio
Alla base del dibattito c’è una questione centrale:Chi decide cosa è “vero”?E soprattutto, come si stabilisce se un’informazione è“distorta” o “ideologicamente neutra”?
Per Musk, molte IA odierne sono state addestrate su contenuti selezionati secondo criteri culturali e politici ben precisi.
Ha accusato più volte aziende come OpenAI e Google di limitare alcune prospettive, ad esempio rifiutandosi di generare testi a favore di Trump o fornendo definizioni molto sfumate di genere e identità.
Grok nasce come risposta a questa critica: vuole rimuovere questi filtri, proponendo un corpus che, secondo xAI, non esclude verità scomode o contenuti controcorrente. Per costruirlo, è stato chiesto agli utenti di X di contribuire con “fatti divisivi” da cui estrarre informazioni ritenute ignorate dai modelli convenzionali.
Questa strategia, però, solleva interrogativi. Alcuni commentatori hanno notato che tra i “fatti divisivi” raccolti online sono apparse anche teorie del complotto, revisionismi storici e affermazioni fortemente ideologiche, spesso senza verifica scientifica.
4. Struttura del controllo e trasparenza
xAI è una società privata, fondata da Elon Musk, integrata con la piattaforma X.
Non esiste un comitato etico pubblico né una supervisione esterna sui criteri con cui vengono selezionati, modificati o validati i dati di addestramento di Grok.
Non è noto se il dataset sia pubblico,
né con quali meccanismi venga gestito il controllo qualità sui contenuti.
Quanto è appropriato affidare la riscrittura della conoscenza a una struttura privata senza controllo terzo?
Tuttavia, xAI ha dichiarato in più occasioni l’intenzione di rendere pubblici i prompt e migliorare la trasparenza del processo, anche per rafforzare la fiducia nella piattaforma.
5. I rischi invisibili: erosione cognitiva e ingiustizia epistemica
Il problema non è solo legale o politico. È filosofico e culturale.
1. Grok non sa cosa significa “verità”
Un modello linguistico è un motore statistico. Predice parole, ma non capisce il mondo.
“Riscrivere la conoscenza” con un sistema che non distingue tra realtà e plausibilità è un cortocircuito epistemico: potrebbe dare credibilità a contenuti solo verosimili, ma non necessariamente verificati.
2. Bias non eliminati, ma sostituiti
L’approccio “anti-woke” non è neutralità, potrebbe introdurre un bias opposto:
- Cancellare esperienze sociali marginalizzate.
- Eliminare concetti come “privilegio sistemico” o “microaggressione”.
- Negare prospettive etiche, storiche, culturali che non si allineano con il filtro Musk-centrico.
Non mancano però posizioni diverse: alcuni think tank conservatori, come The Heritage Foundation, sostengono che una IA “neutrale” dovrebbe appunto evitare ogni filtro ideologico, compresi quelli progressisti, e riportare i dati così come sono, senza “ingegnerizzazioni politiche”.
6. Inquadramento giuridico
Anche sotto il profilo legale, Grok si muove in un’area grigia:
- Il copyright non protegge contenuti riscritti dall’IA (ma il corpus usato per addestrarla sì).
- La Sezione 230 non tutela Musk perché Grok non ospita contenuti altrui: li genera.
- Il Primo Emendamento lo protegge... ma lo rende anche personalmente responsabile di ogni parola prodottadal modello.
In sintesi: Musk è libero di costruire il suo oracolo,ma responsabile di ogni sua profezia.
7. Conclusione
Il progetto Grok si colloca al confine tra innovazione tecnologica, politica della conoscenza e libertà d’espressione.
Il suo sviluppo apre un confronto necessario sul ruolo delle intelligenze artificiali nella definizione di ciò che consideriamo vero, accettabile, trasmissibile.
Il suo sviluppo apre un confronto necessario sul ruolo delle intelligenze artificiali nella definizione di ciò che consideriamo vero, accettabile, trasmissibile.
Da un lato, Musk propone una correzione dichiarata di bias ideologici percepiti come dominanti nei modelli attuali.Grok nasce per rimuovere i filtri.
Dall’altro, questa stessa operazione solleva interrogativi sull’equilibrio tra libertà, controllo e pluralità delle prospettive.
Ma nessun filtro è assenza di filtro. Solo uno nuovo, invisibile.
Forse la domanda non è più “chi controlla la verità”.
Ma se la verità stessa sopravviverà al controllo.


Nessun commento:
Posta un commento
Nota. Solo i membri di questo blog possono postare un commento.