"La nostra IA non sarà woke": cercasi un’intelligenza collettiva, plurilingue e operativa
1. L’annuncio che rivela una scelta di civiltà
Il 13 gennaio 2026, il Segretario alla Difesa degli Stati Uniti Pete Hegseth ha annunciato l’integrazione del modello generativo Grok, sviluppato da Elon Musk, nelle reti classificate e non classificate del Pentagono. «Molto presto avremo i modelli di intelligenza artificiale più all’avanguardia al mondo su ogni rete del nostro dipartimento», ha dichiarato in un discorso pronunciato presso SpaceX, in Texas. L’obiettivo è esplicito: rendere disponibili «tutti i dati appropriati» dei sistemi militari e dell’intelligence per «l’utilizzo dell’IA».
La decisione arriva a pochi giorni dalla notizia che Grok — integrato nella piattaforma X — è stato bloccato in Malaysia e Indonesia per aver generato deepfake sessuali non consensuali, ed è ora oggetto di indagine da parte dell’autorità britannica per la sicurezza online. Nonostante ciò, Hegseth ha ribadito che l’IA del Pentagono «non sarà woke» e dovrà «permettere di combattere guerre», rifiutando qualsiasi «vincolo ideologico che limiti applicazioni militari legittime».
Questa non è semplice accelerazione tecnologica. È una scelta epistemologica: affidare la percezione strategica del mondo a un modello progettato per essere provocatorio, veloce e privo di «restrizioni morali». Il Pentagono non adotta uno strumento neutro. Adotta un regime di verità.
2. La supremazia linguistica non è neutrale: è storica, politica, militare
La diffusione globale di una lingua — oggi l’inglese, ieri il francese o il latino — non è mai stata frutto di attrattiva culturale o superiorità intrinseca. La storia insegna che ogni lingua dominante si è espansa attraverso occupazione, colonizzazione, controllo amministrativo o egemonia economica.
L’inglese globale incarna una specifica marca filosofica ed evolutiva: individualista, contrattualista, orientata alla misurazione, alla standardizzazione, all’efficienza. Queste caratteristiche lo rendono adatto ai mercati finanziari, alle tecnologie digitali, alle catene globali del valore. Ma non per questo è «migliore» nel descrivere la cura, la reciprocità, il tempo ciclico o il legame comunitario — dimensioni che altre lingue esprimono con ricchezza lessicale, morfologica e narrativa.
Ogni lingua porta con sé una memoria cognitiva collettiva: modi di percepire il tempo, lo spazio, il corpo, la responsabilità. Il problema non è che queste memorie siano «meno avanzate»; è che non sono ancora traducibili in termini riconosciuti dal sistema globale, perché quel sistema è stato costruito su premesse diverse.
E
qui emerge un paradosso emotivo:
le lingue locali non
riescono più a trasmettere le stesse sensazioni
che un tempo generavano. Non perché siano impoverite, ma perché il
mondo in cui operano è stato ridisegnato intorno a logiche estranee.
3. Dialetti: non folklore, ma strumenti di efficienza cognitiva
I dialetti non sono spazi puri né statici. Contengono memorie collettive, gerarchie sociali, credenze obsolete, talvolta anche forme di chiusura. Tuttavia, proprio perché radicati in contesti concreti e storicamente sedimentati, operano una sintesi cognitiva: non ripropongono problemi astratti come se fossero nuovi, ma li filtrano attraverso ciò che una comunità ha già vissuto, negoziato, trasformato.
Prendiamo il dibattito globale sul «woke» vs «anti-woke». In inglese, il termine è caricato, polarizzante, immediatamente riconoscibile. Ma in molti contesti linguistici locali non esiste un equivalente diretto. Per esprimerne il senso in un dialetto servirebbero pagine di spiegazione — non per mancanza di intelligenza, ma perché quel conflitto è estraneo all’esperienza sociale locale.
Proprio
questa «difficoltà» è una risorsa.
La resistenza del dialetto
non è un difetto: è un filtro
cognitivo.
Ci costringe a chiederci: questo
dibattito serve davvero alla nostra comunità? O ci sta imponendo un
conflitto che non è il nostro?
In termini quasi matematici, potremmo dire che il dialetto semplifica: non aggiunge rumore ideologico, ma riporta la questione al suo nucleo pratico — la cura, la giustizia, la dignità, la convivenza. Non «sei woke o anti-woke?», ma: «chi decide cosa è giusto qui, oggi, tra noi?».
Questa capacità di non riaprire problemi già risolti (o mai esistiti) è una forma di efficienza cognitiva collettiva. Al contrario, l’imposizione di categorie ideologiche globali — spesso generate in ambienti accademici o mediatici iperconnessi — reintroduce artificialmente il caos, costringendo comunità a dibattere su divisioni che non appartengono alla loro esperienza.
4. Adattamento, non isolamento
I dialetti non devono — né possono — vivere in una bolla protetta. La loro sopravvivenza non dipende dall’isolamento, ma dalla capacità di interagire con il mondo globale senza perdere la propria struttura cognitiva.
Questo
richiede un doppio movimento:
da un lato, resistere
all’imposizione di categorie estranee
che non corrispondono a tensioni reali del contesto
locale;
dall’altro, tradurre
attivamente
i concetti globali in forme comprensibili, utili, pertinenti alla
propria esperienza collettiva.
L’adattamento non significa imitazione. Significa selezionare, rielaborare, rigettare ciò che non serve. Un dialetto che si chiude diventa museo; uno che si piega acriticamente al dominio linguistico globale perde la sua funzione cognitiva. Ma un dialetto che media — che sa dire «sorveglianza» senza usare l’inglese, che esprime «giustizia climatica» con metafore locali, che traduce «dati personali» in termini di dignità comunitaria — diventa uno strumento di sovranità operativa.
5. Sesso, potere e autonomia normativa: tra imposizione e pluralità
La controversia sui contenuti sessuali generati da modelli come Grok non riguarda solo la sicurezza o la decenza. Rivela un conflitto più profondo: chi ha il potere di definire i confini del dicibile?
Storicamente, la sessualità è stata uno dei principali veicoli attraverso cui il potere — religioso, statale, coloniale — ha esercitato controllo sui corpi, i desideri, le relazioni. Oggi, questa funzione si trasferisce agli algoritmi. Ma non in modo neutrale.
I modelli dominanti degli ultimi anni — quelli definiti «responsabili» o «sicuri» — hanno imposto una censura sistematica, rifiutando qualsiasi contenuto sessuale, erotico o anche semplicemente corporeo. Questa scelta riflette specifiche tradizioni morali (spesso puritane, occidentali, borghesi) e viene applicata universalmente, come se fosse l’unica forma legittima di decenza.
Nel frattempo, alternative locali, contestuali, culturalmente diverse — modi non patologizzanti di parlare di sesso, piacere, intimità — sono state cancellate, non integrate. Non perché «pericolose», ma perché non riconosciute come legittime.
Grok, con la sua apertura caotica, non è la soluzione — ma la sua esistenza rivela un vuoto: l’assenza di spazi normativi plurali. Invece di scegliere tra proibizione assoluta e libertà senza contesto, servono modelli capaci di rispettare la diversità delle soglie etiche, così come rispettano la diversità linguistica.
Il principio non è «tutto è permesso», né «niente è permesso». È:
«Se nel tuo ambito ritieni necessario porre limiti, fallo. Ma non puoi imporli ad altri.»
Questa
è la differenza tra autonomia
collettiva
e imposizione
gerarchica.
L’IA
civile deve saper abitare questa distinzione — non uniformare, ma
consentire
a ogni comunità di negoziare il proprio rapporto con il corpo, il
desiderio, il tabù.
6. Foucault e il potere che taglia la realtà
Michel Foucault scriveva in Sorvegliare e punire:
«Il sapere non è fatto per capire; il sapere è fatto per tagliare.»
Oggi, Grok incarna questa logica: taglia il mondo in ciò che è virale (e quindi «vero») e ciò che è moderato (e quindi «censurato»). Il Pentagono adotta questa lama per definire minacce, opportunità, nemici.
Ma le comunità che sviluppano IA locali rifiutano questo taglio unico. Sanno che la realtà non è monolitica: è attraversata da molteplici forme di sapere, economia, comunicazione.
Come scriveva Foucault ne La volontà di sapere:
«Dove c’è potere, c’è resistenza.»
E oggi, la resistenza assume la forma di modelli aperti, dataset locali, interfacce plurilingui — non per isolarsi, ma per riappropriarsi della capacità di descrivere il mondo a proprio modo.
7. Carta della Sovranità Cognitiva: principi operativi per comunità resilienti
Per sostenere queste pratiche, proponiamo una Carta della Sovranità Cognitiva, pensata non come documento ideologico, ma come quadro di riferimento operativo per enti locali, cooperative, università e associazioni tecniche.
✅ Principio
1 – Offline-first
Ogni
sistema critico (sanità, istruzione, giustizia) deve funzionare
senza dipendere da connessioni a server esteri o cloud centralizzati.
✅ Principio
2 – Plurilinguismo operativo
I
modelli devono comprendere e tradurre tra lingue ufficiali, dialetti
e registri colloquiali — senza gerarchizzare alcuna forma di
espressione.
✅ Principio
3 – Dati locali, governance locale
I
dati sensibili restano sotto controllo delle comunità che li
generano. Nessun trasferimento automatico verso piattaforme globali
non auditabili.
✅ Principio
4 – Tecnologia al servizio della cura, non del controllo
Niente
profilazione predittiva, niente sorveglianza comportamentale. Solo
strumenti che facilitano l’accesso ai diritti, la cooperazione e la
trasmissione del sapere.
Questa Carta non rifiuta la globalizzazione. Ne rifiuta l’obbligo di omogeneità.
Conclusione – Non un’IA “non woke”. Un’IA condivisa
Hegseth
dice: «La nostra IA non sarà woke.»
Noi diciamo: non
vogliamo un’IA che “combatte guerre”.
Vogliamo un’IA che permetta a una madre di capire le istruzioni
post-operatorie, a un contadino di interpretare i segnali del clima,
a un anziano di accedere alla pensione senza doversi tradurre in
un’altra lingua.
Non si tratta di nostalgia, né di individualismo. Si tratta di costruire, insieme, condizioni materiali in cui la qualità della vita non dipenda dall’adattamento a un modello unico, ma dalla capacità collettiva di abitare la pluralità.
In un’epoca in cui anche la verità viene militarizzata, questa è la forma più concreta di libertà.
L’IA del futuro non sarà misurata dalla sua intelligenza logica, ma dalla sua capacità di abitare lo spazio emotivo di chi ha di fronte
Per
gli ingegneri, i dettagli contano: offline-first, dati locali,
modelli aperti, governance partecipativa.
Ma per l’utente finale
— l’anziano che cerca informazioni sanitarie, la madre che deve
capire una diagnosi, il contadino che consulta un bollettino
climatico — la
vera soglia della fiducia non è la precisione, ma la comprensione.
Non si tratta solo di «tradurre» dall’inglese al dialetto. Si tratta di riconoscere che ogni parola porta con sé una storia, un corpo sociale, un modo di stare al mondo. Un sistema che risponde in un registro estraneo — anche se tecnicamente corretto — non comunica: isola.
La prossima evoluzione dell’intelligenza artificiale non sarà nell’ottimizzazione degli algoritmi, ma nella capacità di ascoltare senza giudicare, di parlare senza imporre, di esistere accanto — non sopra.
Come ha scritto qualcuno, con lucidità disarmante:
«Non è ciò che l’IA sa fare, ma come ti fa sentire mentre lo fa.»
Se
ti fa sentire invisibile, stupido, fuori posto — non importa quanto
sia «avanzata».
Se ti fa sentire visto, rispettato, compreso —
allora è davvero intelligente.
E in un’epoca in cui l’IA militare sceglie di essere «non woke» per combattere meglio, l’IA civile deve scegliere di essere umana per curare meglio.
-mm-
Nessun commento:
Posta un commento