Al momento stai visualizzando Il tuo cervello parla come un’intelligenza artificiale (e questo cambia tutto quello che pensi sulle parole)
  • Categoria dell'articolo:AI e umani
  • Commenti dell'articolo:0 commenti

Quando ascoltate qualcuno che vi racconta qualcosa, il vostro cervello fa un lavoro enorme senza che ve ne rendiate conto. Prende dei suoni, li trasforma in parole, collega quelle parole a tutto quello che avete sentito prima, costruisce un significato, e intanto sta già cercando di prevedere cosa verrà detto dopo. Non aspetta passivamente la prossima parola. La anticipa. Tutto questo in pochi millisecondi.


Uno studio pubblicato su Nature Communications da un team internazionale guidato dalla Hebrew University di Gerusalemme ha scoperto che questo lavoro (il modo in cui il cervello costruisce il significato e anticipa le parole in arrivo) somiglia in modo sorprendente a come fanno la stessa cosa i modelli di intelligenza artificiale. Non vagamente. In modo misurabile, strato dopo strato, millisecondo dopo millisecondo.
E questo ci porta a una domanda che va ben oltre la neuroscienza: se il meccanismo è simile, cosa ci dice sulla natura delle parole? Cosa significa davvero capire una frase? E soprattutto: cosa succede quando parliamo d’amore?

Come hanno fatto a scoprirlo

Partiamo dalla ricerca, perché il metodo è importante per capire quanto la scoperta sia solida.
I ricercatori hanno lavorato con pazienti che avevano degli elettrodi impiantati direttamente nel cervello. Non li hanno impiantati per questo studio (queste persone li avevano già per ragioni mediche, in particolare per monitorare l’epilessia). Gli elettrodi però hanno permesso di registrare l’attività cerebrale con una precisione che le tecniche tradizionali non possono offrire: non immagini sfocate di aree che “si accendono”, ma segnali elettrici reali, misurati istante per istante.
A queste persone è stato fatto ascoltare un podcast di trenta minuti. Non frasi costruite apposta, non parole isolate, una storia raccontata in modo naturale, come quella che ascoltereste voi in cuffia durante una passeggiata.
Poi i ricercatori hanno preso la trascrizione di quel podcast (quindi il testo scritto, non l’audio) e l’hanno data in pasto a due modelli di intelligenza artificiale: GPT-2 XL e Llama-2. Questi sono modelli linguistici, cioè sistemi di intelligenza artificiale  che elaborano testo. Non ascoltano, non vedono, non sentono. Leggono parole e le trasformano in rappresentazioni numeriche.
Un piccolo chiarimento tecnico che vale la pena fare: questi modelli funzionano a strati, un po’ come un edificio a piani. Al piano terra l’elaborazione è grezza ( la parola viene riconosciuta in modo superficiale). Salendo di piano, la rappresentazione diventa sempre più ricca: il modello inizia a collegare quella parola a quelle che la precedono, a costruire un contesto, a dare un senso più ampio.
I ricercatori sapevano con precisione in quale momento del podcast veniva pronunciata ogni parola, quindi hanno potuto confrontare: cosa fa il cervello nell’istante in cui sente quella parola? E cosa fa il modello quando elabora la stessa parola nel testo?
Il risultato è stato chiaro. Nei primi millisecondi dopo aver sentito una parola, il cervello produce segnali che corrispondono ai piani bassi del modello (segnali grezzi, poco definiti). Man mano che passano i millisecondi, l’attività cerebrale si sposta verso aree più specializzate come l’area di Broca, e comincia a somigliare a quello che succede ai piani alti del modello (quelli dove si costruisce il significato completo, dove la parola viene collegata a tutto ciò che è venuto prima).
In parole semplici: il cervello e l’intelligenza artificiale attraversano gli stessi passaggi nello stesso ordine. E c’è un dettaglio in più che rende la cosa ancora più significativa. I modelli linguistici come GPT-2 hanno un compito fondamentale: prevedere la parola successiva. Dato tutto quello che è stato detto finora, qual è la parola più probabile che verrà dopo? È così che imparano, ed è così che funzionano. La ricerca mostra che il cervello fa essenzialmente la stessa cosa: mentre ascoltate qualcuno parlare, non state solo elaborando quello che sentite , state continuamente anticipando quello che verrà detto. E la corrispondenza tra cervello e modello è più forte proprio quando il cervello riesce a prevedere correttamente la parola successiva.
Cervello e intelligenza artificiale, insomma, non si somigliano per caso. Si somigliano perché sono entrambi macchine di previsione che stanno risolvendo lo stesso problema (anticipare cosa viene dopo in una sequenza di parole) e arrivano a una soluzione simile.
Un’ultima cosa sulla ricerca, ed è importante: i ricercatori stessi avvertono che c’è un rischio in questo tipo di confronto. Se usiamo l’intelligenza artificiale come strumento per analizzare il cervello, e poi diciamo “il cervello funziona come l’intelligenza artificiale”, potremmo semplicemente stare vedendo nei dati quello che il nostro strumento ci predispone a vedere. Somiglianza non significa identità. Ma significa che questa somiglianza non è casuale, è il risultato di una convergenza reale.

Cosa sono davvero le parole

Ora facciamo un passo indietro rispetto alla tecnologia e ragioniamo su qualcosa che diamo per scontato ogni giorno: le parole.
Prendiamo la parola “cane”. Cos’è? È un suono ,o un gruppo di lettere, su cui noi parlanti italiano ci siamo messi d’accordo. Non c’è niente nella parola “cane” che la leghi all’animale in sé. In spagnolo lo stesso animale si chiama “perro”, in tedesco “Hund”. La parola è una convenzione: un contratto tra persone che parlano la stessa lingua. E in quanto convenzione, funziona per tutti allo stesso modo. Se dico “ieri ho visto un cane lupo”, qualunque parlante italiano capisce la frase.
Questo è il primo livello del linguaggio: quello condiviso, pubblico, uguale per tutti.
Ma poi c’è un secondo livello, e qui le cose si fanno interessanti. Perché quando sentite “cane lupo”, nel vostro cervello non si attiva solo l’etichetta. Si attivano i vostri ricordi, le vostre emozioni, la vostra storia personale con i cani lupo. Chi ne ha avuto uno per quindici anni sente quella frase e gli torna l’odore del pelo, le passeggiate la mattina presto, magari il dolore di averlo perso. Chi è stato morso da bambino sente la stessa identica frase e gli torna in mente la paura, il battito accelerato, la corsa al pronto soccorso.
La frase è la stessa. La convenzione è identica. Ma quello che si muove dentro ognuno di noi è completamente diverso.
Ora, ecco la domanda che dovremmo farci più spesso: quando comunichiamo, a quale di questi due livelli stiamo operando?
La risposta, se ci pensiamo con onestà, è che la comunicazione quotidiana funziona principalmente al primo livello, quello delle convenzioni. Quando raccontate a un amico che avete visto un cane lupo, l’informazione passa perché condividete l’etichetta, non perché condividete i ricordi.
Ma questo non significa che il secondo livello sia irrilevante. Anzi. Quando volete davvero farvi capire, quando raccontate qualcosa che vi sta a cuore, un’emozione, un’esperienza importante, fate un lavoro molto più complesso. Prendete qualcosa che è solo vostro, irripetibile, soggettivo, e provate a tradurlo in parole che sono per definizione condivise, standard, uguali per tutti. In questa traduzione qualcosa si perde per forza. Il vostro vissuto non entrerà mai completamente dentro le parole. Ma ci provate lo stesso: usate le convenzioni come mattoncini per costruire qualcosa che somigli il più possibile a come vi sentite.
E chi vi ascolta fa il percorso inverso. Prende i vostri mattoncini e li ricostruisce dal suo lato, riempiendoli con i suoi ricordi, le sue emozioni, la sua esperienza. Il risultato non sarà identico a quello che provate voi. Ma ci si avvicina. E in quella approssimazione, in quel tentativo reciproco di capirsi, sta la comunicazione vera.
Si potrebbe dire che il linguaggio funziona come un massimo comune denominatore delle esperienze umane. Pensatelo in termini matematici: è ciò che resta quando si toglie tutto il soggettivo e si tiene solo il nucleo che tutti condividono. La parola “cane lupo” è quel nucleo, spogliata dei ricordi, delle emozioni, delle storie individuali. Il linguaggio esclude il soggettivo proprio per poter funzionare come ponte tra soggettività diverse. E ogni volta che parliamo, stiamo facendo la stessa operazione: riduciamo la complessità di quello che sentiamo a qualcosa di trasmissibile, sperando che dall’altra parte qualcuno riesca a ricostruirla.

Dove si colloca l’intelligenza artificiale in tutto questo

Ed è qui che la ricerca sulla somiglianza tra cervello e intelligenza artificiale diventa davvero interessante.
L’intelligenza artificiale opera al primo livello ,quello delle convenzioni, con una competenza notevole. Conosce le relazioni tra le parole, i contesti in cui vengono usate, le sfumature. Sa che “cane lupo” compare in certi tipi di frasi e non in altri, sa come si collega a “pastore tedesco”, a “cuccia”, a “fedeltà”. Ha una mappa ricchissima delle convenzioni linguistiche, costruita dall’analisi di enormi quantità di testo.
Ma non possiede il secondo livello. Non ha ricordi. Non ha l’odore del pelo di nessun cane. Non ha cicatrici da morso. Non ha niente da tradurre in parole, perché non c’è un vissuto personale da cui partire.
Questo la rende diversa da un essere umano che comunica. Quando voi parlate di qualcosa che avete vissuto, state facendo quel lavoro di traduzione imperfetta di cui abbiamo parlato, partite da un’esperienza reale e la riducete a convenzioni, sapendo che qualcosa andrà perso. L’intelligenza artificiale salta questo passaggio. Parte direttamente dalle convenzioni. Non traduce niente. Combina mattoncini senza aver mai costruito la casa da cui quei mattoncini dovrebbero provenire.
Il risultato, però, può sembrare lo stesso. E questo ci porta al caso più estremo.

La lettera d’amore

Se chiedete a un’intelligenza artificiale di scrivere una lettera d’amore, vi produrrà qualcosa di credibile. A volte commovente. Una lettera che parla di dettagli piccoli, di vulnerabilità, di quella sensazione di non riuscire a smettere di pensare a qualcuno. La leggete e suona vera.
Ma l’intelligenza artificiale non ha mai amato nessuno. Non sa cosa significhi avere il cuore che accelera quando vedete un messaggio di quella persona. Non conosce l’insonnia da innamoramento, né la paura di perdere qualcuno. Non ha un corpo che reagisce all’amore.
Come è possibile allora che scriva qualcosa di convincente?
Perché ha accesso a una quantità enorme di modi in cui noi umani abbiamo espresso l’amore nel corso della storia. Lettere, romanzi, messaggi, sceneggiature. Ha imparato le strutture che rendono credibile una dichiarazione d’amore, sa che non basta scrivere “ti amo”, sa che servono i dettagli specifici, la fragilità mostrata, il ritmo giusto tra intensità e leggerezza. In pratica, padroneggia perfettamente le convenzioni con cui si esprime l’amore.
E qui arriva la domanda scomoda: chi riceve quella lettera, come fa a distinguere?
Pensateci. Quando leggete una lettera d’amore ,scritta da chiunque, umano o artificiale, non state percependo direttamente l’emozione di chi l’ha scritta. State leggendo delle parole che attivano i vostri ricordi, le vostre esperienze, il vostro vissuto. La lettera vi commuove non per quello che ha provato chi scrive, ma per quello che risveglia in voi.
Questo però non significa che tutte le lettere d’amore siano uguali, né che la provenienza sia irrilevante.
Quando una persona innamorata vi scrive, sta facendo quel lavoro di traduzione di cui abbiamo parlato. Ha dentro di sé qualcosa di enorme (un sentimento vero, fisico, travolgente) e cerca le parole giuste per farvelo arrivare. Sceglie i mattoncini migliori tra quelli disponibili, sapendo che non saranno mai abbastanza. Ma ci prova. E in quell’imperfezione, in quel tentativo di tradurre l’intraducibile, c’è qualcosa di profondamente umano.
L’intelligenza artificiale non fa questo lavoro. Non ha niente da tradurre. Assembla i mattoncini giusti perché ha imparato quali combinazioni funzionano. Il risultato può sembrare identico. Ma il processo è completamente diverso.
Detto questo, vale la pena notare che questa differenza non riguarda solo l’intelligenza artificiale. Anche tra esseri umani il meccanismo non è sempre sincero. Un attore ci fa piangere recitando un dolore che non prova. Un truffatore sentimentale costruisce relazioni intere basandosi unicamente sulla padronanza delle parole giuste. Il fatto che un’intelligenza artificiale possa fare la stessa cosa non crea un problema nuovo. Rende più visibile un problema che è sempre esistito: le parole, da sole, non sono una garanzia di autenticità.

Cosa ci resta

Torniamo un’ultima volta alla ricerca. Se il cervello e l’intelligenza artificiale elaborano il linguaggio con meccanismi convergenti ( strati progressivi, previsione continua della parola successiva) forse è perché il linguaggio, come sistema di convenzioni, non ha bisogno dell’esperienza soggettiva per funzionare a livello strutturale. Ha bisogno di contesto, coerenza, capacità di anticipare cosa viene dopo. Cose che sia il cervello sia la macchina sanno fare bene.
Ma il linguaggio non è solo un sistema di convenzioni. È anche lo strumento con cui noi esseri umani proviamo a condividere ciò che siamo. Quando raccontate a qualcuno come vi sentite, state facendo qualcosa che nessuna intelligenza artificiale fa: state partendo da un’esperienza reale e state cercando (con fatica, con approssimazione) di trasmetterla a un’altra persona attraverso parole che non saranno mai perfette.
Il vissuto soggettivo , i ricordi, le emozioni, le cicatrici, non è dove risiede il potere meccanico del linguaggio. Quello funziona anche senza. Ma è dove risiede il motivo per cui parliamo. Non parliamo per combinare convenzioni. Parliamo perché abbiamo qualcosa dentro che vogliamo far arrivare a qualcun altro.
La differenza vera, allora, non sta nel risultato, una frase ben costruita è una frase ben costruita, chiunque l’abbia prodotta. La differenza sta nel punto di partenza. C’è chi parte da un vissuto e lo traduce in parole, sapendo che qualcosa andrà perso ma tentando lo stesso. E c’è chi parte dalle parole e basta. Il tentativo imperfetto di farsi capire, quella traduzione sempre incompleta di ciò che sentiamo: forse è questa la cosa più umana che esista.

 

Note
Scarica la ricerca
https://www.rivista.ai/wp-content/uploads/2026/02/s41467-025-65518-0.pdf

Lascia un commento