Loading....

Interlocutori sulla stessa “lunghezza d’onda”: sincronizzazione cerebrale tra parlante e ascoltatore

Colloquialmente, quando due persone la pensano allo stesso modo, diciamo che sono sulla stessa lunghezza d’onda; con i dovuti aggiustamenti, non è una metafora così sbagliata, dopotutto. Un gruppo di ricerca basco, tramite l’elettroencefalografia, ha studiato l’attività cerebrale di coppie di partecipanti parlanti di lingua spagnola, i quali dovevano alternarsi a parlare e ascoltare in assenza di contatto visivo, in una situazione artificiale simile a quando facciamo una telefonata. Lo studio si colloca in un paradigma teorico e metodologico chiamato two-person neuroscience, dove l’unità di studio sono due partecipanti che interagiscono, e non uno singolo e isolato che esegue un determinato compito, come nella maggioranza degli studi di neuroscienze cognitive.

Cervelli in interazione. Autore: geralt. Licenza Creative Commons

Nello specifico, cosa si è misurato dell’attività cerebrale? I ricercatori erano interessati a testare l’ipotesi secondo la quale, durante l’interazione tra due interlocutori in uno scenario di comunicazione orale, l’attività elettrica dei loro cervelli tenderebbe a “mimarsi”, ad assumere ritmi simili (“brain-to-brain entrainment”). Gruppi più o meno grandi di neuroni, infatti, possono “accendersi” a frequenze diverse, dando origine a un segnale periodico (oscillazioni neurali). Queste attività oscillatorie sarebbero la chiave della codifica delle informazioni, determinerebbero il flusso di informazioni tra aree diverse, e la tempistica della percezione e dell’elaborazione. Secondo l’ipotesi di lavoro del presente studio se i cervelli dei due interlocutori dovessero sincronizzarsi si dovrebbero osservare delle convergenze in determinate frequenze sia per il parlante che per l’ascoltatore.

Set-up sperimentale: i due partecipanti interagiscono in una conversazione senza contatto visivo mentre viene registrata l’attività elettrica cerebrale tramite 27 elettrodi posti a contatto con lo scalpo. © Pérez et al. (2017)
Esemplificazione grafica della sincronizzazione delle frequenze alfa tra l’attività cerebrale del parlante e dell’ascoltatore rilevata dai rispettivi elettrodi. © Pérez et al. (2017)

I risultati rivelano che ci sono sia delle differenze tra parlante e ascoltatore che delle convergenze, e che alcune di queste convergenze sono spiegabili come mediate dall’input sonoro, il parlato: alcuni ritmi neurali – bande di frequenza delta (1-3 Hz) e theta (4-8 Hz) – sarebbero infatti dovuti all’entrainment con delle caratteristiche fisiche del parlato, elemento disponibile sia per il parlante che per l’ascoltatore, e non sarebbero quindi rivelatori di una sincronizzazione indipendente dall’input fisico. Ma alcune convergenze, invece, non potrebbero essere spiegate così: l’entrainment nelle bande di frequenza alfa (9-12 Hz) e beta (15-20 Hz), infatti, rispecchierebbero rispettivamente il reclutamento di risorse attentive (necessarie non solo per comprendersi, ma anche per anticipare il parlato in arrivo e per segmentare in unità significative il segnale continuo del parlato) e il collegamento tra processi di comprensione e funzioni motorie (alcuni studi precedenti hanno mostrato cambiamenti sistematici in questa frequenza quando un partecipante doveva ascoltare del parlato – comprensione,– cambiamenti simili a quelli che si rilevano quando un parlante deve invece produrre un messaggio linguistico – produzione).

La sincronizzazione in queste frequenze, quindi, potrebbe essere il riflesso dell’interazione sociale tra due individui (e i loro cervelli) richiesta dalla situazione comunicativa, ed essere quindi una finestra su tali processi e sulle loro basi neurali.

 

Fonte:

Pérez, A., Carreiras, M., Duñabeitia, J.A. (2017). Brain-to-brain entrainment: EEG interbrain synchronization while speaking and listening. Scientific Reports 7: 4190.

Simone Gastaldon

Laureato magistrale in Linguistica presso l'Università di Padova con una tesi sperimentale sull'interfaccia tra linguaggio e cognizione numerica, è attualmente dottorando di ricerca in Psychological Sciences presso lo stesso ateneo. Il suo progetto di ricerca si focalizza su come il sistema linguistico-cognitivo generi delle predizioni sui futuri stimoli linguistici mentre ascoltiamo e comprendiamo frasi e discorsi, e i possibili legami con i processi cognitivi sottostanti la produzione linguistica. Per farlo studia le dinamiche neurali tramite elettroencefalografia sia in parlanti fluenti che in adulti con balbuzie. Precedentemente è stato membro del Cognitive Biology of Language group presso l'Università di Barcellona, lavorando alla "self-domestication hypothesis" nell'evoluzione di Homo Sapiens. All'infuori dell'ambito accademico i suoi interessi maggiori sono la musica (dal post-metal al dark folk, passando per una miriade di altre cose) e la fotografia amatoriale (e l'ozio, e il cibo). Ogni tanto si diletta con la pittura e il disegno a scopo terapeutico. Contribuisce saltuariamente a Minerva da novembre 2016, concentrandosi sulle neuroscienze cognitive, la cognizione comparata e l'evoluzione umana, in particolare nella prospettiva del linguaggio e della comunicazione. Remember: your brain is proactive.

Lascia un commento

Back To Top