LA MENTE UMANA – Il cervello e il linguaggio

16 Giugno 2012 0 Di Pier

Stasera, per la rubrica “La mente umana”, torniamo a parlare del senso dell’udito.

Nei post “I sette sensi – 1” e “2” abbiamo definito l’udito come il senso che ci permette di percepire i suoni, cioè onde di energia generate dalla vibrazione di un corpo che si propagano attraverso l’aria. Nel postIl senso dell’udito e il senso del tempoabbiamo scoperto che se con la vista percepiamo dove sono le cose, con l’udito capiamo quando si verifica un evento. Molto interessante, non credi? Nel post “L’udito alla nascitaabbiamo visto come l’udito è il primo dei sensi che sviluppiamo nel ventre materno e le relative regioni cerebrali sono le prime a svilupparsi. Infine nel post “L’udito e lo spazione abbiamo studiato i limiti spaziali: l’udito ci permette di controllare costantemente l’ambiente intorno a noi e di individuare velocemente e con relativa precisione le fonti dei suoni.

Stasera parleremo dell’udito e dell’interpretazione del linguaggio.

Che differenza c’è tra un suono e il linguaggio?

Il linguaggio non è un semplice insieme di rumori, ma uno dei vettori primari della comunicazione umana e quando il cervello classifica una serie di suoni come “linguaggio” non si comporta come se ascoltassimo il cinguettio degli uccelli o il rumore del traffico, ma attiva tutta una serie di aree di elaborazione ed utilizza una serie di artifici che hanno lo scopo di estrarre dai “suoni” tutte le informazioni possibili.

Il linguaggio è composto da enunciati, a loro volta composti di parole con significati precisi e organizzati secondo precise regole grammaticali. Grazie a tutto questo possiamo esprimere significati molto complessi e articolati. Le parole sono a loro volta scomponibili in morfemi, suoni complessi che rappresentano significati univoci o che modificano il significato di altri morfemi. Parole e morfemi sono scomponibili in fonemi, suoni elementari che in parte possono corrispondere alle lettere.

Le lettere sono 25 mentre i fonemi nella nostra lingua sono circa il doppio. Ogni lingua ha una serie propria di fonemi che possono essere molto diversi. Alcune lingue hanno un numero molto superiore di fonemi e l’uomo è fisicamente in grado di produrne più di cento. Nella realtà ognuno di noi, da bambino, impara e si sintonizza sui fonemi tipici della propria lingua madre e l’apprendimento di nuovi fonemi è uno degli ostacoli principali quando studiamo una nuova lingua.

Quando parliamo normalmente produciamo circa 10-15 fonemi o suoni al secondo e se parliamo velocemente possiamo raddoppiare questo numero. La nostra capacità di ascolto è invece molto superiore, fino a 50 fonemi al secondo, un numero talmente elevato che comporta la sovrapposizione dei suoni tra loro.

In questo caso, come riusciamo a capire il messaggio?

L’ascoltatore conosce la lingua e le regole che questa rispetta e può prevedere quali suoni seguiranno, via via che ascolta, arrivando perfino a indovinare la o le parole che seguiranno. E’ attraverso questa capacità di previsione che un madrelingua può ascoltare il proprio linguaggio ad alta velocità e riuscire a comprenderlo.

A livello del cervello, in presenza di un linguaggio le informazioni provenienti dall’udito vengono instradate ad aree cerebrali completamente diverse, dedicate appunto alla ricezione e decodifica del messaggio verbale.

Sono queste aree che ci permettono di comprendere il significato di un enunciato o una parola anche se ne abbiamo ascoltato una parte e che ci permettono di comprendere una pronuncia distorta o troppo veloce, o una voce coperta dal rumore del traffico.

Non hai mai avuto la sensazione di sapere già quello che sta per dire il tuo interlocutore solo ascoltando le prime parole?

Adesso sai perché. Decine e centinaia di migliaia di anni di selezione naturale hanno sviluppato nell’uomo questa capacità straordinaria mirata appunto alla comunicazione sociale, che permette di ricevere e comprendere il messaggio verbale al meglio, nonostante le situazioni.

In realtà in presenza del linguaggio il cervello non si limita ad attivare solo aree specifiche per la decodifica dei suoni, dopotutto è stato dimostrato che la comunicazione umana avviene per la maggior parte tramite il linguaggio non verbale o paraverbale. Quindi il cervello non fa solo quanto finora descritto, ma estrae informazioni dal tono della voce, dal timbro, dalle pause, dal ritmo e dalla modulazione dei fonemi e delle parole. E questo solo per quanto riguarda l’udito. In presenza dell’interlocutore, parallelamente a quanto visto finora, il cervello umano recepisce e decodifica anche l’espressione del viso, la postura, i gesti delle mani e i movimenti del corpo, dando a essi un significato o un’interpretazione emotiva, nella maggior parte dei casi inconscia o parzialmente conscia.

Di questo comunque parleremo approfonditamente nei prossimi post relativi alla comunicazione. Per stasera ci fermiamo qui.

Un’ultima domanda per te prima di lasciarci: ti sei mai chiesto perché la comunicazione è talmente importante da spingere a sviluppare e selezione tali capacità cerebrali?

Grazie dell’attenzione e a presto ;D

Qui puoi trovare gli altri articoli della rubrica