Elaborazione del linguaggio
Il linguaggio arriva a noi attraverso percezioni sensoriali: visive, uditive o persino tattili. Facciamo un viaggio nel mondo del nostro cervello e della comunicazione attraverso una lingua.
In questo numero:
E se registrassimo linguaggio e suoni simultaneamente?
di Valentina Esposito
Secondo una recente ricerca americana il sistema uditivo del cervello lavora in percorsi di elaborazione neuronale simultanei e paralleli
Fino a poco tempo fa gli studi scientifici sembravano non nutrire alcun dubbio: i centri uditivi del cervello elaborano il linguaggio esattamente come tutti gli altri suoni, partendo dall’isolamento delle caratteristiche più semplici fino a giungere alle più complesse e astratte. Eppure sembra che per il linguaggio il cervello faccia un’eccezione.. Sembra infatti che per percepire i suoni del linguaggio più velocemente, il sistema uditivo li elabori in parallelo e simultaneamente con alcune aree precise e delegate del cervello.
Dal processo di elaborazione gerarchico a quello simultaneo: come la ricerca capovolge i modelli tradizionali di elaborazione neuronale
Ascoltare e pronunciare parole e rispettivo suono simultaneamente è un processo così insito in noi, automatico e naturale, da non comprendere o non pensare a quante informazioni tocchi poi elaborare e distinguere al sistema uditivo del nostro cervello. I suoni che quest’ultimo riceve infatti sono trasformati in oggetti acustici ben distinti: la voce di un amico, il latrato di un cane, il ticchettio della pioggia, suoni che a loro volta vengono estratti da un paesaggio sonoro caotico di fondo. Voci ad esempio che vanno distinte tra loro perché pronunciate da persone diverse, con diversa altezza, suono e altre qualità pur avendo entrambe uno stesso significato linguistico.
I modelli di studio tradizionale dell’elaborazione neurale hanno sempre affermato che quando ascoltiamo dei suoni, il nostro sistema uditivo estrae caratteristiche semplici che vengono poi, di volta in volta, combinate in rappresentazioni complesse e astratte; un processo che permette al cervello di trasformare così il suono di una voce in fonemi, sillabe e poi parole.
Ma in un recente articolo pubblicato sulla rivista di biologia americana Cell, un gruppo di ricerca ha revisionato il noto modello affermando che il sistema uditivo potrebbe elaborare il suono e il linguaggio simultaneamente e in parallelo. Il processo condotto dal cervello per dare senso al linguaggio sarebbe quindi molto diverso, perché i segnali in arrivo all’orecchio si separerebbero poi in percorsi cerebrali diversi in una fase di elaborazione precoce, aggirando persino una regione cerebrale che da sempre avrebbe costituito una grande importanza per creare la rappresentazione di suoni complessi.
Se davvero il modello tradizionale di elaborazione neuronale necessitasse di una revisione, lo stesso potremmo dire del funzionamento di tutto il sistema uditivo, generalmente associato per analogia al funzionamento del sistema visivo. Questa ricerca quindi fornirebbe preziosi indizi per spiegare diversamente come il cervello riesca a districare in maniera rapida ed efficace i flussi sovrapposti di stimoli uditivi, oltre a rendere necessaria una riconsiderazione del ruolo delle varie parti del sistema uditivo e come vengono quindi decifrati i paesaggi sonori complessi.
Come abbiamo sempre creduto di elaborare linguaggio e suono….
Cosa accade nel nostro orecchio quando percepiamo qualcuno parlare? La coclea divide il suono complesso nelle diverse frequenze di cui è composto, inviando questa rappresentazione alla corteccia uditiva in un processo che prevede diverse fasi di elaborazione. Nella prima fase da questi segnali vengono estratte le informazioni sulla posizione di un suono nello spazio, sulla sua altezza e variazione. Nella seconda fase si è sempre ritenuto che le regioni corticali superiori estraggano caratteristiche rilevanti per il linguaggio, dai fonemi alla prosodia, secondo una sequenza gerarchica. Un sistema molto simile ai modelli di funzionamento del sistema visivo.
Molti sono gli studi che hanno attestato questo processo di elaborazione riconosciuto come gerarchico e tradizionalmente riconosciuto: una delle prime tappe di questo processo sarebbe la corteccia uditiva primaria, deputata a codificare caratteristiche semplici dei suoni, come la frequenza. Man mano che i segnali si inoltrano oltre la corteccia uditiva primaria, altre regioni cerebrali reagiscono a caratteristiche dei suoni sempre più complesse, tra cui quelle esclusive del linguaggio come i fonemi.
…E come invece suoni e parole si elaborano e rappresentano in percorsi simultanei e paralleli
Un particolare che è sfuggito però nel corso delle indagini e degli studi di questo complesso processo è comprendere quali siano i collegamenti tra queste regioni o la sequenza della loro attivazione. L’obiettivo della ricerca condotta da Liberty Hamilton, neuroscienziata dell’Università del Texas a Austin nel 2014 è stata proprio quella di realizzare una mappa più completa delle rappresentazioni sonore del linguaggio in tutta la corteccia uditiva, per comprendere quali tipo di informazioni sono estratte da un suono nelle diverse aree cerebrali e come quelle informazioni vengano integrata tra una regione e la successiva.
Sono state così osservati i processi in atto in diverse regioni uditive e la loro reazione a caratteristiche di toni puri, parole e frasi pronunciate: se le informazioni scorrono in maniera gerarchica, dalle aree inferiori a quelle superiori come si è sempre affermato, la corteccia uditiva primaria avrebbe dovuto reagire a un input prima della circonvoluzione temporale superiore. Invece si è osservato che alcune aree di quest’ultima hanno reagito alla manifestazione del linguaggio con la stessa velocità con cui la corteccia uditiva primaria reagiva alle caratteristiche semplici del suono, come la frequenza.
Una scoperta che ha mostrato come in realtà le due regioni potessero elaborare contemporaneamente aspetti diversi dello stesso input e come questo percorso parallelo di percezione del linguaggio potesse aggirare la corteccia uditiva primaria, regione ritenuta come sempre la prima nell’elaborare le informazioni giunte. Ciò dimostrerebbe che alcune rappresentazioni dei suoni del linguaggio non hanno bisogno di essere necessariamente create con le caratteristiche di livello inferiore estratte dalla corteccia uditiva primaria.
Questo non significa allontanare del tutto il sistema delle gerarchie ma iniziare a formulare una visione dei processi di elaborazione del linguaggio e del suono in maniera diversa o complementare, dove il sistema parallelo potrebbe essere più vicino ad un meccanismo naturale.
I segnali uditivi infatti sono caotici per natura: le persone possono saltare dei fonemi o delle parole in modo incoerente, o parlare diversamente a seconda del contesto sociale. Un sistema di elaborazione parallelo potrebbe essere più efficace per gestire questi input caotici, oltre a separare in maniera efficiente suoni complessi e sovrapposti, consentendo al cervello di spostare rapidamente l’attenzione da un flusso acustico all’altro e tenere separati i suoni del linguaggio dai suoni di fondo o dell’ambiente.1
Per approfondire il tema ti consiglio
Nel nostro podcast abbiamo incontrato molti professionisti della voce, in questo numero te ne segnalo 3 che potrebbero interessarti:
La lingua non è solo ascoltata, è anche vista. Parliamo con Eugenia Giancaspro, in arte Antigone, di Lingua italiana dei segni
La lingua parlata è prima di tutto suono e la voce è un effetto corporeo. Ci confrontiamo con la logopedista Stefania Pescantini sui temi della produzione del “suono voce” e di come prenderci cura del nostro strumento.
Facciamo un tuffo agli albori del nostro podcast per indagare la voce come suono nelle tecniche di rilassamento
Voice Wide Web
di Valentina Ferraro - La Musifavolista
Amo percorrere i sentieri dei narratori indipendenti, quelli che battono strade meno canoniche, a volte più “social” e contribuiscono a creare quella che mi piace immaginare come un’audio-biblioteca gratuita e aperta 24 ore su 24.
In questa rubrica vi porto con me alla scoperta di alcune voci che meritano un posto nelle vostre cuffie!
Oggi vi porto con me in un mondo fantasy che nasce da…un gioco.
Cronache di Eileden è infatti un progetto narrativo basato su sessioni di gioco online in forma play by chat (ora via forum) trasportate in cuffia in forma di audioracconti a più voci.
Una narrazione audio di quella tipologia che definiamo “ibrida” e che fonde la lettura espressiva a quella recitata, dando vita ad un prodotto che non è più un audiolibro ma non è ancora un radiodramma.
Il lavoro di Elle e Alex è incredibilmente accurato, e la community di giocatori è coinvolta al 100% nella narrazione complessiva; gli audioracconti sono accompagnati da una voce già nota agli ascoltatori di Audible e agli aficionados di Youtube: Simone di Librinpillole, mentre le voci dei vari personaggi sono quasi tutti creator di Youtube.
Stavolta, parlando di ascolto, non posso descrivere un solo sapore ma devo citare la saga di Harry Potter con un: tutti gusti più uno!
Il panorama voci è vasto e abbraccia amatoriali e indipendenti, in un’amalgama narrativa coinvolgente e articolata.
In un momento in cui il fantasy italiano sta vivendo una sorta di rinascita (almeno così mi viene detto da autori e micro-editori) non posso non segnalare questo prodotto che, da qualche anno, costruisce una narrazione complessa, figlia di gioco, professionalità ed esplorazione di un territorio indie che non viene valorizzato quanto meriterebbe.
Consiglio di partire con l’ascolto dalla saga principale: Il Viaggio di Thalena, di cui ti lascio il primo episodio:
Buon ascolto 🎧
Te lo dico all’orecchio
di Sandro Ghini
In questo numero non do solo un consiglio di ascolto ma anche un consiglio su come farsi ascoltare meglio!
Il nostro amico Andrea Ciraolo ha appena rilasciato gratuitamente il suo nuovo corso completo su Audacity; il software di registrazione e montaggio free più utilizzato da chi si avvicina al mondo audio.
Nell’ultimo periodo Audacity si è arricchito di molte nuove funzionalità che lo rendono ancora più interessante da utilizzare sia per chi inizia che per chi vuole uno strumento agile tenendo sotto controllo il budget.
Produciamo quello che vorremmo ascoltare
Questo mese sono uscite due nuove produzioni a firma Mettiamoci la Voce. Come sempre ci abbiamo messo cuore e orecchie per cercare di far suonare al meglio le storie che gli autori hanno voluto raccontare.
Vuoi una mano?
Le avventure quotidiane di una mano bionica
Il primo progetto audio di Fabia Timaco, storyteller, nel quale una mano bionica è protagonista del suo racconto. Un viaggio nel mondo reale che va oltre i confini prestabiliti della diversità.
Cinque episodi, cinque luoghi diversi e cinque modi di dire con le mani. È questo il punto di partenza del progetto. Le domande più comuni sulla tecnologia e le curiosità di ciascuno raccontate attraverso un altro punto di vista.
"Vuoi una mano?" è il nuovo podcast sulla vita quotidiana di Caro, una mano bionica. Un oggetto inanimato che prende vita, si muove attraverso le sue otto prese e il suo polso girevole a 360 gradi. Caro scopre il mondo per la prima volta insieme a Fabia, la sua compagna di viaggio.
Un racconto a voce alta o meglio robotica per valorizzare le attività quotidiane, tutte quelle che, come umani, crediamo brevi, facili e scontate.
Un podcast sulle nuove prime volte, sulle prove e sui piccoli obiettivi.
"Una mano che inizia a scrivere sul suo profilo instagram e condivide i suoi pensieri, con le sue idee sugli umani, sul mondo reale che vede e sperimenta per la prima volta. È una mano seria, ma amichevole; riflessiva, ma diretta. #Carofacose è l'hashtag che contraddistingue i suoi profili social (@__carofacose)", spiega Fabia Timaco.
Caro, con semplicità e ironia, prende per mano gli ascoltatori e attraverso la sua storia riesce a mettere in evidenza i traguardi al pari delle difficoltà.
(*L’articolo è liberamente tratto dalla traduzione di Lorenzo Lilli - editing a cura di "Le Scienze”, Riproduzione autorizzata, tutti i diritti riservati - dell’articolo The Brain Processes Speech in Parallel With Other Sounds, pubblicato il 21 ottobre 2021 da QuantaMagazine.org, una pubblicazione editoriale indipendente online promossa dalla Fondazione Simons per migliorare la comprensione pubblica della scienza.)