fbpx

Mente

Ritmo americano e ritmo giapponese

I suoni della propria lingua veicolano il modo attraverso cui ascoltiamo la musica e i suoni di tutti i codici non verbali. Sono queste le conclusioni di un gruppo di ricercatori americani e giapponesi in uno studio presentato al Quarto Convegno Congiunto della Società Americana di Acustica (ASA) e della Società Giapponese di Acustica (ASJ), conclusosi il 2 dicembre 2006 ad Honolulu, Hawaii.
John R. Iversen e Aniruddh D. Patel dell’Istituto di Neuroscienze di San Diego e Kengo Ohgushi dell’Università delle Arti della Città di Kyoto hanno mostrato che le persone raggruppano i suoni non linguistici secondo precisi criteri percettivi, influenzati dai suoni che sentono ed utilizzano nella lingua madre, e secondo criteri ritmici. Questo evidenzia che la disposizione di alcuni suoni del parlato nella frase influenza la percezione della musica, specialmente il modo in cui si segmentano e raggruppano gli accenti del ritmo.
Già Carolyn Drake e Daisy Bertrand scoprirono che la percezione della successione temporale dei suoni avviene secondo criteri cognitivi precisi, grazie ai quali il continuum temporale musicale viene scomposto e ricomposto costantemente da cervello (Drake, C., Bertrand, D., 2001). Nel loro studio però si sostenne l’esistenza di alcuni universali temporali percettivi, indipendenti dalla cultura di appartenenza, e in grado di determinare universalmente il modo in cui gli esseri umani percepiscono la melodia e il ritmo. Fra questi, Drake e Bertrand ne indicarono in tutto quattro, fra cui due modelli che vengono confermati dal nuovo studio segnalato: la segmentazione ed il raggruppamento (Bertirotti A., 2003). Secondo Iversen, Patel e Ohgushi però l’universalità è riferibile solo al pattern – il modello – e non ai contenuti del processo, che dipendono invece dalla cultura di appartenenza.
Esaminiamo più dettagliatamente la questione.
Le ricerche hanno mostrato che ogni ascoltatore tende – indipendentemente dalla cultura di appartenenza – a raggruppare i suoni secondo alcuni criteri. Uno di essi è il modello forte-piano/piano-forte, oppure corto-lungo/lungo-corto. Nella musica occidentale, e non solo, venne stabilito alcuni secoli fa un principio fondamentale quello secondo cui all’inizio di qualsiasi gruppo di suoni (battuta), oppure dell’intera composizione musicale, si deve presentare un accento più forte (mf) degli altri, mentre un suono prolungato ha il compito di indicare il termine della battuta o dell’intero pezzo. Questi due principi sembrano essere universali, ossia essere processi cognitivi tipici dell’essere umano in quanto tale e non dipendenti dalla cultura di appartenenza, proprio perché strettamente legati alla ritmicità sia del parlato che della musica.
Secondo i nostri autori, questa presunta universalità è però solo sviluppabile all’interno di uno specifico spazio geografico culturale, come ad esempio le Americhe, il mondo olandese e quello francese. I ricercatori suggeriscono infatti che l’universale temporale percettivo del “suono più lungo al termine della frase musicale” possa essere un mero sottoprodotto della lingua inglese e di altre lingue occidentali.
Nel loro esperimento, Iversen, Patel e Ohgushi hanno coinvolto individui di madre lingua anglo-americana e giapponese che, dopo l’ascolto di una successione di suoni, hanno ricevuto il compito di raggrupparli secondo il criterio forte-piano. I due gruppi, il madre lingua anglo-americana e quello giapponese, hanno mostrato una notevole differenza nella valutazione del forte-piano quando questa dipendeva dalla durata nel tempo dei suoni. Gli ascoltatori americani si sono mostrati particolarmente disposti ad associare la percezione del forte-piano in corrispondenza di un una durata più corta del suono stesso, mentre il gruppo giapponese ha percepito questa differenza di intensità, anche se con molta variabilità, in corrispondenza di una durata più lunga del suono.
Nel tentare di fornire una plausibile interpretazione dell’esistenza di queste differenze, un’importante indicazione può essere rintracciata nella modalità attraverso cui le due culture percepiscono l’inizio di figurazioni ritmiche. Ad esempio, se si dovesse riscontrare che la maggior parte delle frasi musicali della cultura americana iniziano con il modello corto-lungo, mentre quelle giapponesi con il modello lungo-corto, si potrebbe sostenere che gli ascoltatori imparino ad utilizzare questi modelli nel raggruppamento dei suoni all’interno di una battuta.
Per verificare ciò, i ricercatori hanno esaminato 50 canzoni americane e 50 canzoni giapponesi, evidenziando per ciascun inizio di frase musicale la durata della prima nota rispetto alla seconda. Inoltre, hanno contato il numero delle frasi musicali che iniziavano con il modello corto-lungo e si sviluppavano verso il modello lungo-corto, oppure verso un ulteriore modello di equilibrio. Si è scoperto che nel caso delle canzoni americane, gli inizi di frase musicale non sono vincolati al modello corto-lungo, mentre nel caso di quelle giapponesi il modello lungo-corto è presente in percentuale assai maggiore.
Una fra le differenze acustiche fondamentali fra la lingua inglese e quella giapponese è proprio l’ordine delle parole all’interno delle frasi. Nell’inglese, le frasi iniziano con preposizioni, articoli e particelle  corte nel suono, seguite dai sostantivi, verbi ed aggettivi,  suoni appunto più lunghi. Nel linguaggio parlato inglese, la funzione declinante di queste parole, quelle corte e con un accento più debole, è ridotta, rispetto ai sostantivi ed ai verbi. Nella lingua giapponese invece, le parole declinanti la sintassi sono situate al termine della frase. Ad esempio, la frase inglese John gave a book to Mari è tradotta in giapponese John san-ga Mari-san-ni hon-wo agemashita, dove ga, ni e wo sono particelle declinanti che indicano John come soggetto (ga), Mari complemento indiretto (ni)e il libro (hon) complemento oggetto (wo).
Questa diversa disposizione spaziale delle particelle declinanti all’interno della frase pone le due lingue in opposizione ritmica fra loro e determina, secondo i ricercatori, un analogo raggruppamento ritmico dei suoni. Mentre il giapponese segue il modello lungo-corto/forte-debole, l’inglese segue, tendenzialmente, il modello corto-lungo/forte debole. Questi criteri percettivo-grammaticali, poiché quotidianamente frequentati durante il parlato, si ritrovano sia nelle musiche che nella lingua e veicolano la percezione del ritmo in entrambi i due codici di comunicazione.
Secondo i ricercatori, in un prossimo futuro sarà possibile prevedere come gli individui siano in grado di percepire il ritmo di una canzone in base alla frequentazione dei modelli ritmici presenti nella lingua.
Musica e linguaggio dunque sempre più vicini, anche se spesso didatticamente lontani.
Ma questo è un altro problema.

Picture of Alessandro Bertirotti

Alessandro Bertirotti

Aggiungi commento

This site uses Akismet to reduce spam. Learn how your comment data is processed.