video suggerito
video suggerito

Scienziati ricostruiscono una canzone dall’attività elettrica del cervello: il risultato è magnifico

Grazie a una IA i neuroscienziati sono riusciti a ricostruire una canzone decodificando l’attività elettrica del cervello registrata durante il suo ascolto. Si tratta di Another Brick in the Wall, Part 1 dei Pink Floyd. Ascolta il risultato e scopri perché è così meraviglioso e importante per la scienza.
A cura di Andrea Centini
329 CONDIVISIONI
Immagine

Gli scienziati sono riusciti a ricostruire una canzone decodificando l'attività elettrica del cervello generata dal suo ascolto. In altri termini, hanno tradotto le registrazioni neurali dell'elettroencefalogramma in musica, sulla base delle onde cerebrali prodotte dal ritmo, dalla melodia e dalle parole di una canzone mentre viene ascoltata, che attivano determinate regioni del nostro cervello. Potrebbe sembrare assurdo, ma il risultato è assolutamente straordinario e potete ascoltarlo cliccando sul seguente link. La canzone riprodotta è un frammento di 14 secondi della hit dei Pink FloydAnother Brick in the Wall, Part 1”, il brano più celebre dell'album The Wall pubblicato nel 1979.

A condurre il pionieristico studio che ha ricostruito una canzone dall'attività elettrica del cervello è stato un team di ricerca statunitense guidato da scienziati dell'Istituto di Neuroscienze “Helen Wills” dell'Università della California di Berkeley, che hanno collaborato a stretto contatto con i colleghi del J. Crayton Pruitt Family Department of Biomedical Engineering dell'Università della Florida e del Dipartimento di Neurologia dell'Albany Medical College. I ricercatori, coordinati dai professori Robert T. Knight e Ludovic Bellier, hanno decodificato in musica le onde cerebrali di 29 pazienti con epilessia raccolte durante uno studio precedente.

A tutti i partecipanti erano stati impiantati elettrodi nella testa per raccogliere un set di dati attraverso l'elettroencefalografia intracranica (iEEG). Le registrazioni neurali sono avvenute durante la riproduzione del suddetto brano dei Pink Floyd, scelto dagli scienziati per due ragioni: innanzitutto era molto apprezzato dai partecipanti allo studio, in secondo luogo la canzone è composta da una quarantina di secondi di parte cantata e da oltre 2 minuti di parte strumentale. Questa netta suddivisione permette di rilevare le specifiche regioni del cervello che si attivano in risposta alle parole e ai riff strumentali.

Grazie al supporto dell'intelligenza artificiale, il professor Knight e colleghi hanno decodificato l'attività elettrica del cervello dei 29 pazienti e sono riusciti a ricostruire una parte del brano ascoltato. Il risultato, come indicato, è assolutamente straordinario, perché oltre a rappresentare il tono, il ritmo e la melodia della canzone, perfettamente riconoscibili, riproduce anche le parole, anche se un po' impastate. “È un risultato meraviglioso”, ha spiegato in un comunicato stampa il professor Knight, neurologo e docente di psicologia presso l'ateneo californiano. “Una delle cose importati per me della musica è che ha prosodia (l'insieme del ritmo, del tono, dell'accento e delle altre sfumature del linguaggio scritto e parlato NDR) e contenuto emotivo”, ha spiegato lo scienziato.

Ma a cosa serve un lavoro del genere? L'obiettivo degli studiosi è particolarmente nobile. Tutti ricordiamo la voce robotica del compianto astrofisico Stephen Hawking generata da un'interfaccia cervello-computer, che permette di tradurre in parole il pensiero. Sebbene la tecnologia sia migliorata sensibilmente negli ultimi anni, ancora non siamo riusciti a riportare la prosodia delle parole e delle frasi intercettate attraverso l'attività elettrica. E come tutti noi sappiamo, il linguaggio umano non è una sequela di freddi termini, ma ha calore, emozione, musicalità. Studiando la risposta del cervello al ritmo, alla melodia e al tono di una canzone possiamo cogliere quelle sfumature della prosodia e trasferirla nelle nuove neuroprotesi.

“Con il progredire di questo intero campo delle interfacce cervello – macchina, questo ti dà un modo di aggiungere musicalità ai futuri impianti cerebrali per le persone che ne hanno bisogno, qualcuno che ha la SLA o qualche altro disturbo neurologico o dello sviluppo invalidante che compromette l'output vocale. Ti dà la possibilità di decodificare non solo il contenuto linguistico, ma parte del contenuto prosodico del discorso, parte dell'affetto. Penso che sia quello che abbiamo davvero iniziato a decifrare codice attivato”, ha chiosato il professor Knight. I dettagli della ricerca “Music can be reconstructed from human auditory cortex activity using nonlinear decoding models” sono stati pubblicati sull'autorevole rivista scientifica PloS Biology.

329 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views