Utilizzando solo ‘registrazioni cerebrali’ dei pazienti, gli scienziati ricostruiscono una canzone dei Pink Floyd

Scientists reconstruct Pink Floyd song using only patients' brain recordings

Le famose parole dei Pink Floyd emergono da un suono confuso ma musicale:

“Tutto sommato, era solo un mattone nel muro.”

Ma questa registrazione particolare non proviene dall’album del 1979 “The Wall” né da un concerto dei Pink Floyd.

Invece, i ricercatori l’hanno creata dalle onde cerebrali ricostituite delle persone che ascoltavano la canzone “Another Brick in the Wall, Part 1”.

Questa è la prima volta che i ricercatori hanno ricostruito una canzone riconoscibile esclusivamente da registrazioni cerebrali, secondo un nuovo rapporto pubblicato il 15 agosto sulla rivista PLOS Biology.

In definitiva, il team di ricerca spera che i loro risultati possano portare a un linguaggio più naturale da interfacce cervello-macchina che aiutano la comunicazione con le persone che sono “rinchiuse” dalla paralisi e non possono parlare.

“In questo momento, quando facciamo solo parole, è robotico”, ha detto il ricercatore principale, il dottor Robert Knight, professore di psicologia e neuroscienze presso l’Università della California, Berkeley.

Pensiamo alla voce del computer associata a uno dei pazienti paralizzati più famosi al mondo, Stephen Hawking.

La voce umana è composta da parole ma ha anche una musicalità, ha detto Knight, con le persone che aggiungono diversi significati ed emozioni basate su concetti musicali come l’intonazione e il ritmo.

“La musica è universale. Probabilmente esisteva nelle culture prima del linguaggio”, ha detto Knight. “Vorremmo fondere quel segnale di estrazione musicale con il segnale di estrazione delle parole, per creare un’interfaccia più umana”.

Le elettrode impiantate sui cervelli dei pazienti hanno catturato l’attività elettrica delle regioni cerebrali note per elaborare attributi musicali – tono, ritmo, armonia e parole – mentre i ricercatori suonavano un brano di tre minuti della canzone.

Queste registrazioni sono state raccolte da 29 pazienti nel 2012 e nel 2013. Tutti i pazienti soffrivano di epilessia e i chirurghi hanno impiantato le elettrode per aiutare a determinare la precisa regione cerebrale che causa le loro crisi, ha spiegato Knight.

“Mentre sono in ospedale in attesa di avere tre crisi [per individuare la posizione delle crisi], possiamo fare esperimenti come questi se i pazienti acconsentono”, ha spiegato Knight.

A partire dal 2017, i ricercatori hanno iniziato a inserire quelle onde cerebrali registrate in un computer programmato per analizzare i dati.

Con il tempo, l’algoritmo è diventato sufficientemente intelligente da decodificare l’attività cerebrale in una riproduzione della canzone dei Pink Floyd che i pazienti avevano sentito anni prima.

“Questo studio rappresenta un passo avanti nella comprensione della neuroanatomia della percezione musicale”, ha detto il dottor Alexander Pantelyat, neurologo specializzato in disturbi del movimento, violinista e direttore del Centro per la Musica e la Medicina della Johns Hopkins. Pantelyat non ha partecipato alla ricerca.

“È necessario migliorare la precisione nella rilevazione del suono andando avanti e non è chiaro se questi risultati saranno direttamente applicabili alla decodifica degli elementi prosodici del linguaggio – tono, inflessione, umore”, ha detto Pantelyat.

“Tuttavia, questi risultati preliminari offrono speranza per migliorare la qualità della rilevazione del segnale per le interfacce cervello-computer mirando alla giro temporale superiore”, ha aggiunto Pantelyat. “Ciò offre speranza per i pazienti che hanno difficoltà di comunicazione a causa di varie malattie neurologiche come la SLA [sclerosi laterale amiotrofica] o lesioni cerebrali traumatiche”.

In effetti, i risultati hanno mostrato che le regioni uditive del cervello potrebbero essere un obiettivo migliore per riprodurre il linguaggio, ha detto il ricercatore principale Ludovic Bellier, borsista postdottorato presso l’Istituto di Neuroscienze Helen Wills dell’UC Berkeley.

Molti sforzi precedenti per riprodurre il linguaggio dalle onde cerebrali si sono concentrati sul córtex motorio, la parte del cervello che genera i movimenti della bocca e delle corde vocali utilizzati per creare l’acustica del linguaggio, ha detto Bellier.

“In questo momento, la tecnologia è più simile a una tastiera per la mente”, ha detto Bellier in una nota stampa. “Non puoi leggere i tuoi pensieri da una tastiera. Devi premere i pulsanti. E produce una voce un po’ robotica; sicuramente c’è meno di quella che chiamo libertà espressiva”.

Bellier stesso è stato un musicista fin dall’infanzia, a un certo punto ha persino suonato in una band heavy metal.

Utilizzando le registrazioni cerebrali, Bellier e i suoi colleghi sono stati in grado di individuare nuove aree del cervello coinvolte nella rilevazione del ritmo. Inoltre, diverse aree della regione uditiva hanno risposto a suoni diversi, come note di sintetizzatore rispetto a voci sostenute.

Gli investigatori hanno confermato che il lato destro del cervello è più sensibile alla musica rispetto al lato sinistro, ha detto Knight.

In questo momento, la tecnologia non è abbastanza avanzata per consentire alle persone di riprodurre questa qualità di voce utilizzando i dati EEG presi dal cuoio capelluto, ha detto Knight. Sono necessari impianti di elettrodi, il che significa chirurgia invasiva.

GALLERY FOTOGRAFICA

“Il segnale che stiamo registrando si chiama attività ad alta frequenza ed è molto robusto sulla corteccia, circa 10 microvolt”, ha detto Knight. “Ma c’è una diminuzione di 10 volte quando arriva al cuoio capelluto, il che significa che è un microvolt, che si trova nel livello di rumore dell’attività muscolare del cuoio capelluto.”

Sono necessari anche elettrodi migliori per consentire una riproduzione della voce di qualità, ha aggiunto Knight. Ha osservato che gli elettrodi utilizzati erano distanziati di 5 millimetri e segnali molto migliori possono essere ottenuti se sono distanziati di 1,5 millimetri.

“Ciò di cui abbiamo davvero bisogno sono griglie a maggiore densità, perché per qualsiasi approccio di apprendimento automatico conta la quantità di dati che inserisci nel tempo”, ha detto Knight. “Eravamo limitati a 64 punti dati in 3 minuti. Se ne avessimo avuti 6.000 in 6 minuti, la qualità del brano sarebbe, secondo me, incredibile.”

Knight ha detto che il suo team ha appena ottenuto una sovvenzione per la ricerca sui pazienti affetti da afasia di Broca, un tipo di disturbo cerebrale che interferisce con la capacità di parlare.

“Questi pazienti non possono parlare, ma possono cantare”, ha detto Knight. Ciò che è stato appreso in questo studio potrebbe aiutare il team a capire meglio perché le persone con queste lesioni possono cantare ciò che non possono dire.

Ulteriori informazioni

La Cleveland Clinic fornisce ulteriori informazioni sul locked-in syndrome.

FONTE: Robert Knight, MD, professore di psichiatria e neuroscienze, University of California, Berkeley; Alexander Pantelyat, MD, neurologo dei disturbi del movimento, violinista e direttore del Johns Hopkins Center for Music and Medicine, Baltimore; Ludovic Bellier, PhD, borsista post-dottorato, Helen Wills Neuroscience Institute, University of California, Berkeley; PLOS Biology, 15 agosto 2023