Il Comitato I Malati Invisibili è presente e attivo nel territorio nazionale da aprile 2014.

(+39) 000 0000 000

info@imalatiinvisibili.it
16129 Genova (IT)

Salva

Articoli recenti

CF 95173870106

info@imalatiinvisibili.it

16129 Genova (IT)

Malattie rare e croniche – Deficit neurofisiologici, segnali cerebrali tradotti in parole

Un algoritmo informatico, addestrato su pazienti epilettici che ascoltavano voci registrate, è riuscito per la prima volta a tradurre schemi di attivazione cerebrale in un linguaggio parlato sintetizzato. È il primo passo verso la realizzazione di dispositivi di ausilio per soggetti colpiti da deficit neurofisiologici

Quando una persona parla o quando ascolta parlare qualcun altro, nel suo cervello si evidenziano schemi di attivazione specifici. Dopo decenni di ricerche, i neuroscienziati sono riusciti a registrare e decodificare questi schemi.

E’ l’ultimo risultato è di un gruppo di neuroingegneri della Columbia University, guidato da Nima Mesgarani: un sistema in grado di tradurre schemi di attivazione cerebrale direttamente in parole comprensibili e riconoscibili.

Descritto in un articolo sulla rivista “Scientific Reports”, il sistema si basa su un algoritmo chiamato vocoder, simile a quello utilizzato da Amazon Echo e Apple Siri per fornire risposte verbali alle domande degli utenti.

Il sistema è in grado di emettere una voce sintetizzata dopo un’opportuna fase di addestramento con registrazioni di persone che parlano.

In questo caso, l’addestramento è stato condotto su alcuni pazienti con epilessia grave, sottoposti periodicamente a interventi chirurgici al cervello. Gli autori hanno chiesto ai pazienti di ascoltare un altoparlante che pronunciava le cifre da 0 a 9 mentre registravano i loro segnali cerebrali.

Le registrazioni ottenute sono poi state utilizzate per addestrare il vocoder, che alla fine ha prodotto una voce che pronunciava una sequenza di numeri. Il suono prodotto dal vocoder in risposta a quei segnali è stato in seguito analizzato e ripulito da reti neurali, sistemi d’intelligenza artificiale che imitano la struttura dei neuroni nel cervello biologico. Per testare l’accuratezza della registrazione, Mesgarani e colleghi hanno infine chiesto agli stessi soggetti di ascoltarla e di indicare ciò che avevano udito.

“Abbiamo scoperto che le persone potevano capire e ripetere i suoni nel 75 per cento circa dei casi, un valore decisamente migliore rispetto a quelli ottenuti in ogni precedente ricerca”, ha sottolineato Mesgarani. Il miglioramento del grado di comprensibilità della voce è stato particolarmente evidente confrontando le nuove registrazioni con i precedenti tentativi basati su tecnologie differenti. “La sensibilità del vocoder e la potenza delle reti neurali riproducevano i suoni che i pazienti avevano originariamente ascoltato con sorprendente accuratezza”.

Il risultato è considerato un incoraggiante passo in avanti per mettere a punto tecnologie di ausilio alla comunicazione per soggetti con gravi disabilità neurofisiologiche, prodotte per esempio dalla sclerosi laterale amiotrofica o da un ictus…”

Per continuare a leggere a news originale:

Fonte: “Segnali cerebrali tradotti in parole”, Le Scienze

Tratto dahttp://www.lescienze.it/mente-e-cervello/2019/01/29/news/tradurre_segnali_cerebrali_in_linguaggio_parlato_-_emb_h11_-_link-4273157/