Decodificare con un algoritmo i segnali neurali generati dal nostro cervello quando muoviamo le braccia nello spazio. Per arrivare ad arti robot azionati con il pensiero. Non è fantascienza, ma il risultato di uno studio nato al Dipartimento di Scienze biomediche e neuromotorie dell’Università di Bologna e da poco pubblicato su Cell Reports.
Il gruppo di ricerca è riuscito per la prima volta ad “estrarre” le informazioni che il nostro cervello genera quando muoviamo le braccia non solo in senso orizzontale o verticale, ma anche in profondità. Fino ad oggi, infatti, questo tipo di analisi era sempre avvenuto semplificando i movimenti solo su un piano frontale: l’equivalente di spostare una mano lungo una parete verticale. La grande sfida era aggiungere a questo schema anche le informazioni sulla profondità.
A riuscirci, per la prima volta, è stato un gruppo di ricerca dell’Alma Mater di Bologna guidato dalla professoressa Patrizia Fattori. “È stato indubbiamente un lavoro difficile”, racconta la docente. “Abbiamo dovuto abbinare alle conoscenze di funzionamento cerebrale quelle sull’estrazione dei segnali, aggiungendo anche tecniche di decodifica dell’attività neurale”.
Un contesto di partenza estremamente complesso, che il gruppo di ricerca è riuscito ad affrontare grazie ad un’arma segreta, chiamata machine learning. “Si tratta di algoritmi intelligenti – spiega Fattori – che apprendono osservando esempi, errori e successi, proprio come farebbe un essere umano. In questo caso, siamo riusciti ad adattare queste tecniche applicandole all’analisi di dati neurali”.
A sviluppare l’algoritmo che è riuscito a decodificare i segnali neurali del movimento delle braccia è stato un giovane dottorando, Matteo Filippini. Il sistema messo a punto ha ottenuto risultati eccezionali: l’algoritmo è stato in grado di prevedere con un livello di accuratezza vicino al 100% sia la direzione che la profondità del movimento che si intendeva effettuare.
Un successo che apre nuove frontiere sullo sviluppo di arti robot. “Il passo successivo – conferma Filippini – è utilizzare le informazioni che siamo riusciti a decodificare fin qui per far muovere un braccio robotico: in questo modo, ad esempio, individui tetraplegici potranno muovere una protesi controllandola attraverso i loro segnali neurali, come fosse un arto a tutti gli effetti”.
Matteo Filippini – il cui dottorato è finanziato da una borsa della Regione Emilia-Romagna – sta ora proseguendo i suoi studi in Australia, a Melbourne, grazie ad un progetto Marie Curie che coinvolge anche la Monash University.
La ricerca, pubblicata su Cell Reports, si intitola “Prediction of Reach Goals in Depth and Direction from the Parietal Cortex”​. Gli autori sono Matteo Filippini, Rossella Breveglieri, Konstantinos Hadjidimitrakis, Annalisa Bosco e Patrizia Fattori.