Paralizzato da un ictus, comunica in due lingue con l’intelligenza artificiale
Per la prima volta, un impianto cerebrale ha aiutato una persona bilingue, non più in grado di articolare parole, a comunicare in inglese e spagnolo. L’esperimento dell’Università di San Francisco
SAN FRANCISCO. Per la prima volta, un impianto cerebrale ha aiutato una persona bilingue, non più in grado di articolare parole, a comunicare in inglese e spagnolo. Un sistema di intelligenza artificiale (IA) collegato all'impianto cerebrale decodifica, in tempo reale, ciò che l'individuo sta cercando di dire di volta in volta usando una delle due lingue. Pubblicato su Nature Biomedical Engineering, è il risultato di un gruppo di scienziati dell'Università di San Francisco, un contributo importante per il campo emergente delle neuroprotesi per il ripristino della parola.
Il protagonista dello studio, soprannominato Pancho, ha avuto un ictus all'età di 20 anni che ha paralizzato parte del suo corpo, compreso il tratto vocale. Di conseguenza, Pancho può emettere gemiti e grugniti ma non può parlare chiaramente. Negli anni, Pancho ha collaborato con Edward Chang, il neurochirurgo coordinatore dello studio, per valutare gli effetti a lungo termine dell'ictus sul suo cervello. Nel 2021, il team di Chang ha impiantato chirurgicamente elettrodi nella corteccia cerebrale di Pancho per registrarne l'attività neurale, che è stata tradotta in parole su uno pc.
La prima frase di Pancho è stata interpretata in inglese. Ma Pancho è un madrelingua spagnolo che ha imparato l'inglese solo dopo l'ictus. È lo spagnolo che ancora evoca in lui sentimenti di familiarità e appartenenza. «Le lingue che parliamo sono in realtà molto legate alla nostra identità», afferma Chang. Per questo il team di ricerca ha voluto aiutare Pancho a recuperare la parola anche nella sua madre lingua.
Per raggiungere questo obiettivo, il team ha sviluppato un sistema di intelligenza artificiale, con un modulo spagnolo e uno inglese, per decifrare il discorso bilingue di Pancho. Questo sforzo, guidato da Alexander Silva, primo autore dello studio, ha coinvolto l'addestramento del sistema di intelligenza artificiale mentre Pancho cercava di dire quasi 200 parole. I suoi sforzi per formare ogni parola hanno creato un modello neurale distinto che è stato registrato dagli elettrodi. Gli autori hanno poi applicato il loro sistema di IA mentre Pancho cercava di dire delle frasi ad alta voce.
L'intelligenza artificiale, sulla base di una sorta di analisi di probabilità delle parole che si susseguono nella frase, cerca di indovinare le parole dette e capire la lingua, tentando di costruire una frase. Il risultato finale produce due frasi — una in inglese e una in spagnolo — ma Pancho vede sul video comparire solo la frase proposta dall'IA con il punteggio di probabilità totale più alto. I due moduli dell'IA sono stati in grado di distinguere tra inglese e spagnolo con un'accuratezza dell'88%, sulla base della prima parola che Pancho ha cercato di pronunciare e hanno decodificato la frase corretta con un'accuratezza del 75%. I risultati hanno rivelato aspetti inattesi dell'elaborazione del linguaggio nel cervello. Studi precedenti hanno suggerito che lingue diverse attivano parti distinte del cervello.
Ma l'esame dei segnali registrati direttamente nella corteccia ha trovato che «Molta dell'attività sia per lo spagnolo che per l'inglese proveniva effettivamente dalla stessa area», spiega Silva. Inoltre, le risposte neurologiche di Pancho non sembravano differire molto da quelle dei bambini cresciuti bilingui, anche se Pancho aveva più di trent'anni quando ha imparato l'inglese — in contrasto con i risultati di studi precedenti. Insieme, questi risultati suggeriscono che lingue diverse condividono almeno alcune caratteristiche neurologiche e lasciano sperare che in futuro saranno sviluppate interfacce cervello-macchina sempre più precise.