Un dialogo con il neuroscienziato giapponese Yu Takagi sui confini emergenti tra cervello umano e intelligenza artificiale generativa di Andrea Monti – Inizialmente pubblicato da MIT Technology Review Italia
Uno studio pubblicato nel 2023 su IEEEXplore e firmato dai professori Yu Takagi del Nagoya Institute of Technology e Shinji Nishimoto della Graduate School of Frontier Biosciences della Osaka University ha dimostrato come sia possibile integrare i risultati della risonanza magnetica funzionale (fMRI) con Stable Diffusion, un “normale” modello di AI generativa privo di restrizioni di proprietà intellettuale, per tradurre in immagini l’attività cerebrale.
MIT Technology Review Italia ha avuto la possibilità di intervistare il professor Takagi per approfondire l’impatto che questo risultato può avere sull’interazione fra cervello e intelligenza artificiale.
In questa intervista esclusiva, Takagi racconta le implicazioni scientifiche, tecnologiche ed etiche del suo lavoro: dalle sfide dei modelli non invasivi al potenziale transumanista delle interfacce neurali, fino al ruolo cruciale della trasparenza dei dataset.
Una visione lucida e rigorosa dell’orizzonte in cui mente e macchina si incontrano.
D: Professor Takagi, può descrivere il suo campo di ricerca?
R: Mi occupo principalmente di ricerca incentrata su due aspetti fondamentali: il cervello artificiale, rappresentato dall’intelligenza artificiale, e il cervello umano. Il mio interesse principale risiede nell’intersezione di questi due ambiti e di come possono essere connessi e compresi in relazione l’uno all’altro. Ad esempio, sono particolarmente affascinato dalle potenziali connessioni tra l’IA generativa e i processi cognitivi umani. Attualmente, il mio focus è sull’esplorazione di come i Large Language Model (LLM) possano essere integrati e confrontati con le funzionalità del cervello umano. La mia specializzazione si colloca proprio al punto di incontro di queste due aree, collegando i sistemi artificiali e l’intelligenza biologica.
D: Crede che la disponibilità di modelli liberamente disponibili, come Stable Diffusion, sia stata vantaggiosa per la sua ricerca? In che modo questo ha agevolato il suo lavoro?
R: Sì, assolutamente. Tra il 2010 e il 2015, si sono diffusi vari modelli di IA per l’elaborazione delle immagini, ma spesso non erano all’altezza quando provavamo ad applicarli ai nostri specifici dataset e ai requisiti sperimentali. Ma Stable Diffusion ha soddisfatto i nostri standard. Dunque, la disponibilità di modelli del genere ha fatto la differenza. Sviluppare modelli così sofisticati internamente avrebbe richiesto enormi risorse finanziarie, il che è spesso fuori dalla nostra portata. Grazie a strumenti liberamente disponibili come Stable Diffusion, siamo stati in grado di ottenere risultati di gran lunga superiori, pur con risorse limitate, evitando di sviluppare tutto in modo indipendente.
D: Ha eseguito un training particolare sul modello che ha utilizzato per adattarlo alla lettura delle scansioni fMRI, o ha impiegato la verisione di Stable Diffusion senza ulteriori modifiche?
R: Questa è un’ottima domanda. Nel nostro caso, non abbiamo eseguito alcuna messa a punto. Il nostro approccio è stato semplice: abbiamo stabilito una mappatura diretta tra l’output del modello Stable Diffusion e l’attività cerebrale umana. Abbiamo evitato aggiustamenti complessi, principalmente perché ci mancavano le risorse computazionali, come potenti GPU, e i mezzi finanziari per supportare modifiche più elaborate. La nostra strategia era di mantenere il processo semplice ma efficace, il che, fortunatamente, ha prodotto risultati significativi.
D: Pensa che la disponibilità di strumenti ad accesso libero, inclusi dataset e algoritmi, sia cruciale per il progresso della ricerca scientifica e accademica?
R: Sì, certamente. Due sono i componenti chiave: un modello pre-addestrato, come appunto Stable Diffusion, e un dataset robusto. Ad esempio, nel 2021, è stato rilasciato un dataset fondamentale, il Natural Scenes Dataset, costruito dall’Università del Minnesota, che ha svolto un ruolo cruciale nella nostra ricerca. Oggi, mentre molti gruppi di ricerca stanno facendo progressi, non tutti pubblicano apertamente i risultati, il che crea delle barriere. L’accesso aperto sia ai modelli che ai dati è, a mio avviso, indispensabile per il continuo progresso del settore.
D: Per quanto riguarda le scansioni MRI, in che modo la risoluzione delle scansioni ha influenzato i suoi risultati finali?
R: Purtroppo, la risoluzione delle nostre scansioni fMRI non era alta come avremmo voluto, soprattutto rispetto a ciò che è ottenibile in altri campi avanzati. La bassa risoluzione ha limitato la qualità dei nostri risultati. Alcuni aspetti delle nostre scoperte hanno generato entusiasmo, soprattutto tra il grande pubblico e i media, tuttavia, realisticamente, siamo ancora lontani dal raggiungere ricostruzioni altamente dettagliate puramente da scansioni cerebrali.
D: Pensa che l’utilizzo di un’interfaccia cervello-computer (BCI) o di impianti come Neuralink potrebbe migliorare i risultati?
R: Molto probabilmente. Queste tecnologie sono molto promettenti. Tuttavia, non sono ancora adatte per l’uso in individui sani. Attualmente, le BCI invasive sono principalmente riservate a pazienti con gravi patologie. Se potessimo utilizzare queste tecnologie in soggetti sani, la qualità e la risoluzione dei dati cerebrali migliorerebbero drasticamente, portando a risultati molto più accurati.
D: Quindi, in uno scenario ideale, avrebbe bisogno di volontari disposti a ricevere impianti cerebrali per raccogliere dati di alta qualità direttamente dal cervello?
R: Precisamente. In un contesto ideale, avere partecipanti con impianti cerebrali ci permetterebbe di raccogliere maggiori quantità di dati. Inoltre, avremmo bisogno di modelli più sofisticati. Mentre la tecnologia dell’IA sta progredendo rapidamente, le neuroscienze si stanno sviluppando a un ritmo più lento. La sfida è colmare questo divario.
D: A proposito di impianti BCI: per raccogliere più informazioni, sono necessarie maggiore ampiezza di banda e un voltaggio più alto del processore impiantato nel cervello il che genera più calore. Questa sembra essere una limitazione fondamentale per le BCI. Pensa che sia una preoccupazione ragionevole?
R: Sì, credo che questa sia effettivamente una delle maggiori sfide nella tecnologia BCI: i limiti fisici del dispositivo stesso. Mentre molti sperano in scoperte, questi vincoli fisici, come la generazione di calore e la larghezza di banda, rimangono ostacoli significativi. Abbiamo bisogno di soluzioni innovative per superare queste barriere se vogliamo sviluppare BCI pratiche, sicure ed efficaci per l’uso umano a lungo termine.
D: Pensa che sia necessario fare affidamento su impianti invasivi per raccogliere dati affidabili, o le interfacce non invasive potrebbero essere altrettanto efficaci in futuro?
R: Questa è un’ottima domanda e anche molto tempestiva. A mio parere, nei prossimi cinque-dieci anni, è improbabile che i metodi non invasivi eguaglino la precisione e l’affidabilità degli impianti invasivi. Abbiamo visto progressi limitati nell’ultimo decennio e mi aspetto che le cose non cambino nel prossimo futuro. Mentre potrebbero esserci progressi significativi nel lungo periodo, diciamo tra venti o trent’anni.
D: Prevede che la sua ricerca possa portare a un prodotto pratico, magari nel settore sanitario o in un altro settore, progettato per assistere individui disabili o svantaggiati?
R: Sì, questa è certamente una delle nostre ambizioni. Se la nostra tecnologia potesse essere applicata efficacemente, potrebbe portare a strumenti innovativi per assistere persone con varie disabilità. Ad esempio, potremmo sviluppare sistemi di IA che supportano la visione, l’udito o anche la parola per le persone che hanno perso queste funzioni. Crediamo che i nostri metodi potrebbero contribuire a sistemi di IA multimodali che potenziano le funzioni sensoriali, offrendo miglioramenti significativi nella qualità della vita per tali individui.
D: Si sta muovendo verso lo sviluppo di un’IA multimodale nelle sue future ricerche?
R: Sì. Stiamo ampliando il nostro focus per applicare le nostre tecniche a una gamma più ampia di modalità, combinando le neuroscienze con l’IA avanzata. Stiamo esplorando modi per tradurre questi sviluppi non solo nella ricerca scientifica, ma anche in strumenti concretamente utilizzabili che potrebbero servire sia i pazienti sia, a lungo termine, gli individui sani.
D: Crede che la sua ricerca possa alla fine portare alla creazione di una nuova specie di essere umano, potenziato da protesi e impianti artificiali, non solo per necessità mediche ma anche come parte di una più ampia evoluzione verso il transumanesimo?
R: Questa è una domanda affascinante, e sì, lo credo. Ci sono molti neuroscienziati in Giappone che sono anche incuriositi da queste idee. In definitiva, l’obiettivo delle interfacce cervello-macchina potrebbe essere quello di collegare un cervello direttamente a un altro, facilitando una forma di comunicazione o percezione che trascende i limiti attuali. Ciò potrebbe portare a profondi cambiamenti nel modo in cui percepiamo e interagiamo con il mondo, forse anche consentendo agli individui di condividere percezioni o esperienze direttamente, creando un tipo di esperienza umana fondamentalmente diverso.
D: Pensa che l’utilizzo di dataset esterni o interpretazioni generate dall’IA possa distorcere la comprensione umana della realtà? Ad esempio, se un dataset etichetta erroneamente un albero come un’auto, ciò non corromperebbe il modo in cui percepiamo il mondo?
R: Sì, questa è un’osservazione molto perspicace. L’affidamento su dataset e modelli di IA introduce uno strato di astrazione tra la percezione del mondo esterno e la sua interpretazione grezza. Se i dati sottostanti o l’addestramento del modello sono imperfetti, ciò potrebbe effettivamente distorcere la realtà come la comprendiamo. Questo è il motivo per cui un rigoroso controllo di qualità su dataset e modelli è cruciale; senza di esso, il rischio di interpretazione errata o disinformazione aumenta significativamente.
D: Pensa che sia importante avere organismi indipendenti che supervisionino e certifichino la qualità e la neutralità di questi dataset per prevenire la manipolazione, soprattutto in contesti politicamente sensibili?
R: Assolutamente. Il potenziale di avvelenamento dei dati o di inserimento deliberato di pregiudizi nei dataset è una preoccupazione seria. Per garantire l’integrità della ricerca e delle applicazioni, soprattutto in aree critiche come le neuroscienze e l’IA, abbiamo bisogno di organismi indipendenti e trasparenti per regolamentare e verificare la qualità e la neutralità dei dataset. Ciò è essenziale per prevenire l’uso improprio e per mantenere la fiducia nella tecnologia.
D: Nel contesto delle neuroscienze, pensa che i modelli debbano rimanere completamente neutrali, anche se elaborano contenuti che potrebbero essere considerati eticamente o moralmente discutibili? O dovrebbe esserci una supervisione etica che limiti determinati tipi di dati?
R: Sono fortemente d’accordo con la sua osservazione. Sebbene ci siano certamente considerazioni etiche, in particolare quando si lavora con contenuti sensibili o potenzialmente dannosi, credo che gli strumenti scientifici stessi debbano rimanere neutrali. Lo scopo di questi modelli è riflettere e interpretare l’attività cerebrale nel modo più accurato possibile. La supervisione etica è vitale, ma dovrebbe concentrarsi su come gli strumenti vengono applicati, invece di limitare la portata di ciò che i modelli possono elaborare.
D: Pensa che la sua tecnologia potrebbe funzionare anche al contrario? Cioè, si potrebbe partire da un’immagine, elaborarla attraverso un modello e quindi stimolare l’attività corrispondente nel cervello?
R: Questa è una prospettiva molto affascinante. Attualmente, la stimolazione di specifiche attività cerebrali basate su immagini esterne richiede tecnologie avanzate e metodi invasivi, che non comprendiamo o possediamo ancora pienamente. Sebbene possiamo già simulare determinati tipi di attività cerebrale, indurre veramente esperienze percettive precise è un ostacolo tecnico significativo. Non mi aspetto grandi scoperte in questo settore nei prossimi cinque anni, ma sul lungo periodo, visti i progressi nelle neuroscienze e nel hardware, le cose potrebbero cambiare.
D: Quindi, essenzialmente, questa tecnologia potrebbe creare una sorta di mondo virtuale: una realtà mediata in cui le esperienze vengono filtrate attraverso un sistema prima di essere percepite dal cervello?
R: Esattamente. Questo potrebbe aprire le porte a nuove forme di intrattenimento, comunicazione e persino applicazioni terapeutiche. Tuttavia, solleva anche serie questioni etiche e filosofiche, in particolare per quanto riguarda l’autonomia, la libertà di pensiero e il controllo governativo. È uno strumento potente che deve essere usato con cautela.
Possibly Related Posts:
- La Corte costituzionale apre la strada al transumanesimo?
- C’è ancora una possibilità per opporsi al trattamento dei dati per addestrare l’IA di Meta
- L’ultima mossa del Garante privacy per bloccare DeepSeek è una discutibile lettera ai provider
- Il pericolo della “digital resurrection”
- La vendita forzata di Chrome e Android non risolve il problema del monopolio di Google