L’annuncio della sperimentazione umana di una brain-computer interface (BCI) da impiantare nel cervello sviluppata da Neuralink, una delle aziende high tech di Elon Musk, ha invariabilmente generato un’ondata di sensazionalismo e rievocato per l’ennesima volta scenari fantascientifici abitati da cyborg e trans-umani, come lo stesso Musk ha lasciato intendere già da tempo. Usando una tecnica pubblicitaria molto diffusa, la notizia della BCI di Musk è stata presentata con un’affermazione tipo “il primo essere umano ha ricevuto un impianto Neuralink”, ma questo non vuol dire che sia il primo in assoluto e che, dunque, siamo di fronte a un evento rivoluzionario. Uno studio pubblicato su Science and Engineering Ethics dimostra che la prima sperimentazione umana di una BCI risale al 2019 e uno spin off dell’Istituto Italiano di Tecnologia del CNRha realizzato un chip altrettanto, se non più avanzato di quello di Neuralink. Altre startup americane stanno esplorando le possibilità delle BCI e dunque, più che a un evento rivoluzionario, siamo di fronte all’avvio di una nuova corsa all’oro, al cui confronto quella dell’AI, già rallentata da contrasti ideologici e politici, somiglia più a una domenicale passeggiata nel bosco alla ricerca di funghi.
È invece passata sotto silenzio, al di fuori degli ambienti degli addetti ai lavori un’altra notizia, questa sì oggettivamente importante: più o meno contemporaneamente all’annuncio di Neuralink, il 13 febbraio 2023 la giapponese PorMedTec, startup dell’università Meiji, ha annunciato di essere riuscita a creare tre cloni di maiali con organi potenzialmente idonei ad essere trapiantati in esseri umani, grazie all’utilizzo di cellule di maiale geneticamente modificate dalla statunitense eGenesis. Anche in questo caso, non è tanto il “cosa”, quanto il “se” ad essere rilevante: la creazione di organi artificiali, insieme al bioprinting, è da sempre considerata un’alternativa essenziale per superare il problema del reperimento di organi umani da trapiantare. Analogamente alle BCI, dunque, l’utilizzo in ambito medico e terapeutico di tecnologie del genere non è soltanto desiderabile ma certamente necessario.
Avere compiuto un altro passo verso la possibilità di ripristinare i collegamenti fra cervello e resto del corpo (o strumenti esterni), e realizzare xenotrapianti grazie all’ingegneria genetica sono senz’altro notizie eccellenti per la ricerca e, pur se non sul breve periodo, per chi soffre di malattie degenerative o ha bisogno di “pezzi di ricambio” per tornare “come nuovo”.
Nello stesso tempo, però, non sono mancate le preoccupazioni sull’impatto che la manipolazione diretta del funzionamento del cervello basata sulla comunicazione bidirezionale con un software che riceve comandi esterni e sull’eticità della creazione di esseri viventi (pur non necessariamente senzienti) per produrre organi.
Con una sconsolante coazione a ripetere, l’approccio di alto livello a questi temi è sistematicamente orientato alla burocratizzazione e all’irrigidimento della possibilità di fare ricerca in nome dell’onnipresente “uso etico e responsabile” della tecnologia e, dall’altro, all’accettare, o quantomeno non rifiutare, che queste ricerche possano anche avere applicazioni non strettamente mediche, cioè dirette a curare le persone.
Stiamo parlando, in altri termini, della possibilità che BCI e organi biologici artificiali possano essere impiantate in soggetti sani, e dunque non per guarirli da una malattia ma per “potenziarli” o —come nel caso dei dati generati dalle BCI— per utilizzo ludico, in videogiochi e altre forme di interazione con strumenti digitali.
Il primo tema è quello, oramai classico, del transumanesimo, cioè di quella corrente di pensiero nata in Inghilterra e che teorizza il diritto a potenziare il corpo ricorrendo alla tecnologia e che da qualche tempo interseca ambiti strettamente medici come lo sviluppo di protesi robotiche e la medicina potenziativa.
Il secondo tema riguarda la rottura dell’ultima barriera fra l’associazione delle manifestazioni esteriori del comportamento umano ai meccanismi che le generano, per finalità diverse da quelle di diagnosi e cura. Da tempo ci sono tentativi per utilizzare tecniche di neuroimaging come “macchina della verità” nei processi giudiziari e da tempo analisi critiche hanno evidenziato i limiti di questo approccio. Questo non ha impedito di continuare su una strada parallela, quella della raccolta dei segnali elettrici del cervello per decodificarli ed associarli a stati fisici e mentali, caso del quale si occupò —in modo peraltro discutibile— la Corte suprema cilena nell’agosto 2023 con una sentenza sull’uso dei dati raccolti da un elettroencefalografo “per uso ludico”.
Mentre il dibattito pubblico —quel poco che è dato di riscontrare— si concentra sui “soliti” argomenti (etica, privacy, uso responsabile ecc.) vengono trascurati due temi che dovrebbero essere analizzati prima degli altri: l’ammissibilità di un uso non medico di queste tecnologie, e la scelta di renderle disponibili a tutti o solo a chi —individuo o Stato sovrano— può permettersele.
Consentire un uso non medico —cioè non curativo— di BCI e ingegneria genetica è una scelta politica che presuppone un modello di società basato sulla definitiva presa di potere da parte di Big Tech e sull’uso geopolitico della superiorità tecnologica in questi settori. Queste aziende potranno intervenire direttamentesul corpo e sulla mente degli individui, invece di dover utilizzare obsoleti strumenti di profilazione che non consentono la raccolta in tempo reale e, nello stesso tempo, governeranno queste tecnologie in barba a qualsiasi controllo pubblico.
I visori a realtà aumentata che iniziano ad affacciarsi sul mercato sono dei precursori di quello che potrebbe accadere con l’uso “ludico” delle BCI. Oggi la realtà viene aumentata da quello che qualche sviluppatore ha deciso di far percepire all’utente tramite la proiezione di immagini sul nervo ottico. Fra qualche tempo —ed è la dichiarata intenzione di chi intende usare queste tecnologie “a scopo ludico”— questo potrà accadere inviando direttamente segnali al cervello, superando la soglia della percezione razionale.
Di fronte a una prospettiva del genere, non ci sono “codici di condotta”, “linee guida per un uso responsabile” o qualsiasi altro “documento di indirizzo” che tengano: l’uso non medico di queste tecnologie dovrebbe essere semplicemente vietato.
Questa scelta, veniamo al tema dell’ingegneria genetica, è già stata presa in rapporto alla clonazione umana: non ci sono, tecnicamente, ostacoli insormontabili alla clonazione della componente fisica d un individuo ma, molto semplicemente e molto chiaramente, la Convenzione di Oviedo vieta questa pratica. Dunque, nulla vieta di vietare anche l’uso di BCI e, in generale, di sistemi che interagiscono direttamente con il cervello o con la sua attività elettrica per scopi diversi da quelli strettamente curativi, nonché delle estremizzazioni transumaniste che invocano impianti tecnologici ma anche trapianti organici.
La posta in gioco, più che la bizzarra idea della “privacy mentale” o dello specismo, è quella della discriminazione basata sulla ricchezza privati e sul ruolo dei poteri pubblici.
In uno Stato dove BCI e ingegneria genetica sono saldamente nelle mani del settore privato, solo il settore privato decide chi può fruirne; in una dimensione internazionale dove uno Stato detiene il controllo di queste tecnologie, solo quello Stato decide a quali altri può esserne consentito l’utilizzo.
Possiamo non usare il termine eugenetica, ma alla fin fine di questo si tratta ed è difficile non ricordare cosa aveva immaginato Aldous Huxley in Brave New World, con l’aggravante che, in questo caso, la discriminazione non lascerebbe speranza a chi è “fuori” dai confini, siano essi quelli del conto corrente, o del proprio (non abbastanza tecnologicamente autonomo) Stato.
Possibly Related Posts:
- La rottura tra Stati e big tech non è mai stata così forte
- I governi possono “suggerire” la censura ai social network?
- Cosa significa la distruzione del campo di riso geneticamente migliorato dell’università Statale di Milano
- ChatGPT non è onnisciente, ma OpenAI è vittima del proprio marketing
- Lo Human Genome Meeting di Roma riporta in primo piano la necessità di liberare l’uso dei dati