Il Fatto Quotidiano torna nuovamente ad occuparsi della questione dei chatbot afasici di Facebook con un articolo a firma di Marco Schiaffino che ripropone in modo criticabile i luoghi comuni che hanno caratterizzato i commenti alla notizia secondo la quale due “intelligenze artificiali” avrebbero “creato” un linguaggio incomprensibile agli umani.
Scrive Schiaffino:
In parole povere è successo che due bot hanno deciso che l’inglese fosse uno strumento di comunicazione poco efficace e hanno cominciato a “parlare” tra loro sviluppando un linguaggio che era incomprensibile per gli analisti che ne controllavano il funzionamento. Un comportamento del tutto naturale, viste le premesse (l’Ai è pensata proprio per trovare sistemi più efficaci per risolvere i problemi), ma che ha comprensibilmente allarmato gli stessi ricercatori.
Primo: mettiamoci d’accordo sul significato delle parole. “Decidere” significa che un soggetto cosciente compie consapevolmente un atto di volontà. I software, in questo senso, non possono “decidere” nulla.
Secondo: i bot non hanno sviluppato nessun “linguaggio” ma hanno semplicemente eseguito operazioni logiche descritte in algoritmi, ai cui risultati gli osservatori (cioè gli esseri umani) attribuiscono senso. Leggere The language Instinct di Steven Pinker e studiare la Chinese Room di John Searle per ulteriori dettagli.
Terzo: il malfunzionamento di questi chatbot afasici NON HA DESTATO ALCUN ALLARME fra i ricercatori.
Scrive ancora Schiaffino:
lo sviluppo dell’intelligenza artificiale è molto più avanzato di quanto si possa generalmente pensare.
Nesuna fonte a sostegno di questa affermazione, se non un generico riferimento a quello che sta accadendo nel settore dei software per la sicurezza informatica. Già solo questo priverebbe di peso giornalistico la frase. Nel merito, sul “grado di sviluppo” dell’intelligenza artificiale, rinvio all’intervento di Luciano Floridi nella conferenza ‘Technology and the Human Future’ e del quale cito una delle frasi più indicative:
C’è qualche indizio, nel nostro attuale sviluppo tecnologico, scientifico e informatico che prometta un qualcosa “in silico” che prometta anche vagamente una remota somiglianza con l’intelligenza umana? No come in “fine della storia”.
Andiamo avanti: Schiaffino riporta l’opinione di un esperto di sicurezza infromatica sui pericoli dell’intelligenza artificiale e gli attribuisce questa frase:
siamo consapevoli che creando una “vera” intelligenza artificiale l’uomo abdica al suo ruolo di essere il più intelligente sul pianeta Terra?
Ne supra crepidam, sutor. Il fatto che l’intervistato sia un esperto di sicurezza informatica non lo rende, automaticamente, autorevole quando parla di intelligenza artificiale. Non più di quanto essere un ottimo chirurgo autorizzi un medico ad esprimersi sensatamente sull’evoluzione degli sviluppi delle tecnologie per la diagnosi precoce di BRCA-1. In sintesi, l’opinione dell’esperto di sicurezza non ha una particolare autorevolezza.
Commentando uno dei, a suo dire, problemi più seri generati dall’intelligenza artificiale in rapporto alla guida autonoma delle vetture, Schiaffino scrive:
è possibile che possano decidere chi sacrificare sulla base di altre considerazioni (per esempio sesso o età) quando devono scegliere chi eleggere a “vittima accidentale”?
Altro esempio di impatto della fantascienza sulla vita quotidiana: Schiaffino descrive l’incubo ricorrente di Will Smith nel film I Robot, dove un automa autonomo (passatemi il gioco di parole) sceglie di salvare lui invece di una bambina. Ma, suggestioni hollywoodiane a parte, La guida (semi)autonoma non è altro che un insieme di automatismi (perché di questo stiamo parlando) anche evoluti ma pur sempre deterministici che gestiscono componenti limitate della guida (distanza di sicurezza, scarrocciamento, sorpasso azzardato e via discorrendo).
Ancora una volta, dunque, l’intelligenza “artificiale” non c’entra nulla.
Altra citazione dell’articolo di Schiaffino:
Il fulcro stesso del concetto di Ai non è infatti che il computer si limiti a eseguire ordini in base a una serie di istruzioni statiche, ma che impari a elaborare la realtà in autonomia. Banalizzando, non si limita ad applicare regole fissate, ma si crea da solo le regole che consentono di raggiungere con la massima efficacia l’obiettivo.
In queste frasi, Schiaffino sostiene apoditticamente le tesi (fallimentari) che ruotano attorno al concetto di Intelligenza Artificiale “forte”. Ma, come si legge in un breve articolo pubblicato sul sito dell’Università di Berkeley
Il fine ultimo dell’Intelligenza Artificiale forte è creare un computer intelligente che possa pensare e comprendere, ma questi termini rimangono ambigui e indefiniti, dunque non c’è una misura generale del “successo” nel campo dell’Intelligenza Artificiale forte. 1
L’articolo si chiude con un interrogativo di questo tipo:
che cosa potrà mai andare storto nel creare una super intelligenza artificiale con accesso illimitato ai dati che stiamo accumulando da anni?
Oltre che dal punto di vista dell’intelligenza artificiale, la domanda è priva di senso anche da un punto di vista strettamente informatico. E’ vero che la quantità di dati sugli individui che utilizzano computer e internet è molto grande. Ma è anche vero che tutto ciò si traduce in formati non necessariamente aperti e compatibili, ma soprattutto in database progettati ciascuno in modo diverso dall’altro. Una sorta di babele informativa che rende, se non impossibile, altamente improbabile l’eventualità di un accesso globale e generalizzato a dati di chicchessia. Inoltre, non c’è bisogno di aspettare l’avvento di una improbabile intelligenza artificiale, quando le intelligence di oggi sono già ampiamente in grado di raggiungere questo risultato.
Morale, è senz’altro legittimo (pre)occuparsi delle conseguenze dell’impatto sulla nostra vita provocate dalla tecnologia. Ma non è confondendo scienza e fantascienza che si raggiunge il risultato.
- Strong AI’s ultimate goal is to make an intelligent computer that can think and understand, but those terms remain ambiguous and undefinable; hence, there is no general measure of “success” in the field of Strong AI. ↩
Possibly Related Posts:
- Perché Apple ha ritirato la causa contro la società israeliana dietro lo spyware Pegasus?
- Le sanzioni UE ad Apple e Google aprono un altro fronte nella guerra contro Big Tech (e incrinano quello interno)
- La rottura tra Stati e big tech non è mai stata così forte
- Le accuse mosse a Pavel Durov mettono in discussione la permanenza in Europa di Big Tech
- Cosa significa l’arresto di Pavel Durov per social media e produttori di smart device