Commentando questo post del prof. Francesco Pizzetti, scrivevo:
Caro Professore anche in ambito linguistico le macchine – come dimostra la Chinese Room di Searle – manipolano simboli.
L’articolo del Sole24 parte da un presupposto sbagliato e cioe’ – paradossalmente – un errore semantico sull’uso della parola “imparare”.
Le macchine non “imparano” nel senso che diamo alla parola riferita all’essere umano. Vengono istruite a compiere dei passaggi che – per definizione – sono espressione di chi li organizza.
Dunque, anche il concetto di “neutralità” dell’algoritmo è semplicemente sbagliato. Gli algoritmi, come qualsiasi espressione dell’essere umano, sono “parziali by default”.
Le cose sarebbero molto più chiare – e semplici – se evitassimo di antropomorfizzare le macchine. E dunque se usassimo, per descriverne il funzionamento, parole diverse da quelle che caratterizzano l’essere umano.
Ripeto quello che scrissi in un post qualche tempo fa: in Giapponese, esiste un verbo essere います (imasu) per gli esseri umani e uno あります (arimasu) per gli oggetti inanimati.
Possibly Related Posts:
- Meta potrà usare i dati degli utenti per addestrare l’IA: cosa dice la sentenza tedesca
- La nuova legge sull’IA del Giappone ha qualcosa da insegnare a Usa e Ue
- Svolta del Tribunale di Milano: pubblicare le foto dei figli minorenni può essere reato
- Il ruolo geopolitico dell’IOMed a trazione cinese
- Il caso Garlasco riapre il dibattito su scienza, tecnologia e ruolo del giudice