Commentando questo post del prof. Francesco Pizzetti, scrivevo:
Caro Professore anche in ambito linguistico le macchine – come dimostra la Chinese Room di Searle – manipolano simboli.
L’articolo del Sole24 parte da un presupposto sbagliato e cioe’ – paradossalmente – un errore semantico sull’uso della parola “imparare”.
Le macchine non “imparano” nel senso che diamo alla parola riferita all’essere umano. Vengono istruite a compiere dei passaggi che – per definizione – sono espressione di chi li organizza.
Dunque, anche il concetto di “neutralità” dell’algoritmo è semplicemente sbagliato. Gli algoritmi, come qualsiasi espressione dell’essere umano, sono “parziali by default”.
Le cose sarebbero molto più chiare – e semplici – se evitassimo di antropomorfizzare le macchine. E dunque se usassimo, per descriverne il funzionamento, parole diverse da quelle che caratterizzano l’essere umano.
Ripeto quello che scrissi in un post qualche tempo fa: in Giapponese, esiste un verbo essere います (imasu) per gli esseri umani e uno あります (arimasu) per gli oggetti inanimati.
Possibly Related Posts:
- Difendersi sempre, controllare tutto: il prezzo invisibile della sicurezza digitale
- Telefonia, quando il mercato delle reti smette di fare sconti
- Un chip analogico cinese punta a portare l’algebra lineare dell’AI fuori dai limiti del digitale
- La Danimarca ha cambiato radicalmente idea sulla scuola digitale
- Vi spiego il ruolo della machtpolitik e del diritto interno nella gestione delle crisi internazionali
