Non c’è bisogno dell’IA per danneggiare le persone con un software: il caso Royal Mail

Molti accusati hanno avuto la forza di resistere ma alcuni non ce l’hanno fatta e si sono suicidati. Dunque non potranno avere la (magra) soddisfazione di essere riabilitati e risarciti per quello che è stato definito il più esteso errore giudiziario della storia britannica.

Non è la prima volta che gli errori di un software causano danni anche gravissimi ad esseri umani (basta pensare al disastro aereo causato dal bug del Boeing 737 Max), ma il caso di Horizon (il software i cui risultati hanno costituito la prova esclusiva della “responsabilità” degli accusati) è diverso e peggiore. Nel caso del 737, infatti, il difetto di programmazione che ha causato il disastro si è manifestato quando ormai non era più possibile intervenire; mentre i dati sbagliati prodotti da Horizon sono stati alla base delle decisioni assunte da pubblici ministeri e giudici che hanno avuto tutto il tempo di valutarli. E viene da chiedersi: come è possibile che a dimostrare l’esistenza dei difetti siano stati gli accusati e che, al contrario, nessun inquirente abbia pensato di verificare l’attendibilità di quei dati prima di formulare le accuse?

Per rispondere nello specifico sarebbe necessario conoscere gli atti processuali ma, in termini più generali, emerge il tema del rapporto malsano che istituzioni e cittadini hanno con le tecnologie dell’informazione, presentate come divinità onnipotenti da officianti il cui scopo reale è venderle a una massa ignorante e credulona che le venera con il più acritico fideismo. Un copione che sta andando in scena, con una coerenza da incubo, anche con la cosiddetta “intelligenza artificiale”.

Lo scandalo del servizio postale britannico dimostra (se mai ce ne fosse bisogno) che non è soltanto l’IA a causare danni gravissimi alle persone ma che questo può accadere anche usando software che, per converso, potremmo chiamare “stupido”. Anzi, potremmo dire che mentre ad oggi non abbiamo ancora dovuto piangere morti “a causa” dell’AI, il numero di chi subisce conseguenze anche gravissime dai difetti dei software “stupidi” non accenna a diminuire.

Il massiccio elefante nella cristalleria ovattata del “mondo digitale” si chiama responsabilità per lo sviluppo di software. Ad oggi nessun legislatore, né quelli nazionali né gli organi comunitari, se ne è occupato sul serio; eppure anche senza voler emanare leggi apposite sarebbe già stato un buon inizio applicare le norme vigenti e, in modo particolare, il regolamento sulla protezione dei dati personali. Questa norma impone, infatti, di tutelare fin dalle fasi della progettazione dei software i diritti e le libertà fondamentali dell’individuo e dunque di verificare se i risultati delle elaborazioni siano corretti e attendibili. Ma quanti software e quante piattaforme rispettano realmente questo obbligo di legge? E quanti danni sono stati causati da software progettati senza tenere conto dell’obbligo di tutelare le persone i cui dati sarebbero poi stati elaborati automaticamente?

Basterebbe solo che le autorità nazionali di protezione dei dati si fossero dedicate a questo problema per incidere in modo sostanziale sul funzionamento dei programmi riducendone la difettosità e tutelando così le persone e i loro diritti, come nel caso delle “cartelle pazze” delle multe inviate a soggetti che non erano mai transitati su una certa strada, o delle bollette stratosferiche emesse “per errore”.

Non è possibile affermare che se il regolamento sui dati personali fosse stato applicato alla Royal Mail (i fatti sono pre-Brexit) gli accusati ingiustamente non sarebbero stati processati o condannati, tuttavia è un fatto che l’industria del software è basata sul concetto del “as is”, in base al quale pur incassando il costo della licenza, lo sviluppatore non garantisce nulla, nemmeno che il programma sia idoneo a soddisfare le necessità dell’utente.

In questo scenario di impunità totale, occupandosi dell’AI – cioè di software – le istituzioni comunitarie hanno invece proposto di adottare un regime differenziato di responsabilità “aggravato” per le sole “AI ad alto rischio“, come se solo queste potessero causare danni irreparabili agli esseri umani.

A voler essere faziosi, ci si potrebbe dunque domandare se questa responsabilità aggravata nei casi di “AI ad alto rischio” non implichi, per converso, che i software “stupidi” (o meglio chi li sviluppa) siano immuni dalle conseguenze dei danni che causano perché la “stupidità non è reato”.

Possibly Related Posts: