Facciamo ordine sulla “responsabilità” nella guida autonoma

Sintesi: se proprio si vuole normare il settore della guida automatica si farebbe meglio a stabilire – finalmente – la responsabilità anche penale di chi produce software e mettere fine a quelle vergognose clausole delle licenze d’uso che dicono che “il software è as is, e non idoneo a utilizzi in ambiti critici”.

Riflettendo con il prof. Alessandro Cortesi su Linkedin è emerso un dibattito interessante sui confini della responsabilità giuridica in materia di guida automatica e sulla rilevanza delle scelte etiche nelle istruzioni da impartire al computer di bordo del veicolo per gestire un incidente.

Personalmente, in un caso del genere, trovo il ricorso all’etica inutile e pericoloso.

L’etica e’ un fatto individuale che tramite la mediazione politica dei rappresentanti di gruppi che ne condividono di proprie si traduce in norme. Se lo Stato si occupa in prima persona di etica, apre le porte a crocifissioni, roghi e camere a gas.

Sulla “decisione” in caso di incidente: non è il computer che “decide” ma l’uomo che lo ha programmato che, pure solo a titolo di dolo eventuale/colpa cosciente) si assume le responsabilità dei gradi di autonomia (non di decisione) lasciatii al software. E’ un punto fondamentale e irrinunciabile quello di non trasferire conseguenze giuridiche dei comportamenti dalle persone alle cose.

La guida automatica non puo’  essere consentita in modo da violare di default il codice della strada (condotta che, in quanto conforme a legge, si presume inoffensiva). Il punto, semmai, è la gestione dell’evento straordinario (classico pedone che attraversa all’improvviso): in questo caso – ancora una volta – il tema è quello del mal-funzionamento del hardware o la mala concezione, programmazione, interazione del software, nè più nè meno di quello che accadrebbe in caso di rottura di un altro componente. In più, quando la macchina perde il controllo, non c’è computer che possa opporsi alle leggi della fisica.

 

Possibly Related Posts: