Come molti sapranno sono in corso sperimentazioni di automezzi a guida automatica. Vanno avanti da anni con relativo successo, in pratica un tasso di incidentalità inferiore a quella degli utenti 'umani'.

Come tutte le cose si risolve un problema ma se ne aprono di nuovi e scenari di profilo etico non indifferente.

Un primo problema è di ambito legale, in caso di incidente (e magari ci scappa il morto), di chi è la colpa?

Certo che mi aspetto una soluzione 'alla Facebook', se accetti questo sistema vuol dire che ti fidi quindi i problemi sono e restano tuoi.
Il popolo bue dell' Avanti, avanti, avanti ovviamente accetterà qualsiasi clausola, e il problema è risolto (ovviamente per l'azienda produttrice).

Magari la guida sarà semi-automatica, ovvero fa tutto lui ma se sbaglia dovevi vigilare.
Quindi il venditore sarà a dirti che durante la guida puoi giocare a carte (a voce), mentre sul contratto starà scritto che sicuramente il sistema sbaglia e devi viglilare con grande attenzione.

Ma a questi problemi legali 'aggirabili' penso che se ne aggiunga uno molto meno aggirabile.

E' ovvio che in una soluzione software di questo tipo l'algoritmo è tutto e certamente nessuno vuole aiutare troppo i concorrenti, quindi gli algoritmi ed i codici sono come quasi sempre 'sotto chiave'.

A questo punto il problema è che vengono prese delle decisioni anche di carattere 'morale', nel modo degli utenti ciascuno sceglie e si assume delle responsabilità personali su queste decisioni troppo importanti per essere delegate con un semplice 'mi fido'.

In pratica il software deve avere una sua moralità.

Esempio pratico, esco da una curva ed un pedone che attraversa fuori dalle strisce pedonali costringe ad una scelta, travolgerlo e salvaguardare l'autista o proseguire evitandolo e mettendo a rischio la vita del conducente?

Si può delegare una decisione di questo tipo con un semplice Avanti, avanti, avanti di clausole in legalese durante la stesura di un contratto?

E quindi come si può accettare un software in cui non si sa su che basi prende decisioni di questo tipo?
E se anche ce lo dicono, non potendo vedere il sorgente del programma, come faccio a sapere ad esempio che la scelta tenga conto della potenziale età / sesso / colore della pelle della persona che rischio di travolgere?

La moralità esige un sistema aperto e codice moralmente ineccepibile, farlo 'digerire' nella gran parte del mondo dove i valori sono estremamente diversi non sarà facile.

Spero non si faccia come sempre, fingere che il problema non esista e lasciare che il mercato decida cosa è bene e cosa è male.
In pratica il male diventa sopportabile quando ce l'hanno tutti.