Per fortuna nessuno è rimasto ferito quando una delle auto a guida autonoma di Google si è recentemente schiantata contro un autobus mentre usciva da un incrocio. L’auto stava viaggiando solo a 2 miglia orarie, dopo tutto. L’azienda ha ammesso di avere “qualche responsabilità” per l’incidente, perché l’autista del test (e presumibilmente l’auto) pensava che l’autobus avrebbe rallentato per permettere all’auto di uscire.
Google ha ora riprogettato i suoi algoritmi per tenere conto di questo, ma l’incidente solleva la questione chiave di chi è responsabile agli occhi della legge per gli incidenti causati da auto senza conducente. È il proprietario dell’auto, il suo produttore o il creatore del software? Chi verrebbe portato in tribunale se venissero mosse delle accuse? E quale compagnia assicurativa dovrebbe pagare i danni?
La maggior parte delle auto moderne ha una tecnologia che funziona senza l’intervento umano, dagli airbag e i freni antibloccaggio al controllo di crociera, all’anticollisione e persino all’auto-parcheggio. Ma pochissime auto hanno piena autonomia, nel senso che prendono le loro decisioni. Un guidatore umano è di solito ancora in controllo – anche se questo presupposto è sempre più difficile da mantenere in quanto le tecnologie avanzate di assistenza alla guida, come i controlli elettronici di stabilità, consentono ai conducenti di mantenere il controllo del veicolo quando altrimenti non potrebbero.
La negligenza del guidatore e dell’azienda
Allo stato attuale, la legge concentra ancora i regolamenti specifici delle auto sui guidatori umani. La Convenzione internazionale di Vienna sulla circolazione stradale dà la responsabilità dell’auto al guidatore, dicendo che “il guidatore deve essere sempre in grado di controllare il suo veicolo”. I conducenti devono anche avere la capacità fisica e mentale di controllare l’auto e una ragionevole conoscenza e abilità per evitare che l’auto danneggi gli altri. Allo stesso modo, nella legge britannica la persona che utilizza l’auto è generalmente responsabile delle sue azioni.
Ma in seguito a un incidente, la responsabilità legale può ancora dipendere dal fatto che una collisione sia dovuta alla negligenza del conducente umano o a un difetto dell’auto. E a volte, potrebbe essere dovuto a entrambi. Per esempio, può essere ragionevole aspettarsi che un conducente presti la dovuta attenzione e presti attenzione a potenziali pericoli prima di attivare una funzione di auto-parcheggio.
Le tecnologie delle auto senza conducente sono accompagnate da un avvertimento: non sono isolate da errori di software o di progettazione. Ma i produttori possono ancora essere ritenuti responsabili di negligenza se c’è la prova che un incidente è stato causato da un difetto del prodotto. Precedenti legali per la negligenza aziendale esistono nel Regno Unito dal 1932, quando una donna fece causa con successo ai produttori di una bottiglia di birra allo zenzero contenente una lumaca morta dopo averla bevuta e essersi ammalata.
Abbiamo fatto molta strada dagli anni ’30. Legislazione come il Consumer Protection Act del 1987 ora fornisce un rimedio per le persone che acquistano prodotti difettosi. Nel caso dei veicoli senza conducente, questo può estendersi non solo alla casa automobilistica, ma anche alla società che programma il software autonomo. I consumatori non hanno bisogno di dimostrare che l’azienda è stata negligente, ma solo che il prodotto era difettoso e ha causato un danno.
Tuttavia, mentre provare questo per componenti come i tergicristalli o le serrature non è troppo difficile, è più complicato dimostrare che i componenti software sono difettosi e, cosa più importante, che questo ha portato a lesioni o danni. Stabilire la responsabilità può anche essere difficile se c’è la prova che il conducente ha interferito con il software o ignorato una funzionalità di assistenza alla guida. Questo è particolarmente problematico quando le tecnologie avanzate permettono di condividere efficacemente la guida tra l’auto e il conducente. I produttori di prodotti hanno anche difese specifiche, come i limiti della conoscenza scientifica che impediscono loro di scoprire il difetto.
Obbligo di diligenza
Quando si tratta della responsabilità del conducente, la legge attuale richiede ai conducenti di prendere la stessa quantità di cura indipendentemente da quanto sia tecnologicamente avanzata l’auto o dal loro livello di familiarità con quella tecnologia. Ci si aspetta che i conducenti dimostrino livelli ragionevoli di competenza e se non riescono a monitorare l’auto o creano un rischio prevedibile di danni o lesioni, sono in violazione del loro dovere di cura. Questo implica che senza un cambiamento nella legge, le auto a guida autonoma non ci permetteranno di distogliere lo sguardo dalla strada o di fare un pisolino al volante.
La legge attuale significa che se un’auto a guida autonoma si schianta allora la responsabilità è della persona che è stata negligente, sia che si tratti del conducente per non aver preso la dovuta cura o del produttore per aver prodotto un prodotto difettoso. Ha senso che il guidatore sia ancora ritenuto responsabile se si considera che il software autonomo deve seguire una serie di regole razionali e non è ancora bravo come gli umani ad affrontare gli imprevisti. Nel caso dell’incidente di Google, l’auto ha dato per scontato che l’autista dell’autobus fosse razionale e avrebbe ceduto il passo. Un umano saprebbe (o dovrebbe) sapere che questo non sarà sempre il caso.