dalla Home

Attualità

pubblicato il 27 giugno 2016

Auto senza conducente, il problema della questione morale

Le vetture a guida autonoma dovranno prendere decisioni cruciali e spesso dolorose. Oggi ci si interroga su come definire l'intelligenza

Auto senza conducente, il problema della questione morale
Galleria fotografica - L'auto di Google che guida da solaGalleria fotografica - L'auto di Google che guida da sola
  • L\'auto di Google che guida da sola - anteprima 1
  • L\'auto di Google che guida da sola - anteprima 2
  • L\'auto di Google che guida da sola - anteprima 3
  • L\'auto di Google che guida da sola - anteprima 4
  • L\'auto di Google che guida da sola - anteprima 5
  • L\'auto di Google che guida da sola - anteprima 6

Lo sviluppo delle automobili senza conducente è giunto in questo periodo ad una fase cruciale, perché gli ingegneri si trovano ad affrontare il difficile compito di scrivere gli algoritmi che le auto dovranno rispettare una volta su strada: l’auto imparerà così ad effettuare determinate scelte e a prendere decisioni complicate in brevissimo tempo. La prospettiva è molto affascinante e suscita dibattiti accesi. In particolare a causa di una questione legata alla morale: in quale modo scrivere il software per far si che le auto stabiliscano come agire quando si trovano davanti all’improvviso un animale, un passante o un gruppo di pedoni? E' una decisione cruciale, che renderà le automobili del tutto pensanti. Il tema - che era stato affrontato anche da un’inchiesta del Wall Street Journal -  ha portato alla realizzazione di uno studio, The Social Dilemma of Autonomous Vehicles, pubblicato sulla rivista Science ed elaborato dai ricercatori Jean-François Bonnefon, Azim Shariff, Iyad Rahwan, che esamina le reazioni delle persone di fronte alle scelte che una autonomous car dovrà assumere.

Giudizi morali o egoistici?

Gli autori della ricerca hanno coinvolto 1.928 persone in sei indagini condotte online, svolte fra giugno e novembre 2015. I partecipanti sono stati selezionati in maniera casuale e non rappresentano con omogeneità i vari profili dello statunitense medio, nazione in cui la ricerca è stata effettuata. Al termine del primo studio (182 partecipanti) è emerso che il 76% dei votanti ritiene più morale che in situazione di pericolo un’auto senza pilota metta a repentaglio la vita del suo unico passeggero anziché quella di dieci pedoni, per esempio virando contro un muro al fine di evitare i passanti. Lo studio numero 2 ha dimostrato (286 partecipanti) che le persone ribaltano le loro convinzioni quando il rapporto è di uno a uno: il 23% approva la scelta dell’auto di investire un pedone quando nell’abitacolo si trova un solo passeggero. Il terzo studio (259 partecipanti) ha dimostrato che i possibili acquirenti di una driverless car ritengono più morale un linguaggio software scritto in termini utilitaristici, ma preferirebbero comprare un’auto più protettiva nei confronti delle persone a bordo.

Il vero problema sarà farle comprare

Il concetto di utilitarismo torna nello studio 4, forse il più significativo dei 6. Con il termine ‘utilitarismo’ si intende la capacità dell’auto di minimizzare i danni in caso di situazione pericolosa, anche a costo di nuocere alle persone nell’abitacolo. I 267 partecipanti hanno espresso il proprio favore nei confronti di un approccio simile, ma solo una piccola percentuale sarebbe poi disposta ad acquistare mezzi di trasporto studiati all’evenienza per “sacrificarsi”. L’indagine testimonia le enormi difficoltà che i tecnici e gli ingegneri devono ancora affrontare, sia nell’ambito tecnico che in quello legato alla percezione degli acquirenti, non ancora pronti a dirigersi verso automobili studiate per comportarsi in maniera intelligente. Il lavoro è complicato dal fatto che mai prima d’ora si era verificata una situazione simile. Alcune domande sottoposte ai candidati sono visibili sul sito Moral Machine, dov’è possibile valutare direttamente la complessità della materia: ad esempio i tecnici devono insegnare alle driverless car a comportarsi quando affrontano una situazione di pericolo in cui si trovano - immaginiamo - una donna incinta, un bambino o un animale.

Moral Machine

Le vetture a guida autonoma dovranno prendere decisioni cruciali e spesso dolorose. Oggi ci si interroga su come definire l'intelligenza.

Autore: Redazione

Tag: Attualità , guida autonoma


Top