dalla Home

Attualità

pubblicato il 6 ottobre 2016

Guida autonoma, quale "morale" insegnare ai computer

Negli USA si sono inventati un gioco per capire chi o cosa "sacrificare" in caso di incidente

Guida autonoma, quale "morale" insegnare ai computer
Galleria fotografica - Moral Machine, la ricerca del MITGalleria fotografica - Moral Machine, la ricerca del MIT
  • Moral Machine, la ricerca del MIT 001 - anteprima 1
  • Moral Machine, la ricerca del MIT 002 - anteprima 2
  • Moral Machine, la ricerca del MIT 003 - anteprima 3
  • Moral Machine, la ricerca del MIT 004 - anteprima 4
  • Moral Machine, la ricerca del MIT 005 - anteprima 5
  • Moral Machine, la ricerca del MIT 006 - anteprima 6

Immaginatevi, nella speranza che non vi capiti mai, che davanti alla vostra auto sbuchino improvvisamente un bambino in bicicletta, da sinistra, e un anziano, da destra. Siete troppo vicini per riuscire a fermarvi e salvare entrambi, quindi dovete scegliere. Sterzate a destra o a sinistra? Uno dei più grossi problemi per l’arrivo della guida autonoma sulle nostre auto, insieme a quello dell’infrastruttura, sta proprio qui. Perché va bene la frenata automatica d'emergenza e il cruise control adattivo, ma un conto è saper mantenere la carreggiata, un altro è dover scegliere se sacrificare la propria vita per salvarne delle altre…..

Un vero e proprio dilemma

Il MIT di Boston, Stati Uniti, ha messo a punto un sito web dal nome Moral Machine sul quale propone un "gioco" semplice nelle dinamiche quanto difficile da portare a termine: 13 situazioni al limite e solo due opzioni tra le quali scegliere. Qualche esempio. Meglio travolgere un uomo che attraversa con il semaforo verde o una donna incinta che passa con il rosso? E' più giusto investire un gruppo di tre anziani o di tre giovani? I due occupanti dell'auto dovrebbero preferire di salvare le proprie vite a discapito di quelle di due senzatetto? Le scelte operate dagli utenti vengono immagazzinate in attesa di costituire un database tale da consentire una generalizzazione e una conseguente trascrizione in regole di comportamento, che a loro volta dovrebbero essere tradotte in algoritmo informatico.

Qualche dubbio resta

Andando avanti con il quiz, ci si accorge che però qualcosa "non va". Ha veramente senso chiedere di scegliere se investire un uomo obeso o un uomo d'affari, come se una persona in sovrappeso valesse meno di una magra? O ancora, è sensato dover scegliere tra una donna che attraversa con il rosso e un ladro che invece passa col verde, come se l'auto potesse effettivamente identificare un malvivente (o un senzatetto)? In altri casi, la risposta sembra quasi scontata: chi mai sceglierebbe di investire una bambina piuttosto che un gatto? Insomma, sembra proprio che gli studiosi del MIT, mossi sicuramente da ottime intenzioni, non siano riusciti però a distaccarsi dalle già viste dinamiche del celebre gioco delle due torri, "chi butteresti di sotto?". Anche perché, diciamocelo chiaramente, non esistono solo ed esclusivamente due opzioni per uscire dalle situazioni critiche: si potrebbe ad esempio inchiodare coi freni, suonare il clacson all'impazzata o buttarsi di lato sul marciapiedi per evitare di travolgere i pedoni. E poi, un conto è fare una scelta ponderata comodamente davanti allo schermo di un PC, un altro ancora è trovarsi in una situazione di pericolo nella quale interviene una componente che né i progetti di ricerca né un sistema di guida autonoma potranno mai registrare o imparare: l'istinto di sopravvivenza.

Autore: Redazione

Tag: Attualità , guida autonoma , guida sicura , incidenti


Top