Testata

Self driving cars ( automobili che si guidano da sé )




L'equipaggiamento tecnologico della Google driveless car ( fonte : Google via E&T Magazine [ 1 ] ).



Isaac Asimov e l'auto che si guida da sola

Cosa dovrebbe fare una driverless car nel caso in cui si trovasse a dover decidere tra vita del passeggero e quella di un pedone?
Ipotizziamo che un bambino attraversi improvvisamente la strada è l'auto sia costretta a decedere se investire il pedone o schiantarsi contro un muro.
Un problema “asimoviano” per le tre leggi della robotica che ricordo essere:


1 - Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2 - Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3 - Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.


Comunque in [ questo articolo ] esplorano il problema, che sembra di lana caprina ma invece è serio.

Luca Oleastri


[ ... ]

1

Ripropongo il pensiero pubblicato da Luca Oleastri aka Innovari [ 3 , 4 ] sulla pagina faccialibresca delle Edizioni Scudo [ 5 ] perché è già attuale, stante la progettazione e i test su strada di svariati prototipi di automobili che non necessitano dell'intervento del guidatore umano ( self driving cars ... veri e propri robot con le ruote e capienti a sufficienza per ospitare una o più unità a carbonio - esseri umani ) : dalla Google driverless car per i poveracci [ 6 , 7 ] che pochi giorni fa s'è guadagnata il suo spazio di fama globale perché in California è stata sanzionata per “velocità troppo bassa” ( viaggiava ai 40 km/h ) [ 8 ] alla Mercedes-Benz F 015 detta Luxury in Motion e the mobile lounge per gli amministratori del Sistema [ 9 , 10 ] presentata al CES 2015 del gennaio scorso.

Stimola l'immaginazione di situazioni di traffico equivoche – ma i ragionamenti possono essere eseguiti anche in altri ambiti spaziali e modali ... le cose intelligenti ( dispositivi elettronici iniettati di percorsi operativi condizionali e capaci di accumulare e ordinare dati esperienziali in database ) sono ormai ovunque – nelle quali una macchina che porta in sé le Tre leggi della robotica di Isaac Asimov [ 11 ] potrebbe arrivare a una situazione di paradosso logico e imballarsi.


Come reagirebbe una macchina in uno sfortunato insieme di circostanze sfavorevoli?

A porci un interrogativo su come dovrebbe essere il comportamento delle auto robot in condizioni critiche è la Technology Review del MIT. La domanda è di quelle che mettono in gioco qualcosa che va oltre le leggi della robotica di Asimov: cosa dovrebbe fare una diverless car quando si trova a dover decidere della vita del passeggero o dei pedoni?

Giovanni Drogo ( su neXt quotidiano )


2

Forse la Legge Zero potrebbe dirimere alcune situazioni complicate in strada e altrove :


La Legge Zero

Le Tre Leggi vennero estese con una quarta legge, la 'Legge Zero', così chiamata per mantenere il fatto che una legge con numero più basso soprassedesse a una con numero maggiore. Venne enunciata da un personaggio di Asimov, R. Daneel Olivaw (R. sta per Robot), nel romanzo I Robot e l'Impero, anche se venne precedentemente menzionata in Conflitto evitabile da Susan Calvin. In I Robot e l'Impero, R. Giskard Reventlov fu il primo robot ad agire in base alla Legge Zero, anche se ciò si rivelò distruttivo per il suo cervello positronico, quando violò la Prima Legge. Daneel, nel corso di molte migliaia di anni, fu in grado di adattarsi e obbedire completamente alla Legge Zero che recita:


    0. Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno.


Le altre 3 leggi vengono modificate di conseguenza:


    Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero.
    Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge.
    Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge.


Cosa si può intendere per umanità ?

Questione filosofica, eppure ci riguarda.

Abbozzo una risposta : la capacità potenziale riproduttiva e creativa in senso lato degli esseri che la partecipano – riprendendo il caso citato dal post “Il senso morale delle macchine senza pilota” su neXt quotidiano [ 12 ] – se l'auto-robot avesse a bordo un bambino e si trovasse di fronte un anziano in una scelta binaria, tra il frenare o lo sterzare con pericolo per la salute dei passeggeri e l'investimento del pedone, dovrebbe scegliere la seconda opzione.

3

Mi chiedo se la robotica verrà inclusa tra le materie scolastiche e dei corsi delle scuole guida, cioè se verrà progettato e implementato un minimo livello didattico propedeutico alla consapevolezza dell'uso e dell'interazione con macchine sempre più intelligenti e interconnesse.
Stiamo assistendo alla progressiva deprivazione delle identità ( anche fisiche ) e delle attività fisiche nelle vite degli Homo, alla de-umanizzazione delle cosiddette civiltà avanzate ...
Chissà cosa accadrà, quando la vita di qualche miliardo di esseri umani sarà del tutto superflua in termini pratici e resterà un mero, enorme peso in termini di consumo di risorse.

Bookmark and Share

9 commenti:

  1. Ah, questo riflesso condizionato per cui bisogna infilare il moralismo [ ... ].

    Ti contraddici poco dopo : i dilemmi morali possono essere codificati come sequenze decisionali ed inseriti nel sistema operativo della macchina.
    Le tecnologie di riconoscimento biometrico esistono già.
    Chiaro che l'auto-robot sarà utile nella misura percentuale ( e grossa-economica ) in cui eviterà incidenti, abbrevierà il raggiungimento dei luoghi di destinazione, consumerà meno energia propellente ...
    però in una giornata-tipo nel sistema strada ci saranno tanti rombi da risolvere.
    E' un problema di ordine pratico già attuale, e il post descrive anche una proiezione dell'argomento ( anche di quello morale ed etico intrinseco ) nel futuro prossimo.

    ===

    RispondiElimina
  2. Io, invece di introdurre macchine che si guidano da sole, farei pelo e contropelo a chi ha la patente, per vedere se sanno guidare o meno, se sono incoscienti/avventati/senza criterio o meno.

    Certo, non e' una cosa facile a farsi, e probabilmente introdurre maggiori controlli comporterebbe solamente un aumento della corruzione di chi quei controlli si trova a farli.

    E' la testa che comanda, e anche per guidare una macchina serve un buon addestramento e coscienza dei pericoli, nonche' riflessi pronti e sensatezza, equilibrio mentale.

    RispondiElimina
    Risposte
    1. Il binomio [ consapevolezza , responsabilità ] è ( dovrebbe essere ) la base.
      Nel momento in cui la facoltà operativa e decisionale viene trasferita alla macchina, bisognerebbe essere consapevoli di come lavora la macchina, dei suoi meccanismi logici intimi.
      Da qui ...
      il mio auspicio sull'introduzione della robotica nelle scuole dell'obbligo e in quelle di guida su strada.

      ===

      Elimina
    2. Le macchine sono programmate dall'uomo ed eseguono esattamente cosa viene detto loro di fare.
      Ogni volta che c'e' un malfunzionamento di sorta nei miei programmi, e' inesorabilmente colpa mia (svista, errore concettuale, etc), i bug del compilatore o dell'interprete di solito sono noti e comunque più rari di quelli imputabili a me.

      Secondo me imparare a programmare (in generale) e' un esercizio utile. Ma bisogna davvero partire dal presupposto che le macchine fanno sempre quanto gli dici di fare, non quanto pensi di avergli detto di fare.

      Nelle lezioni di guida io introdurrei tanto esercizio e, soprattutto, occorrerebbe misurare quanto consapevole e' chi sta alla guida. Di solito gli incidenti sono dovuti a stupidita' e inettitudine umani (non avere il pieno controllo della vettura, mettersi alla guida in uno stato alterato, non conoscere/rispettare le normali regole, etc).

      Elimina
    3. L'evoluzione delle macchine ( vedi quelle che ci portiamo appresso da mattina a sera, i dispositivi mobili ) ci racconta che esse sono progressivamente sempre più sensibili e capaci non solo di registrare dati dall'ambiente esterno, dal nostro corpo ( battito cadiaco, pressione sanguigna ... altro ) e dall'uso che facciamo di esse, ma anche di processare questi dati e delineare comportamento e psicologia dell'utente, e uno scenario.
      Cresce cioè l'intelligenza delle macchine ... certo, è indotta e rozza, al momento sta più sul lato server che su quello client ...
      ma c'è.
      E verrà ulteriormente cresciuta dalle industrie che le producono : stiamo andando verso un mondo zeppo di cose intelligenti che interagiranno continuamente con noi e tra di loro e quindi, come nel caso discusso del traffico stradale, una sinergia tra esse sarà indispensabile ad evitare conflitti e incidenti di varia gravità ( vedi : [ IoT ] ... Internet of Things ).

      ===

      Elimina
  3. Nel momento in cui il controllo operativo viene trasferito da Homo alla macchina, avviene implicitamente un trasferimento delle considerazioni morali ed etiche che vengono ( venivano ) eseguite dall'unità a base carbonio a priori dell'azione, alla macchina.
    Se la macchina non le prevede, c'è un buco nel codice.
    Non è possibile fermare la macchina ( cioè un numero indefinito di automobili nel traffico ) in attesa di singole decisioni dall'Homo sulla vettura - impegnato in altre attività umane - e/o da un centralino della società provider delle informazioni sui trasporti, ogni volta che la macchina non sa cosa fare = come comportarsi ...
    Vedrai che il buco verrà colmato.

    ===

    RispondiElimina
  4. Esempio di vita vissuta : qualche anno fa, due miei cugini si stavano muovendo su una strada di montagna ... girata una curva, all'improvviso si vedono arrivare dritti addosso due ciclisti che avevano scelto la traiettoria più breve senza sentore dell'automobile che arrivava.
    Il cugino che stava al volante, tra l'accoppare 1 - 2 esseri umani e il rischiare qualcosa su di sé e l'altro a bordo, in un attimo ha deciso e ha sterzato verso l'esterno, finendo in una breve scarpata che dava sul torrente.
    Urto ... colpo della strega ... una botta ... qualche sbucciatura per entrambi ...
    ma tutti salvi e senza grossi danni ( cioè permanenti ).

    Le automobili del futuro prossimo, come si comporteranno ?

    ===

    RispondiElimina
  5. Il vero problema GROSSO non è morale o etico ma assicurativo.
    Se io per evitare un'altra auto investo un pedone sulle strisce pedonali. la mia assicurazione paga i danno al pedone, ma se questa decisione la prende l'auto da sola chi paga? L'assicurazione della azienda costruttrice?
    E paga tutti gli incidenti dove l'auto ha preso autonomamente delle decisioni che per il codice della strada sono nel torto?
    Mi pare impraticabile sui grandi numeri.

    RispondiElimina