http://ovadia-lescienze.blogautore.espr ... controllo/
MENTE E PSICHE
di Daniela Ovadia
Aerei, macchine e perdite di controllo
Nell’ultimo anno ho viaggiato molto, per ragioni familiari e per lavoro. Ho macinato una bella quantità di chilometri, salendo e scendendo dagli aerei. Non ho mai avuto paura di volare ma qualche volta, complice la stanchezza, ammetto di provare un filo di inquietudine.
Ecco perché mi è cascato l’occhio su questo articolo del Sidney Morning Herald in cui si racconta la storia del volo QF72 della Qantas, le linee aeree australiane, i cui dettagli sono stati rivelati solo pochi giorni fa, quando il pilota ha lasciato il servizio e ha accettato di farsi intervistare.
È l’ottobre del 2008, il volo trasporta 303 passeggeri e 12 membri di equipaggio da Singangapore a Perth quando uno dei computer di bordo impazzisce. All’improvviso l’aereo si butta in piacchiata, muso avanti, in direzione dell’oceano. Il pilota cerca di riprendere il controllo del mezzo ma negli aerei guidati da sistemi di intelligenza artificiale (come sono oramai quasi tutti i grandi aerei) esiste una gerarchia per cui il computer ha il sopravvento sull’uomo. La ragione è semplice: gli studi hanno dimostrato che, in situazioni di pericolo, i computer reagiscono più in fretta e più razionalmente degli esseri umani. Tranne quando impazziscono, come è accaduto su quel volo.
Come racconta Kevin Sullivan, il pilota che con un incredibile sangue freddo è riuscito a rimettere in asse l’aereo non appena il computer ha "accettato" di lasciargli il comando (il folle volo in picchiata si è ripetuto per ben due volte), l’incidente si è concluso miracolosamente con 11 feriti gravi, numerosi altri feriti più lievi e nessun morto.
I periti che hanno esaminato la scatola nera hanno capito sche i sensori dell’aereo hanno cominciato a inviare al computer informazioni sbagliate sullo stato del velivolo: su quella base, il sistema di intelligenza artificiale ha preso decisioni che avrebbero potuto portare alla morte di quasi 320 persone. E lo ha fatto per due volte di seguito. Perché non si sia accorto dell’errore rimane ancora un mistero.
"La peggior cosa che ti può capitare, quando sei alla guida di un aereo, è non avere il controllo nelle tue mani" dice Sullivan che, pur avendo ripreso a volare, da quel giorno non si è più sentio sicuro.
La storia del volo QF72 - che ha portato a cambiare alcune delle regole per l’uso dell’intelligenza artificiale negli aerei (per esempio adesso i computer sono più di uno e prima di escludere il pilota dalle decisioni devono essere d’accordo tra loro) - incarna il difficile rapporto che abbiamo con le macchine pensanti. Perché la verità è che anche se i computer possono (raramente) "impazzire", gli uomini impazziscono molto più spesso o, più semplicemente, fanno più errori. La maggior parte di noi, però, si fida di più degli umani che delle macchine. E anche quando non ci fidiamo, preferiamo morire per mano di un nostro simile piuttosto che per una decisione presa da un computer.
Lo sanno bene i costruttori di automobili autoguidate: una tecnologia pronta a entrare sul mercato ma che stenta a decollare perché tendiamo a fidarci poco.
Eppure le auto con automazione parziale (ovvero dotate di sistemi di controllo come il bloccasterzo, il parcheggio autonomo o la frenata assistita che intervengono modificando le decisioni del conducente in caso di pericolo o di manovra azzardata) hanno già oggi ridotto, secondo i dati disponibili, il numero degli incidenti gravi. Anche le macchine totalmente automatizzate sembrano essere più sicure di quelle a cui siamo abituati: in un anno, i 48 esemplari immatricolati in California sono stati coinvolti solo in quattro lievissimi incidenti, senza danni alle persone e con lievi danni alle cose. A provocare questi piccoli scontri è stata, secondo gli esperti, l’imprevedibilità umana, dal momento che le auto robot circolano in un ambiente popolato da imperfetti guidatori in carne e ossa.
Di cosa ci fidiamo di più?
Il successo di una tecnologia dipende però dalla fiducia che la gente ripone nella stessa. Nel caso delle auto automatizzate bisognerà creare un livello di fiducia molto elevato, ancora maggiore di quello necessario all’auto classica.
Un sondaggio condotto nel 2014 dall’Associazione dei fabbricanti di auto statunitensi su un campione di 2000 automobilisti ha dimostrato che se il 32 per cento degli intervistati si dichiara entusiasta e comprerebbe subito un’auto automatica, il 25 per cento dichiara che non si farebbe mai trasportare da un robot. Le donne sono più propense a cedere il controllo dei maschi. È però interessante notare che il 75 per cento degli interpellati dichiara di voler comunque avere il controllo del mezzo quando porta i figli a scuola, anche se le statistiche dicono che la guida automatica è più sicura. È questo tipo di pregiudizio cognitivo che gli psicologi dovranno aiutare a comprendere e a superare se davvero vogliono convincerci a comprare le auto che pensano da sole.
Un problema che le compagnie aeree non hanno, perché quando saliamo su un velivolo non ci chiediamo mai chi abbia davvero in mano la cloche e se (e quando) il pilota può escludere il computer dalle decisioni (o viceversa, dato il timore di atti di terrorismo che utilizzino gli aerei o di piloti con tendenze suicide, come è accaduto almeno un paio di volte negli ultimi dieci anni).
D’altro canto vi sono anche persone portate ad avere troppa fiducia nella tecnologia, come ha dimostrato Nicholas Ward, esperto di psicologia applicata all’ingegneria all’Università del Montana, che in uno studio condotto su 3000 automobilisti ha scoperto che esiste una fetta di popolazione che tende a fidarsi eccessivamente delle macchine e dei computer di bordo, affidando loro anche compiti che in realtà non sarebbero in grado di fare, oppure prendendo il controllo della macchina in ritardo in caso di problemi. È quanto è accaduto anche sul volo della Qantas perché, racconta il pilota, gli operatori non sono addestrati a "sfiduciare" la macchina.
Nella costruzione del rapporto con la macchina conta molto anche quanto questa viene umanizzata. Adam Waytz, uno psicologo della Northwestern University, ha iniziato a studiare questo fenomeno quando ha scoperto che i soldati celebravano i funerali dei robot militari andati distrutti in azioni di guerra. Quanto più avevano affidato la loro o l’altrui vita nelle mani della macchina, tanto più intenso era il sentimento di perdita in caso di incidente. Esistono addirittura “tombe” di robot sminatori, una delle macchine a maggior “rischio” di antropomorfizzazione perché addetta a fare del bene col rischio costante di saltare per aria. Più una macchina è dotata di attributi umani, come una voce, un sesso e un nome, maggiore è la tendenza delle persone ad attribuirle intelligenza e persino emozioni, e maggiore la tendenza a scusarla o ad attribuire ad altri la colpa in caso di incidente.
Decisioni buone, ma per chi?
Da un sistema intelligente ci aspettiamo anche che prenda per noi non solo le decisioni più giuste ma anche quelle più etiche. Questo può voler dire che, in caso di incidente, il veicolo automatico che ci sta trasportando decide di esporre proprio noi che viaggiamo da soli al maggior rischio di morte, se si accorge che l’altro veicolo trasporta più persone oppure dei bambini. Siamo davvero sicuri che, nell’era in cui acquistiamo le auto anche sulla base del numero di air bag e di sistemi di protezione che offre, siamo pronti a cedere a un computer la decisione su chi deve vivere e chi deve morire? Se lo sono chiesti un ingegnere informatico dell’Università di Standford, Chris Gerdes, e il suo collega filosofo ed eticista del Politecnico della California Patrick Lin, che hanno organizzato un workshop multidisciplinare per cercare di risolvere il dilemma, senza riuscirci. Di conseguenza hanno sviluppato insieme una serie di software in grado di indurre la macchina a utilizzare scenari etici diversi, da quello che evita gli esseri umani a costo di andare a sbattere sulle auto parcheggiate, a quello che agisce semplicemente per limitare il numero dei possibili morti e feriti, indipendentemente dal fatto che siano passeggeri dell’auto stessa o di un’altra auto, fino allo scenario “animalista” che evita persino di investire gli scoiattoli, molto frequenti sulle strade degli Stati Uniti. Esiste anche un software che «autorizza» la macchina a fare la manovra che teoricamente provoca meno morti o feriti tranne se sull’auto ci sono i nostri figli: in quel caso deve fare di tutto per salvarli.
Comunque la si pensi, perdere il controllo del proprio mezzo è spaventoso. In questo anno di spostamenti mi è anche capitato un problema in autostrada, mentre viaggiavo con mio padre e le mie figlie di ritorno dal mare. Possedevo una di quelle macchine con il cambio automatico e tutte le funzioni gestite da un computer. Solo che questo, da un po’ di tempo, faceva le bizze, segnalando anomalie di ogni genere ai freni, alle sospensioni… Anomalie «fantasma», dovute a qualche strano inghippo del sistema di intelligenza artificiale sufficienti però a mandare in tilt i sistemi di controllo del cambio e di fronte alle quali i numerosi meccanici interpellati si limitavano ad alzare le braccia. Ed è successo anche quel pomeriggio sull’autostrada: all’improvviso la macchina non cambiava più le marce, non accelerava, ma soprattutto non mi permetteva di riprendere il controllo manuale. L’unica cosa che potevo fare era inchiodare, in mezzo a una autostrada trafficata dove ovviamente nessuno rispettava le distanze di sicurezza. Non so come sono riuscita a fermarmi in corsia di emergenza, tenere a bada il panico e chiamare un carro attrezzi.
La settimana dopo abbiamo venduto l’auto computerizzata. Ora abbiamo una grossa, solida, confortevole auto familiare. La richiesta che ho fatto al concessionario ? Che fosse assolutamente, totalmente meccanica. Non ha nemmeno il tachimetro digitale. E io mi sento molto più sicura, anche se le statistiche dicono il contrario.
(alcune parti di questo articolo sono già state pubblicate su Mente e Cervello)