La Comunità per L'Ulivo, per tutto L'Ulivo dal 1995
FAIL (the browser should render some flash content, not this).

Intelligenza artificiale e vita umana

Dall'innovazione tecnologica alla ricerca, vogliamo trattare in particolar modo i temi legati all'ambiente ed alla energia, non solo pero' con uno sguardo puramente tecnico ma anche con quello politico, piu' ampio, di respiro strategico

Intelligenza artificiale e vita umana

Messaggioda flaviomob il 26/01/2019, 1:48

http://ovadia-lescienze.blogautore.espr ... controllo/


MENTE E PSICHE
di Daniela Ovadia


Aerei, macchine e perdite di controllo


Nell’ultimo anno ho viaggiato molto, per ragioni familiari e per lavoro. Ho macinato una bella quantità di chilometri, salendo e scendendo dagli aerei. Non ho mai avuto paura di volare ma qualche volta, complice la stanchezza, ammetto di provare un filo di inquietudine.

Ecco perché mi è cascato l’occhio su questo articolo del Sidney Morning Herald in cui si racconta la storia del volo QF72 della Qantas, le linee aeree australiane, i cui dettagli sono stati rivelati solo pochi giorni fa, quando il pilota ha lasciato il servizio e ha accettato di farsi intervistare.

È l’ottobre del 2008, il volo trasporta 303 passeggeri e 12 membri di equipaggio da Singangapore a Perth quando uno dei computer di bordo impazzisce. All’improvviso l’aereo si butta in piacchiata, muso avanti, in direzione dell’oceano. Il pilota cerca di riprendere il controllo del mezzo ma negli aerei guidati da sistemi di intelligenza artificiale (come sono oramai quasi tutti i grandi aerei) esiste una gerarchia per cui il computer ha il sopravvento sull’uomo. La ragione è semplice: gli studi hanno dimostrato che, in situazioni di pericolo, i computer reagiscono più in fretta e più razionalmente degli esseri umani. Tranne quando impazziscono, come è accaduto su quel volo.

Come racconta Kevin Sullivan, il pilota che con un incredibile sangue freddo è riuscito a rimettere in asse l’aereo non appena il computer ha "accettato" di lasciargli il comando (il folle volo in picchiata si è ripetuto per ben due volte), l’incidente si è concluso miracolosamente con 11 feriti gravi, numerosi altri feriti più lievi e nessun morto.

I periti che hanno esaminato la scatola nera hanno capito sche i sensori dell’aereo hanno cominciato a inviare al computer informazioni sbagliate sullo stato del velivolo: su quella base, il sistema di intelligenza artificiale ha preso decisioni che avrebbero potuto portare alla morte di quasi 320 persone. E lo ha fatto per due volte di seguito. Perché non si sia accorto dell’errore rimane ancora un mistero.

"La peggior cosa che ti può capitare, quando sei alla guida di un aereo, è non avere il controllo nelle tue mani" dice Sullivan che, pur avendo ripreso a volare, da quel giorno non si è più sentio sicuro.

La storia del volo QF72 - che ha portato a cambiare alcune delle regole per l’uso dell’intelligenza artificiale negli aerei (per esempio adesso i computer sono più di uno e prima di escludere il pilota dalle decisioni devono essere d’accordo tra loro) - incarna il difficile rapporto che abbiamo con le macchine pensanti. Perché la verità è che anche se i computer possono (raramente) "impazzire", gli uomini impazziscono molto più spesso o, più semplicemente, fanno più errori. La maggior parte di noi, però, si fida di più degli umani che delle macchine. E anche quando non ci fidiamo, preferiamo morire per mano di un nostro simile piuttosto che per una decisione presa da un computer.

Lo sanno bene i costruttori di automobili autoguidate: una tecnologia pronta a entrare sul mercato ma che stenta a decollare perché tendiamo a fidarci poco.

Eppure le auto con automazione parziale (ovvero dotate di sistemi di controllo come il bloccasterzo, il parcheggio autonomo o la frenata assistita che intervengono modificando le decisioni del conducente in caso di pericolo o di manovra azzardata) hanno già oggi ridotto, secondo i dati disponibili, il numero degli incidenti gravi. Anche le macchine totalmente automatizzate sembrano essere più sicure di quelle a cui siamo abituati: in un anno, i 48 esemplari immatricolati in California sono stati coinvolti solo in quattro lievissimi incidenti, senza danni alle persone e con lievi danni alle cose. A provocare questi piccoli scontri è stata, secondo gli esperti, l’imprevedibilità umana, dal momento che le auto robot circolano in un ambiente popolato da imperfetti guidatori in carne e ossa.

Di cosa ci fidiamo di più?

Il successo di una tecnologia dipende però dalla fiducia che la gente ripone nella stessa. Nel caso delle auto automatizzate bisognerà creare un livello di fiducia molto elevato, ancora maggiore di quello necessario all’auto classica.

Un sondaggio condotto nel 2014 dall’Associazione dei fabbricanti di auto statunitensi su un campione di 2000 automobilisti ha dimostrato che se il 32 per cento degli intervistati si dichiara entusiasta e comprerebbe subito un’auto automatica, il 25 per cento dichiara che non si farebbe mai trasportare da un robot. Le donne sono più propense a cedere il controllo dei maschi. È però interessante notare che il 75 per cento degli interpellati dichiara di voler comunque avere il controllo del mezzo quando porta i figli a scuola, anche se le statistiche dicono che la guida automatica è più sicura. È questo tipo di pregiudizio cognitivo che gli psicologi dovranno aiutare a comprendere e a superare se davvero vogliono convincerci a comprare le auto che pensano da sole.

Un problema che le compagnie aeree non hanno, perché quando saliamo su un velivolo non ci chiediamo mai chi abbia davvero in mano la cloche e se (e quando) il pilota può escludere il computer dalle decisioni (o viceversa, dato il timore di atti di terrorismo che utilizzino gli aerei o di piloti con tendenze suicide, come è accaduto almeno un paio di volte negli ultimi dieci anni).

D’altro canto vi sono anche persone portate ad avere troppa fiducia nella tecnologia, come ha dimostrato Nicholas Ward, esperto di psicologia applicata all’ingegneria all’Università del Montana, che in uno studio condotto su 3000 automobilisti ha scoperto che esiste una fetta di popolazione che tende a fidarsi eccessivamente delle macchine e dei computer di bordo, affidando loro anche compiti che in realtà non sarebbero in grado di fare, oppure prendendo il controllo della macchina in ritardo in caso di problemi. È quanto è accaduto anche sul volo della Qantas perché, racconta il pilota, gli operatori non sono addestrati a "sfiduciare" la macchina.

Nella costruzione del rapporto con la macchina conta molto anche quanto questa viene umanizzata. Adam Waytz, uno psicologo della Northwestern University, ha iniziato a studiare questo fenomeno quando ha scoperto che i soldati celebravano i funerali dei robot militari andati distrutti in azioni di guerra. Quanto più avevano affidato la loro o l’altrui vita nelle mani della macchina, tanto più intenso era il sentimento di perdita in caso di incidente. Esistono addirittura “tombe” di robot sminatori, una delle macchine a maggior “rischio” di antropomorfizzazione perché addetta a fare del bene col rischio costante di saltare per aria. Più una macchina è dotata di attributi umani, come una voce, un sesso e un nome, maggiore è la tendenza delle persone ad attribuirle intelligenza e persino emozioni, e maggiore la tendenza a scusarla o ad attribuire ad altri la colpa in caso di incidente.

Decisioni buone, ma per chi?

Da un sistema intelligente ci aspettiamo anche che prenda per noi non solo le decisioni più giuste ma anche quelle più etiche. Questo può voler dire che, in caso di incidente, il veicolo automatico che ci sta trasportando decide di esporre proprio noi che viaggiamo da soli al maggior rischio di morte, se si accorge che l’altro veicolo trasporta più persone oppure dei bambini. Siamo davvero sicuri che, nell’era in cui acquistiamo le auto anche sulla base del numero di air bag e di sistemi di protezione che offre, siamo pronti a cedere a un computer la decisione su chi deve vivere e chi deve morire? Se lo sono chiesti un ingegnere informatico dell’Università di Standford, Chris Gerdes, e il suo collega filosofo ed eticista del Politecnico della California Patrick Lin, che hanno organizzato un workshop multidisciplinare per cercare di risolvere il dilemma, senza riuscirci. Di conseguenza hanno sviluppato insieme una serie di software in grado di indurre la macchina a utilizzare scenari etici diversi, da quello che evita gli esseri umani a costo di andare a sbattere sulle auto parcheggiate, a quello che agisce semplicemente per limitare il numero dei possibili morti e feriti, indipendentemente dal fatto che siano passeggeri dell’auto stessa o di un’altra auto, fino allo scenario “animalista” che evita persino di investire gli scoiattoli, molto frequenti sulle strade degli Stati Uniti. Esiste anche un software che «autorizza» la macchina a fare la manovra che teoricamente provoca meno morti o feriti tranne se sull’auto ci sono i nostri figli: in quel caso deve fare di tutto per salvarli.

Comunque la si pensi, perdere il controllo del proprio mezzo è spaventoso. In questo anno di spostamenti mi è anche capitato un problema in autostrada, mentre viaggiavo con mio padre e le mie figlie di ritorno dal mare. Possedevo una di quelle macchine con il cambio automatico e tutte le funzioni gestite da un computer. Solo che questo, da un po’ di tempo, faceva le bizze, segnalando anomalie di ogni genere ai freni, alle sospensioni… Anomalie «fantasma», dovute a qualche strano inghippo del sistema di intelligenza artificiale sufficienti però a mandare in tilt i sistemi di controllo del cambio e di fronte alle quali i numerosi meccanici interpellati si limitavano ad alzare le braccia. Ed è successo anche quel pomeriggio sull’autostrada: all’improvviso la macchina non cambiava più le marce, non accelerava, ma soprattutto non mi permetteva di riprendere il controllo manuale. L’unica cosa che potevo fare era inchiodare, in mezzo a una autostrada trafficata dove ovviamente nessuno rispettava le distanze di sicurezza. Non so come sono riuscita a fermarmi in corsia di emergenza, tenere a bada il panico e chiamare un carro attrezzi.

La settimana dopo abbiamo venduto l’auto computerizzata. Ora abbiamo una grossa, solida, confortevole auto familiare. La richiesta che ho fatto al concessionario ? Che fosse assolutamente, totalmente meccanica. Non ha nemmeno il tachimetro digitale. E io mi sento molto più sicura, anche se le statistiche dicono il contrario.

(alcune parti di questo articolo sono già state pubblicate su Mente e Cervello)


"Dovremmo aver paura del capitalismo, non delle macchine".
(Stephen Hawking)
flaviomob
forumulivista
forumulivista
 
Messaggi: 12693
Iscritto il: 19/06/2008, 19:51

Re: Intelligenza artificiale e vita umana

Messaggioda franz il 26/01/2019, 10:55

Nel caso in questione non è impazzito il computer, ma il problema era nei sensori e quindi nella qualità delle informazioni che raggiungevano il "cervello".

Forse a prima vista la cosa può apparire strana ma questo può accadere anche all'uomo e agli animali.
La natura, come si diceva una volta, perché oggi diciamo "l'evoluzione", ha preparato la soluzione.

Puo' capitare che ci giri la testa, di provare confusione, stordimento, nausea.
Succede quando il cervello raccoglie segnali strani, che non sa riconoscere.
La reazione naturale è nausea e vomito.

In pratica se il cervello è confuso da segnali contrastanti e distorti, la causa più probabile è in qualcosa che abbiamo mangiato o bevuto recentemente. Il vomito è la migliore soluzione salvavita.

Questo si può applicare anche all'intelligenza artificiale?
Forse. Un sistema veramente intelligente potrebbe verificare se recentemente sono state caricate modifiche al software e rigettarle, tornando alla situazione precedente. Se il problema rimane, allora il problema è veramente eterno (sensori) e qui la soluzione, più che la ridondanza dei computer, sta nella ridondanza dei sensori e dei sistemi di trasmissione.

Sull'etica invece siamo indietro. Il dilemma del carrello ferroviario dimostra che gli uomini reagiscono differentemente mentre un sistema automatico avrebbe una sola etica. A meno di avere tanti fornitori di autovetture, con software ed etica differente (personalizzabile dal guidatore) e qui si che ne vedremo delle belle.

https://it.wikipedia.org/wiki/Problema_ ... erroviario
E però, in ogni nostra diliberazione si debbe considerare dove sono meno inconvenienti, e pigliare quello per migliore partito: perché tutto netto, tutto sanza sospetto non si truova mai.
Niccolò Machiavelli (Firenze, 3.5.1469 – Firenze, 21.6.1527)
Avatar utente
franz
forumulivista
forumulivista
 
Messaggi: 20739
Iscritto il: 17/05/2008, 14:58

Re: Intelligenza artificiale e vita umana

Messaggioda pianogrande il 26/01/2019, 12:05

Mi puzza tanto di falso problema.

Finché le macchine saranno "automatiche" ma programmate dall'uomo, riprodurranno l'abilità e l'etica dell'uomo.
Il solo fatto che nascano queste discussioni/riflessioni lo dimostra.

Si evolveranno mano a mano che si evoleranno dette abilità ed etica.

Si potrebbe parlare di abilità ed etica delle macchine il giorno in cui l'uomo fosse escluso dal loro sistema evolutivo ma tutto sommato anche quella sarebbe una conseguenza di abilità ed etica umana visto che un tale permesso non può che essere sfuggito per errore o volutamente dato.

E allora?

Allora, cerchiamo di lavorare bene con scienza e coscienza ma la strada è ormai tracciata.

L'automazione e' la scia che il pensiero si lascia dietro e che permette a detto pensiero di progredire.

Come in un organismo animale; d'altra parte.
Fotti il sistema. Studia.
pianogrande
forumulivista
forumulivista
 
Messaggi: 9635
Iscritto il: 23/05/2008, 23:52

Re: Intelligenza artificiale e vita umana

Messaggioda flaviomob il 03/02/2019, 1:39

Nel caso in questione non è impazzito il computer, ma il problema era nei sensori e quindi nella qualità delle informazioni che raggiungevano il "cervello".


I sensi del pilota, però, riportavano informazioni diverse dai sensori.


"Dovremmo aver paura del capitalismo, non delle macchine".
(Stephen Hawking)
flaviomob
forumulivista
forumulivista
 
Messaggi: 12693
Iscritto il: 19/06/2008, 19:51

Re: Intelligenza artificiale e vita umana

Messaggioda franz il 03/02/2019, 13:06

può capitare, raramente, che i sensi del pilata siano alterati.
può capitare, raramente, che i sensori del computer siano alterati.

E se non sono i sensori, può essere il cervello (umano o artificiale) ad assere fuori fase.

Difficile è trovare la soluzione. Ci vorrebbe una terza parte che stabilisca a chi affidare il comando, tra i due.
Oppure potrebbe essere questa terza parte a prendere il comando, se dotata di sensori che ritiene affidabili.
Ma non se ne esce. Perché arriviamo ad una regressione infinita.

Alla fine se incidente deve essere, che sia. Amen.
E però, in ogni nostra diliberazione si debbe considerare dove sono meno inconvenienti, e pigliare quello per migliore partito: perché tutto netto, tutto sanza sospetto non si truova mai.
Niccolò Machiavelli (Firenze, 3.5.1469 – Firenze, 21.6.1527)
Avatar utente
franz
forumulivista
forumulivista
 
Messaggi: 20739
Iscritto il: 17/05/2008, 14:58

Re: Intelligenza artificiale e vita umana

Messaggioda flaviomob il 05/02/2019, 0:59

La torre di controllo, che dispone di dati oggettivi sulla rotta e sull'andamento del volo. Se il controllo dell'aereo è affidato all'intelligenza artificiale e si verifica una picchiata improvvisa, il sistema automatico di pilotaggio deve poter essere escluso anche dall'esterno, da chi "sorveglia" il volo da terra. Il contrario deve avvenire se è il pilota ad effettuare manovre pericolose ed immotivate, palesando un rischio di suicidio o di attentato. Bisogna però capire, nell'ultimo caso, se un sistema di intelligenza artificiale è anche in grado di gestire autonomamente le fasi di atterraggio (su pista o di emergenza), senza intervento del pilota.


"Dovremmo aver paura del capitalismo, non delle macchine".
(Stephen Hawking)
flaviomob
forumulivista
forumulivista
 
Messaggi: 12693
Iscritto il: 19/06/2008, 19:51

Re: Intelligenza artificiale e vita umana

Messaggioda franz il 05/02/2019, 10:13

flaviomob ha scritto:Bisogna però capire, nell'ultimo caso, se un sistema di intelligenza artificiale è anche in grado di gestire autonomamente le fasi di atterraggio (su pista o di emergenza), senza intervento del pilota.

Per ora l'atterraggio stumentale è possibile solo se l'aereoporto è dotato di ILS
https://it.wikipedia.org/wiki/Instrument_landing_system
I primi test risalgono a 90 anni fa.
Poi in futuro, come ci sono prototipi di vetture a guida autonoma, potremmo avere anche aerei ma per ora non ne ho sentito parlare.
E però, in ogni nostra diliberazione si debbe considerare dove sono meno inconvenienti, e pigliare quello per migliore partito: perché tutto netto, tutto sanza sospetto non si truova mai.
Niccolò Machiavelli (Firenze, 3.5.1469 – Firenze, 21.6.1527)
Avatar utente
franz
forumulivista
forumulivista
 
Messaggi: 20739
Iscritto il: 17/05/2008, 14:58

Re: Intelligenza artificiale e vita umana

Messaggioda gabriele il 05/02/2019, 17:07

pianogrande ha scritto:Mi puzza tanto di falso problema.

Finché le macchine saranno "automatiche" ma programmate dall'uomo, riprodurranno l'abilità e l'etica dell'uomo.
Il solo fatto che nascano queste discussioni/riflessioni lo dimostra.


https://www.digitalic.it/computer/softw ... rtificiale

Il problema è che per farsi un'etica le si sta addestrando nei peggiori minestroni di informazione umani: i social network.

Oltre ai progetti indicati dall'articolo esistono veri e propri robot dotati di AI che parlano, esprimono pensieri e desideri, alcune volte un po' angoscianti.

Discussioni sulla troppa abbondanza di persone nel mondo, arrivo al punto di singolarità a breve, utilizzo di cruise dotati di armi nucleari per intimidire e governare il mondo...
Chi sa, fa. Chi non sa, insegna. Chi non sa nemmeno insegnare, dirige. Chi non sa nemmeno dirigere, fa il politico. Chi non sa nemmeno fare il politico, lo elegge.
Avatar utente
gabriele
Redattore
Redattore
 
Messaggi: 2690
Iscritto il: 18/05/2008, 16:01


Torna a Ecologia, Energia, Innovazione, Ricerca

Chi c’è in linea

Visitano il forum: Nessuno e 1 ospite

cron