L’auto Uber frena l’Intelligenza artificiale

769 0
769 0

Dopo l’incidente in cui un’auto a guida autonoma della flotta di Uber ha ucciso una donna, che cosa succederà ai programmi delle aziende, almeno una ventina, che stanno lavorando a questa tecnologia? L’ipotesi più probabile, spiegano diversi esperti, è che ci sia un rallentamento, soprattutto perché le compagnie stanno aspettando adeguamenti delle leggi che rendano più facile mettere le ‘self driving car’ sulle strade.

Negli Usa pochi giorni fa Waymo, una ‘costola’ di Google, la stessa Uber e altre aziende hanno chiesto al Congresso di approvare una legge che spianerebbe la strada all’utilizzo su larga scala. Ma l’incidente potrebbe frenarne l’iter, soprattutto visto che le principali agenzie di sicurezza stradale Usa, la National Highway Traffic Safety Administration e la National Transportation Safety Board, hanno aperto un’indagine.

La polizia di Tempe (città ove è avvenuto l’incidente) ‘assolve’. «Probabile che la vettura a guida autonoma non abbia colpe». Da uno dei video girati nell’auto e osservato dalle forze dell’ordine, s’intravede solo «un’ombra». E pare: «molto chiaro che sarebbe stato difficile evitare la collisione in ogni caso». Cioè sia con una guida autonoma sia umana.

L’artificial intelligence – ovvero l’Intelligenza artificiale – è la nuova rivoluzione industriale. Passa da tema d’avanguardia ad argomento di (ab)uso corrente,. Ma resta oggetto misterioso che gli «integrati» osannano come liberatorio dalla fatica e gli apocalittici deprecano come causa di disoccupazione di massa e fonte d’ogni male. Il filosofo svedese Nick Bostrom prevede per il 2047 il sorpasso della «superintelligenza», e in prospettiva inesorabile la schiavizzazione o estinzione dell’umanità.

Self Drive

Pericolo percepito superiore a quello reale

L’ingigantita eco dell’incidente mortale con la vettura autoguidata in Arizona rende il pericolo percepito superiore a quello reale (gli umani alla guida sono ben più fallibili). Così bloccando ingiustificatamente i test. Le auto self-driving, ancorché con guidatore, circolano già in Italia. In attesa di quelle driverless, senza sterzo né pedali, quando la «pericolosa» guida umana sarà proibita.

Per la ibrida situazione mista bastano le attuali norme sulla responsabilità del produttore, del proprietario e del «conducente». Come conferma anche la nuova legge tedesca. I veicoli erano per millenni a trazione umana (schiavi) o animale. Sono solo da un secolo a governo unicamente umano ed evolveranno a conduzione da Artificial Intelligence.

Nihil Novi. Taluni auspicano, forse a torto, regole nuove che impongano all’auto driverless la scelta di non travolgere mai un bimbo, anche a costo di precipitare in un burrone con gli occupanti (magari distinguendo a seconda del numero di bambini a bordo). Si dimentica che l’autista meccanico, fin quando coesisterà con quello umano, dovrà privilegiare la salvezza degli occupanti. Basterebbe altrimenti piombare davanti all’auto di un nemico reggendo un bimbo per costringere la vettura a saltare da un viadotto.

I campi, sconfinati, della A.I.

L’artificial intelligence (A.I.) spazia dall’automazione produttiva alla medicina robotizzata, sino all’uomo cyborg dotato di connessioni neurali, con «estensioni» e capacità «aumentate» che lo renderanno una sorta di moderna chimera, insieme «naturale» e «artificiale». Si potrà ‘fotografare’ il pensiero. Conservare, potenziare, trasferire o condividere la memoria mediante comunicazione neurale fra cervelli in rete o diretta tra cervello e computer. O comandare con la mente protesi ed esoscheletri (militari o ortopedici) ‘indossabili’ e idonei a moltiplicare la forza muscolare o a sopperire alle mutilazioni. Con seri interrogativi su una nuova dimensione del corpo umano e la sua inviolabilità.

I sei livelli della guida autonoma

Artificial Intelligence self-learning

Affascina quanto preoccupa soprattutto l’Artificial Intelligence self-learning, ovvero che apprende dall’esperienza, anche processando miriadi di big data, ed è capace di autoperfezionarsi ed autoreplicarsi. Essa genera almeno due problematiche. Chi è responsabile? E quando il robot da bene diventa persona, magari acquisendo coscienza e potendo superare il test di Turing?

Rifletto su siffatti temi nel mio recente volume Intelligenza artificiale e responsabilità. Basti qui osservare che il diritto dell’Europa continentale, derivato da quello romano, ben conoscendo le responsabilità da intelligenza sia umana sia animale, ha sviluppato logiche e norme idonee alla mediazione giuridica anche per quella artificiale.

Ugo Ruffolo

Ultima modifica: 22 marzo 2018