I pericoli dell’intelligenza artificiale che verrà

01/02/2015 di Mazzetta

MACCHINE CONTRO UMANI – Di questioni etiche attorno alla costruzione di armi e sistemi che uccidono uomini in autonomia o quasi, ce ne sono parecchie che meriterebbero sicuramente di essere esplorate con attenzione, ma intanto si progettano e si mettono in produzione armi sempre più indipendenti che renderanno ancora più evidente lo squilibrio tra chi controlla la tecnologia e può lanciare una guerra sicuro di perdere un numero molto limitato di uomini e chi invece ha solo quelli da mettere in campo. Già l’impiego dei droni, che non sono altro che mezzi telecomandati, ha illuminato e fatto emergere grossi problemi etici, figuriamoci cosa accadrebbe se un domani i droni operassero in piena autonomia o quasi. Rappresenterebbero, ovviamente, una seria minaccia nei confronti dell’umanità, e non manca molto perché succeda, la tecnologia per renderlo possibile esiste già, così come già accade che questo genere di strumenti sia impiegato per il controllo sociale e non solo in guerra, ma nonostante tutto questo non c’è traccia di diffuse riflessioni in proposito nel dibattito pubblico.

L’INTELLIGENZA ARTIFICIALE AVANZA DI CORSA – Bart Selman, un professore della Cornell university che si occupa proprio di etica dell’IA (Intelligenza Artificiale) e che era presente a Porto Rico, ha spiegato che: «cose come la visione dei computer, il riconoscimento vocale, stanno cominciando a funzionare. C’è una certa accelerazione nello sviluppo dei sistemi d’Intelligenza Artificiale. E questo rende più urgente fare attenzione alla questione». Itamar Arel, il fondatore di Binatix,  pensa che «è tempo di destinare più risorse per capire l’impatto sociale che possano avere i sistemi d’IA nell’eliminare ancora più lavoratori. Che per me è una certezza, che accadrà per una percentuale tale da non permettere alla società di di adattarsi abbastanza in fretta. È sicuramente una preoccupazione». L’avanzata dell’IA non è ovviamente vista come una disgrazia dai presenti alla conferenza, quello che i firmatari dell’appello cercano di trasmettere non è un allarme isterico, ma piuttosto un forte richiamo a prestare attenzione alla questione e a non aspettare passivamente che la tecnologia dilaghi e dispieghi i suoi effetti più sgradevoli. Perché potrebbero esserlo al punto di materializzare in futuro i peggiori incubi della fantascienza. E una soluzione elegante come scrivere le leggi della robotica ipotizzate da Asimov non potrà funzionare.

MACCHINE AUTONOME CHE DEVONO OBBEDIRE – «Tutti i sistemi dotati d’IA devono fare quel che vogliamo che facciano» , recita l’appello e parrebbe il minimo, ma in prospettiva appare invece una pretesa difficile da esercitare quando saranno miliardi i dispositivi collegati in rete e quando molti di questi saranno abbastanza autonomi da poter prendere decisioni nocive per l’uomo, se non per l’umanità. I casi recenti di sabotaggi d’impianti atomici o le disavventure occorse ai sistemi automatizzati di borsa hanno offerto solo un assaggio di quanto diventerà possibile. Prima dell’annichilimento dell’umanità c’è tutta una serie di problemi che potrebbero emergere in un mondo che presto sarà popolato d’auto, navi e aerei senza pilota e che vedrà i servizi essenziali affidati alle cure di algoritmi e processori. Robot che guidano, che producono e consegnano cibo ed energia, che regolano le telecomunicazioni, robot che curano, che compiono operazioni chirurgiche. Problemi e questioni etiche che il piccolo gruppo di personalità riunite a Porto Rico ha cominciato a immaginare traendo dall’esercizio un evidente disagio e cattivi presagi. Presagi condivisi anche da Bill Gates, che in una sessione AMA (Ask Me Anything, chiedimi qualsiasi cosa) su Reddit ha rivelato quanti scienziati e addetti ai lavori siano preoccupati dell’avvento di una intelligenza artificiale superiore. Inquietudini da non sottovalutare anche se sono forse situate più avanti nel tempo: «al principio le macchine eseguiranno molti compiti per noi e non saranno super intelligenti. Il che dovrebbe essere positivo se le gestiremo bene. Qualche decennio dopo l’intelligenza artificiale sarà abbastanza forte da diventare soggetto di preoccupazione. Sono d’accordo con Elon Musk e molti altri sul punto, e non capisco quelli che non s’inquietano».

C’È BISOGNO DI DISCUTERNE E CAPIRE – Non si deve  pensare che si tratti di speculazioni troppo alte o specializzate da escludere dal dibattito la maggior parte delle persone, sarebbe anzi opportuno che il dibattito si allargasse quanto più possibile ai media, alla politica e al grande pubblico e fosse quanto più possibile multidisciplinare, perché il diffondersi di questa automazione e di robot troppo intelligenti pone problemi etici e pratici che finora sono stati affrontati solo nella letteratura e facendo riferimento a modelli di futuro non troppo aderenti a quelli che saremo presto chiamati ad affrontare. Discussione che è l’obbiettivo primario della lettera uscita dalla conferenza del Life Institute, un preoccupato e convinto invito alla riflessione, e che sia convinto lo provano i 10 milioni di dollari elargiti da Elon Musk all’istituto e altri tangibili contributi già annunciati da parte di protagonisti nel campo delle tecnologie avanzate, ma soprattutto lo provano le qualità e la reputazione dei firmatari, tutti studiosi o imprenditori nel settore delle tecnologie avanzate. Nessuno può dire come sarà la vita degli uomini nel mondo popolato dai robot e nessuno può garantire che tutto andrà bene semplicemente affidandosi al laisser faire, ma chi se ne intende sta cercando di dire ai media, ai politici e ai cittadini che bisognerebbe discutere per tempo e possibilmente adottare alcune cautele e regole condivise per evitare almeno gli inconvenienti più catastrofici e quelli più facilmente prevedibili.

 

Share this article