Sono sessant’anni da quando il termine intelligenza artificiale (Ia) fu coniato come titolo di una famosa conferenza tenuta a Dartmouth, e uno dei firmatari di quel progetto, Marvin Minsky è morto all’età di 88 anni il 24 gennaio scorso («il manifesto» del 27 gennaio 2016). Il giorno prima si era chiuso il World Economic Forum di Davos, tra i cui temi spiccava la quarta rivoluzione industriale, cioè dell’impiego nell’economia di IA e robotica. Si discute molto del presente e del futuro delle macchine intelligenti e delle conseguenze per il mercato del lavoro e la società in generale.

L’ampiezza di questo dibattito spinge a un bilancio sulle prospettive e sulla realtà dell’intelligenza artificiale. Dopo lo sviluppo del Web e poi del cosiddetto «Web 2.0» negli anni ’00 di questo secolo, assistiamo a una nuova primavera della ricerca sull’Intelligenza artificiale. I progetti vincenti di questa nuova ondata non sembrano essere più quelli sostenuti da Minsky e altri, basati sulla simulazione delle capacità intellettive umane superiori, ma si concentrano piuttosto sulla caratteristica delle macchine digitali – sia pure con l’ipotesi di emulare la struttura cerebrale di neuroni e sinapsi – di «maneggiare» moltissimi dati in poco tempo. La ricerca di punta lavora al momento sul potenziamento delle capacità computazionali dei dispositivi, che diversamente dal cervello umano hanno costi molto elevati in termini di approvvigionamento idrico e energetico. Si punta sulla forza bruta delle macchine potenti (talvolta chiamate con una metafora accattivante cloud computing) che attraverso algoritmi di «apprendimento» cercano di ottenere risultati interessanti in tempi brevi.

Un artefatto sociale

macchineintelligenti

Come sosteneva nel 1950 Alan Turing, morto suicida nel 1954, invece di cercare una definizione di intelligenza delle macchine sarebbe stato più utile organizzare un semplice gioco, detto dell’imitazione, poi noto come Test di Turing. Se la macchina fosse stata in grado di sostenere per cinque minuti una conversazione su qualsiasi tema con una giuria di persone inesperte in intelligenza e informatica, allora si ammetteva che aveva superato il test.
Una possibile interpretazione della visione di Turing ci suggerisce che non esisterebbe una definizione univoca di intelligenza da attribuire alle macchine, ma solo delle prestazioni che le persone sono pronte a considerare intelligenti se non sanno come sono state ottenute. Insomma possiamo ipotizzare che l’intelligenza sia definita solo entro un ambito di consenso sociale, che quindi si può trasformare nel tempo, secondo le contingenze ambientali e storiche. Se decidiamo di attribuire intelligenza alle macchine stiamo modificando la sua caratteristica di essere propria degli esseri viventi e specialmente degli umani, escludendo contestualmente una sua connessione stretta tra coscienza, emozioni e corpo. Si tratta di una scelta. E carica di conseguenze.

Proseguendo nella ricerca genealogica che possa dar conto degli attuali risultati nell’Ia incontriamo Joseph Licklider, uno dei principali protagonisti del progetto di una rete di calcolatori, che in un articolo del 1960 proponeva una simbiosi tra esseri umani e macchine. La sua tesi era che la maggior parte delle attività di uno scienziato fossero di tipo meccanico e ripetitivo e non richiedessero alcuna intelligenza particolare. Farsi affiancare da una macchina con la quale avere un’interazione simbiotica avrebbe potuto amplificare la capacità conoscitiva e intellettiva umana.

Queste premesse illustrano quanto sia già in atto il processo sociale di riconoscimento dell’intelligenza ai dispositivi digitali. Quando utilizziamo il motore di ricerca per trovare le informazioni di cui abbiamo bisogno, quando ci serviamo dei cosiddetti assistenti virtuali come Siri o come quello lanciato lo scorso ottobre da Google per completare le e-mail, quando ci fidiamo della newsfeed di Facebook per sapere quello che ci interessa, attribuiamo agli algoritmi che governano questi servizi una notevole dose di intelligenza, tanto da permettergli di sostituirsi a noi nella realizzazione di semplici o complessi compiti organizzativi.

Tutto lo smisurato interesse intorno ai Big Data, la grande quantità di dati raccolti dalle principali aziende internet – quelle che Stefano Rodotà chiama i «signori dell’informazione» – riguarda la ricerca di algoritmi per il machine learning, ovvero uno dei settori di successo dell’intelligenza artificiale, in grado di dare senso all’ingovernabile mole di dati lasciata, volutamente o meno, dalla nostra presenza in rete, oltre che da altri processi. L’obiettivo è la «profilazione» degli utenti, o la definizione di orientamenti di consumo e abitudini che aiutino a migliorare l’efficienza del mercato.

Quando 60 anni fa nasceva l’Ia, si trattava di un progetto di simulazione delle capacità umane. Ora invece l’ideologia più di moda è che le macchine siano più capaci degli esseri umani di fare certe cose, come dare significato e valore a miliardi di dati, raccolti dinamicamente.

A questo proposito, Norbert Wiener, uno dei fondatori della cibernetica, sosteneva che sarebbe stato pericoloso attribuire alle macchine la responsabilità nella presa di decisione. Se la lasciassimo alla macchina, rischieremmo di fare la fine dell’apprendista stregone.
Ma il rischio dell’attribuzione della responsabilità a un dispositivo meccanico «autonomo» è anche il non poterla attribuire a nessuno, perché le macchine non possono essere agenti morali nel senso degli umani. Google, per esempio, ha brevettato la self-driving car, la macchina che si guida da sola. Ma chi ha la colpa in caso di incidente? Se qualcuno venisse ferito o ucciso da una macchina senza conducente, chi ne pagherebbe le conseguenze? Questo inserisce nella discussione sull’intelligenza artificiale il tema dell’etica e delle regole sociali che sono destinate a modificarsi con l’introduzione di questi dispositivi e di altri che verranno, come i Robot assistant.

Assistenti meccanici

macchineintelligenti1

Quando conferiamo alla macchina l’intelligenza stiamo modificando contestualmente anche la soggettività degli esseri umani. Un allargamento del concetto di intelligenza tale da riconoscerne le caratteristiche in un dispositivo digitale o anche solo in un software, per quanto complesso, retroagisce sulla concezione dell’intelligenza, della memoria, della coscienza umane, trasformandole in modo inequivocabile e irreparabilmente. La struttura digitale e deterministica dei calcolatori elettronici non assomiglia alla variabilità, alla fragilità, all’instabilità, all’indeterminatezza della vita biologica, che include anche il funzionamento cerebrale, a meno di scomodare metafore e retorica, strumenti che letteratura e comunicazione padroneggiano senz’altro meglio della scienza.

Che cosa significa immaginare uno smart personal assistant prendere le decisioni al nostro posto, rispondere alla posta, leggere testi in lingua straniera fornendo una sintesi nella nostra? Riteniamo che il nostro lavoro, come sosteneva già Licklider cinquanta anni fa, sia largamente costituito di compiti eseguibili con successo da macchine? Oppure stiamo scegliendo di non far valere le componenti emotive, creative e tattili della cura di sé e degli altri, nell’ambito dell’attività lavorativa?

Comunque dobbiamo preoccuparci del nostro lavoro. L’investimento nella realizzazione di questi dispositivi è ingente, ma se liberasse le aziende dei costi del lavoro salariato, sarebbe conveniente. In coincidenza con l’apertura del forum di Davos, la banca svizzera Ubs, non certo un’istituzione sovversiva, ha presentato un report (citato dal Guardian, 19/1/2016) nel quale si sostiene che l’uso massiccio di robot e intelligenza artificiale nell’economia comporterà, oltre a un grave danno per i paesi emergenti, un aumento in tutti i paesi del divario tra i salari dei lavoratori.

In un altro report uscito l’anno scorso a cura della banca di investimento Bank of America Merrill Lynch, si pronosticava che nel 2035 solo nel Regno UNito verranno persi il 35% dei posti di lavoro e negli Stati Uniti il 47%, impieghi soprattutto a retribuzioni più svantaggiate. Ma la cosiddetta «quarta rivoluzione industriale» sembra scardinare le tutele anche per i «colletti bianchi», finora ancora risparmiati dalle tecnologie digitali. Le mansioni che sopravvivranno, oltre a quelle specializzate e legate al funzionamento delle tecnologie, saranno quelle nelle quali conta il corpo: insegnante di Zumba o personal trainer.

Codici etici cercasi

macchineintelligenti3

Non possiamo lasciare che questi problemi siano trattati solo nelle aziende interessate alle applicazioni concrete. È singolare che nel gennaio 2014, quando Google, dopo numerose altre acquisizioni nell’ambito di robotica e Ia, comprò DeepMind, un laboratorio inglese di intelligenza artificiale coordinato tra gli altri dall’enfant prodige dell’Ia Demis Hassabis, la dirigenza di DeepMind chiese e ottenne la costituzione di un ethics board (un comitato etico) interno all’azienda madre. Perché Google si occupa di aprire un dibattito etico interno sulle ricerche in corso, mentre le istituzioni politiche internazionali tacciono?

Evelyn Fox Keller, una filosofa e biologia femminista, sosteneva che l’intervento sull’oggetto della ricerca scientifica esercita un effetto di trasformazione su quell’oggetto. Dobbiamo sempre chiederci per cosa stiamo studiando quando facciamo ricerca scientifica. Quali sono le forze sociali, economiche e politiche in gioco nella costruzione simbolica dell’intelligenza artificiale e quali conseguenze avrà sulla soggettività umana? Il potere sull’oggetto di studio non è necessariamente dominio o dittatura, ma è il frutto di scelte e decisioni di governo della ricerca, oltre che tecniche. La scienza non è mai pura: oltre che non neutrale è, fin dal principio, applicata.

Wiener riteneva che la macchina avrebbe potuto dominare sugli esseri umani solo se questi fossero diventati da lei prevedibili. La rinuncia o meno alla variabilità e all’imprevedibilità dei viventi spetta solo a noi.