Nel divertente, a tratti esilarante libro di Marco Malvaldi e Dino Leporini, Capra e calcoli. L’eterna lotta tra gli algoritmi e il caos (Laterza, pp. 177, euro 15) si riflette sul rapporto tra modelli e complessità attraverso i due protagonisti più importanti di questa relazione: gli algoritmi e i dispositivi che dagli algoritmi derivano. Da quando i computer sono diventati protesi delle nostre vite, agli algoritmi e ai dispositivi si chiede sempre più di domare il caos nel quale saremmo immersi e di ridurre a sapere operativo la gran parte di quello che ci occorre conoscere per orientare le nostre scelte.

Velocità, semplificazione ed efficacia possono però non far considerare aspetti che si rivelano importanti sul medio e lungo periodo e tali da compromettere gli esiti del calcolo fatto all’inizio. I modelli, proprio perché tali, non possono garantire sempre una correlazione forte e duratura con la realtà: come i farmaci, non sono esenti da effetti collaterali che talvolta si rivelano catastrofici.

È questo ad esempio il caso, citato nel libro, dei modelli algoritmici di calcolo del rischio che hanno permesso l’elargizione dei mutui subprime. Insieme alla disonestà dei finanziatori, all’assenza di regole di controllo e al conflitto di interessi dei controllori, tali modelli hanno contribuito a fare cattiva informazione e a determinare il crack economico del quale stiamo ancora pagando le conseguenze.

Tra modelli e complessità, fra una conoscenza che punta tutto sulla risposta e una conoscenza che considera la domanda parte integrante del sapere c’è un conflitto atavico. Se non nuove, forse più evidenti sono però oggi le implicazioni umane di questo scontro. Ad esempio: se il tipo d’intelligenza di macchine e dispositivi che hanno per cervello gli algoritmi sia o no differente dagli umani. Se i cervelli degli umani possano essere o no considerati come modelli algoritmici. Nel qual caso, gli umani potrebbero essere studiati, riprodotti e forse manutenuti come se fossero dispositivi. Se vogliamo a tutti i costi una risposta, anche al prezzo di estorcerla alla domanda e senza considerare quest’ultima come parte del processo conoscitivo, allora abbiamo già trovato quello che cercavamo: tra gli umani e i dispositivi non c’è differenza.

Allo stesso modo, non differisce una decisione presa dopo aver pensato, dalla decisione quale attivazione dell’algoritmo di una app. Ed è forse anche a causa di questa non sempre dichiarata equivalenza – come si evince dalla parte finale del libro – che ci stiamo impegnando tanto a cercare l’essenza umana nel dispositivo neuronale che già abbiamo dato scontato essere nel cervello e che non saremmo lontani dal riprodurre all’esterno dei corpi.

Malvaldi e Leporini nel ricostruire il legame fra questione umano / macchina e calcolo algoritmico citano, fra gli altri, Turing, Descartes, Leibniz. Quest’ultimo riteneva che il dualismo res extensa / res cogitans di Descartes non riuscisse a garantire sufficientemente l’idea di un’essenza umana. Anche per questo Leibniz pensava alle monadi e cercava di mostrare, tramite l’esempio del paragone del cervello umano con il congegno di un mulino, che neanche le parti meccaniche che si spingono l’una con l’altra garantiscono che ci sia un’identità sostanziale. Per Leibniz, la sostanza dell’umano non può essere considerata una sintassi i cui pezzi si possono smontare, ma un lemma unico – una parole e non una langue, per usare i termini di Saussure.

Nell’evidenziare i limiti dell’ingegneria matematica dell’algoritmo, Malvaldi e Leporini sembra facciano emergere che l’umano non soltanto non è qualcosa, non soltanto non è la possibilità o impossibilità di qualcosa, ma che è forse l’impossibilità di nulla. Non possiamo entrare a disposizione di come tale impossibilità di nulla si sia generata perché ciò sarebbeplausibile esclusivamente isolando un dispositivo in grado di ricreare l’origine di niente. Ma, paradossalmente e significativamente, è proprio per questo che gli algoritmi sono oggi così importanti.

Perché, ben al di là delle loro specifiche applicazioni, essi sono tra i mezzi principali di quell’ontologia operativa che cerca ad ogni costo di ricavare qualcosa anche da niente, di definire l’essenza umana riproducendola direttamente. Per questo oggi, la neurobiologia e la robotica sono sempre più due aspetti di un medesimo procedimento.

Calcolare, controllare e prevenire il più possibile gli effetti di un processo, che sia biologico o cibernetico, significa sempre più potere di determinare un’essenza. Simulare per preventivare effetti collaterali, riprodurre attraverso le applicazioni non significa più soltanto risolvere efficacemente problemi pratici, ma anche definire l’essere – e l’essere umano.