Matteo Bortolon

Terminata la lettura delle scarse 150 pp. del volume di Stefano Isola, A fin di bene: il nuovo potere della ragione artificiale (Asterios, 2023), la sensazione è di inquietudine. Il dibattito sulle potenzialità della cosiddetta “intelligenza artificiale” (AI) è salito al punto da echeggiare i temi della fantascienza sulla “rivolta delle macchine”. Impressiona il fatto che la denuncia dei rischi venga non da qualche sorta di “primitivista”, ma da imprenditori del settore e da ricercatori. “Il 49% dei ricercatori di intelligenza artificiale ha affermato che l’IA rappresenta una minaccia esistenziale per l’umanità, quasi al livello di un disastro nucleare di larga scala” (sic!). Quest’ultimo passo è citato nel testo del prof. Isola (p. 60), proveniente da un membro della Commissione Trilaterale.

Oggi la AI è ovunque: dai risultati dei motori di ricerca al funzionamento dei social, dalle armi alla ricerca scientifica, con numerose applicazioni quotidiane, con una ampiezza pari alla digitalizzazione del mondo. Questo agile volume dedicato alle trasformazioni tecnologiche legate ad essa entra in parte nello specifico di diverse innovazioni mostrandone le problematiche e i rischi.

Un punto di partenza è che l’impostazione del libro rifugge da un approccio utilitaristico, nell’ambito del quale le visioni critiche sono facilmente tacitate, a fronte delle comodità del digitale, come passatiste, impaurite, reazionarie. L’autore dichiara invece di porsi fuori da un bilancio di vantaggi – svantaggi per svolgere i suoi ragionamenti su un altro piano, che corrisponde grosso modo all’interrogativo: quale è il senso profondo di queste innovazioni? In che modo possono influire sulla vita umana in generale (di tutti, quindi, al di là del soggetto che usandole al momento ne trae un’utilità fattizia)?

I nuclei argomentativi del testo riguardano da un lato le caratteristiche dei sistemi odierni basati sulla AI, dall’altro le loro ricadute sociali, e fra le une e le altre c’è un nesso causale molto forte.

Per quanto riguarda il primo punto, come viene descritto nel capitolo  Una innovazione postscientifica, il mondo della AI è stato costruito con elementi di ricerca scientifica, ma alberga al centro stesso del suo funzionamento un nucleo di irrazionalità: il funzionamento delle cd. “reti neurali” a più livelli resta in parte misterioso anche per gli stessi costruttori: in gran parte la macchina si “addestra” da sola con  la mera potenza del numero di tentativi e fallimenti. Ma nei suoi singoli passaggi il processo resta imperscrutabile.

Questo ha a che fare con la necessità dei “big data”: la AI ingoia una quantità enorme di dati per poter funzionare. Ma anche a tal riguardo abbiamo una modalità assai poco “scientifica”. In che senso? 

 Il metodo scientifico si afferma con la selezione di una porzione della realtà per scremarne gli elementi inessenziali – così, per la caduta dei gravi si mettono gli oggetti sotto vuoto, eliminando l’aria e l’attrito. La AI procede invece cercando delle correlazioni fra una massa abnorme di dati, sostituendo la selezione con la mera potenza di calcolo, ed i risultati sono accettati solo perché sono funzionali, ma senza capire davvero il perché: “le tecnoscienza tendono a manipolare il mondo senza comprenderlo” (p. 80).

Facciamo un altro esempio. Nelle scienze statistiche il campione viene scelto secondo una selezione secondo criteri “scientifici”. Un sondaggio serio per capire le inclinazioni politiche non può basarsi solo su cittadini di città governate da decenni dal Pd come Firenze o Bologna, ma deve sceglierli tra centri diversi, più uniformemente differenziati sull’orientamento politico prevalente. Coi big data invece si elaborano dati senza nessuna scelta separativa, in forza che il numero in sé dia delle indicazioni valide. Il risultato talvolta è che escono correlazioni a caso, potendosi fare associazioni in cui compare tutto e il contrario di tutto. Alcuni esempi ne fanno intravedere i possibili svarioni, come un rapporto fra il numero degli annegati caduti da una barca e quello dei matrimoni (sic!), o fra il numero di divorzi e il consumo pro capite di margarina! Questi esempi, ovviamente, non persuaderebbero nessuno. Ma in altri campi non è così facile la smentita,come le prescrizioni nutritive da rotocalco: “mangiate kiwi la sera per dormire meglio”. Il punto centrale è che la ricerca di correlazioni si basa sulla mera potenza di calcolo che non necessita di un vero quadro concettuale alle spalle.

Il passaggio dalla statistica tradizionale alla più moderna e smart data science si declina anche in senso operativo. Per esempio una estrazione di dati sulle parole nei commenti dei social (facebook, X, ecc.) potrebbe essere usata per vedere le reazioni a qualche esternazione in campagna elettorale per correggere il tiro, armonizzando (illusoriamente) il discorso con l’effetto prodotto a livello comunicativo. Molti parlerebbero, a tal proposito, di manipolazione.

Quanto alle conseguenze, si ha un curioso capovolgimento della narrativa corrente sulla AI. Nella fantascienza, per esempio, i problemi sorgono dal fatto che la macchina diventi sempre più simile all’uomo. Secondo l’autore è l’opposto, i guai sorgono invece da una divergenza insanabile. Per esempio, mentre le macchine sono bravissime in compiti difficili per l’essere umano, come calcoli complessi e memorizzazione di dati, incontrano seri ostacoli per attività banali (per noi) come camminare evitando gli ostacoli. Possono riconoscere gli oggetti, ma se per il bimbo – per esempio – l’acquisizione che un oggetto posto dietro un altro non scompare dall’esistenza è banale, per la AI è un ostacolo quasi insormontabile. In linea generale la macchina non riesce a cavarsela o a performare bene con pochi dati e tante variabili; ed infatti per funzionare ha bisogno di valanghe di dati.

Si tratta dello sbocco di un fallimento, quello di riprodurre meccanicamente il funzionamento della mente umana del dopoguerra; tale tentativo, che incorpora gli assunti di alcune scuole di pensiero in voga in quegli anni (comportamentismo, cognitivismo, biologismo, che in generale tendono a mutilare la complessità umana facendo della persona un “automa complesso”) vede un fiasco totale, ma resta il progetto di una progressiva informatizzazione della società. La soluzione aggira tale problema puntando sulla potenza materiale di calcolo, ma con risultati altalenanti.

Perché questo è importante per le ricadute pratche? il capitolo 12, Disallineamento e instabilità, lo chiarisce con nettezza: dato che gli algoritmi funzionano in contesti stabili, con variabili definite e continuative, si dovrà disciplinare il mondo sociale in modo da costruire un contesto adeguato; anche per il comportamento umano

In termini più pop: non dobbiamo tanto temere che Skynet divenga troppo simile a noi, ma che il nostro mondo venga piallato in modo da conformarlo ad una versione di Skynet non particolarmente in gamba. 

Gli esempi con cui le varie AI diventano sempre più elementi direttivi sono sempre più numerosi: dall’uso nei mercati finanziari ai tribunali (algoritmi che presumono di prevedere la possibile recidivia!), dalla salute alla scuola. Nel libro c’è un focus specifico su questi ultimi casi. Un saggio corposo è avvenuto durante il covid con la didattica a distanza, col largo uso di piattaforme private. L’ossessiva rincorsa alla digitalizzazione e alla centralità dell’uso di apparati tecnologici – tanto cara al PNRR di Draghi – esalta il ruolo dei fornitori aziendali, riducendo al tempo stesso il ruolo degli insegnanti quali meri “facilitatori tecnologici”.

Il senso più profondo del testo è attivare un dibattito verso tali mutazioni, che paiono dirigerci verso un mondo – alla fin fine – meno umano. Se per umano si intende lo spazio di imprevedibilità, il fiorire della creatività nel discorso condiviso con una comunità. Di contro a un assetto completamente omologato, robotizzato, fitto di decisioni procedurali indiscutibili – un assaggio delle quali lo si vede nella sospensione degli account dei social: non c’è un qualcuno cui rivolgersi, ma un muro di una procedura tecnologica assoluta.

Chi scrive vede in queste prospettive non solo una ragione profonda di tante dinamiche nocive – come le tecniche di guerra contemporanea. Ma si trova scaraventato verso i suoi vent’anni al corso di filosofia sul mind-body problem, l’annoso quesito filosofico della possibilità di ridurre l’esistenza umana a alcunché di calcolabile, misurabile, controllabile. Al tempo, con l’ermeneutica e scuole simili in grande spolvero, sembrava una prospettiva disperatamente limitata, gravata da una antropologia deprimente oltre che fallace, destinata ad una marginalità irredimibile. Ed invece ce la troviamo nei posti di comando a dirigere il mondo, spalleggiata dalla corporatocrazia più odiosa e pronta ad approfondire la sua indiscutibilità; ben bardata da un senso di modernità smart e accarezzata dall’europeismo da establishment.

In sintesi: punto forte del libro è un rovesciamento di prospettiva: mentre le critiche antitecnologiche sono spesso bollate come passatiste e antiscientifiche, qui è la stessa AI accusata di aver voltato le spalle alla scienza.

Il punto debole è che non riesce a dare spazio alle determinanti geopolitiche e culturali. Gli esiti descritti sono in pieno sviluppo in Occidente, ma nel resto del mondo il contesto è diverso. Anche se la Cina sviluppa anch’essa tali tecnologie il controllo politico su di esse è abbastanza diverso dalla alleanza con la corporatocrazia vigente nel blocco euroatlantico. Ovviamente ciò non significa che essa o qualche altra potenza non allineata alla oramai barcollante egemonia Usa siano delle isole di libertà o modelli da imitare. Ma il pluralismo di esperienze aiuta ad avere una prospettiva meno soffocante. Alla fin fine tanto sul piano teorico quanto sulla sua declinazione sociale le AI sono legate alla visione occidentale, e le altre tecnologie che si sono diffuse nel mondo non hanno reso tutti gli essere umani americani o europei. Chiaramente una rivolta dal basso nei paesi nei paesi euroatlantici sarebbe l’opzione più auspicabile, ma se la resistenza oggi è nel migliore dei casi la conservazione di nicchie, resta la prospettiva di un mondo troppo vasto e complesso per essere costretto da una suprema reductio ad unum tecnocratica. Anche considerando che paesi, assai meno ricchi e avanzati di Usa e Ue, mostrano di non poter essere assimilati con facilità; come la Russia che è in guerra quasi aperta col blocco euroatlantico, e non pare cavarsela così male

Di L.M.

Appassionato sin da giovanissimo di geopolitica, è attivo nei movimenti studenteschi degli anni novanta. Militante del Prc, ha ricoperto cariche amministrative nel comune di Casteldelci e nella C.M. Alta Valmarecchia. Nel 2011 crea il blog Ancora fischia il vento.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

My Agile Privacy
Questo sito utilizza cookie tecnici e di profilazione. Cliccando su accetta si autorizzano tutti i cookie di profilazione. Cliccando su rifiuta o la X si rifiutano tutti i cookie di profilazione. Cliccando su personalizza è possibile selezionare quali cookie di profilazione attivare.
Attenzione: alcune funzionalità di questa pagina potrebbero essere bloccate a seguito delle tue scelte privacy: