Quando sentiamo le parole “Intelligenza Artificiale” (o IA), il più delle volte la nostra immaginazione si posa sullo stereotipo hollywoodiano di Terminator. Ma l’IA che sta cambiando le nostre vite è ben più subdola, pervasiva e pericolosa. Prevalentemente invisibile, penetra silenziosamente nel tessuto stesso della nostra società, nel nostro modo di fare affari, di creare e alimentare amicizie; influenza durevolmente la nostra percezione del mondo, spingendoci verso determinati acquisti, film, canzoni o relazioni sentimentali. In molti casi, rafforza e perpetua pregiudizi storicamente razzisti, o su questioni di genere e orientamento sessuale.
La quintessenza dell’Intelligenza Artificiale è l’abilità di “apprendere grazie all’esperienza”, un’idea introdotta dal matematico Alan Turing nel 1947. Un sistema di IA viene progettato per svolgere un preciso compito, ma non viene istruito su come raggiungere l’obiettivo assegnato da chi lo ha programmato: impara dagli esempi da noi forniti, siano essi generati per mano umana o dalla macchina stessa.
Questo approccio si è rivelato di enorme successo, specie nel campo del riconoscimento delle immagini. Disponiamo, oggi, di sistemi di apprendimento automatici che riconoscono qualsivoglia oggetto, volto, grafia o istruzione vocale, e di sistemi di raccomandazione che guidano ogni nostra decisione quotidiana. I proponenti dell’IA sostengono di offrire uno strumento che si eleva al di sopra della fallacia, dell’inconsistenza, dell’ignoranza, della pigrizia e dei pregiudizi umani. Un computer non ha pregiudizi, non fa favoritismi, non si annoia e non porta rancore. Ma vi sono questioni che non possono essere ignorate.
Gran parte dei dati su cui gli algoritmi di IA basano il loro apprendimento sono ricavati dall’Internet, il che significa che i risultanti sistemi ereditano qualsiasi pregiudizio ivi contenuto, come ad esempio quelli razzisti o di genere. Nel momento in cui simili disparità vengono incorporate nel sistema, l’algoritmo, apparentemente “oggettivo”, non farà che rafforzarle e anzi moltiplicarle nel tempo. Quello che viene spesso presentato come un sistema al di sopra dell’umana fallibilità diventa così un modo per automatizzare e mascherare - tra i miliardi di pesi neurali accuratamente ottimizzati - quella stessa fallibilità, spesso in modi più difficili da rilevare in quanto meramente statistici, ma che producono danni reali a persone reali.

Un’ulteriore questione è: quale obiettivo bisogna fornire all’algoritmo? Dal punto di vista matematico, le diverse definizioni di ciò che è “giusto” sono incompatibili: possiamo essere giusti nei confronti delle singole persone, dei gruppi, delle categorie, ma non per tutti contemporaneamente. Persino stabilire la funzione di perdita (che definisce matematicamente l’obiettivo del sistema) è un compito che richiede una scelta morale, e non meramente tecnica.
Con le parole del pioniere dell’Intelligenza Artificiale Joseph Weizenbaum, uno scienziato informatico del MIT che nel 1966 creò un precursore dell’attuale chatbot e che in seguito divenne un critico dell’IA:
Le questioni di rilievo non sono né tecnologiche né matematiche; sono etiche. […] Ciò che emerge come intuizione elementare è che, poiché non disponiamo di alcun modo per rendere saggi i computer, non dovremmo assegnar loro compiti che richiedano l’impiego della saggezza.
Un terzo nucleo di questioni emerse con la diffusione dell’Intelligenza Artificiale riguarda il potere, la responsabilità e la trasparenza. I risultati delle ricerche online e i feed dei social media, personalizzati in base ai nostri interessi e profili individuali, creano una bolla che polarizza le opinioni - senza alcun controllo democratico o istituzionale, come ha dimostrato lo scandalo di Cambridge Analytica nel 2018. I contenuti più estremi sono in genere privilegiati dagli algoritmi dei feed per massimizzare il tempo di visione degli utenti, la vera moneta dell'era digitale: i nostri occhi sullo schermo. Sarebbe sconsiderato lasciare alle mega-aziende del web le decisioni su questioni come il processo democratico e il benessere mentale dei nostri figli, ma è in effetti ciò che sta accadendo. Stiamo accettando, spesso senza rendercene conto, di vivere in un mondo moderatamente distopico.
Così come la scissione dell’atomo ci ha conferito allo stesso tempo energia pulita e un immenso potere distruttivo, le macchine pensanti di Turing hanno il potenziale per aiutarci a creare una società più equa e prospera, ma anche per amplificare le attuali diseguaglianze in termini di benessere e potere, creando un mondo in cui, come sonnambuli, calpestiamo la libertà e l’agire umani. Un mondo di automi, in cui i bambini imparano a fare swipe prima di iniziare a camminare, e sono in grado di riconoscere centinaia di icone sullo schermo ma non un singolo albero.
Mentre l’Intelligenza Artificiale rivoluziona la nostra società, ridefinendo rapidamente i parametri essenziali dell’essere umani, ci ritroviamo in una congiuntura storica ove brancoliamo oltre i limiti materiali dello sfruttamento del pianeta. Dopo la foresta pluviale, per la maggior parte perduta, dopo gli oceani, subissati dalla plastica, dopo i poli che si sciolgono di estate in estate, dopo i cieli notturni affollati da satelliti artificiali, l’Homo Sapiens sta rivolgendo i suoi intenti estrattivi verso l’essenza stessa dell’umanità. Le decisioni che prendiamo oggi stabiliranno se il lascito di Turing sia un dono per l’umanità – come non se ne vedevano dai tempi in cui Prometeo rubò il fuoco agli dei – o un irresistibile frutto avvelenato.
Roberto Trotta, docente di Astrostatistica affiliato all'Imperial College London e alla SISSA di Trieste, è tra i relatori di Biennale Tecnologia: parteciperà a un dialogo con la filosofa Viola Schiaffonati, intitolato "Dal Big Bang all'Intelligenza Artificiale", sabato 12 novembre alle 11, presso l'Aula 6 del Politecnico di Torino.