In evidenza
Sezioni
Magazine
Annunci
Quotidiani GNN
Comuni

Per scoprire l’analisi delle emozioni non bisognava aspettare l’AI, bastava una serie TV

Per scoprire l’analisi delle emozioni non bisognava aspettare l’AI, bastava una serie TV
(reuters)
4 minuti di lettura

Con un riflesso pavloviano, ogni volta che un software riesce a scimmiottare capacità umane parte l’allarme innescato dalla sindrome di Frankenstein, la,  paura che la “creatura” si ribelli contro il suo “pardone”e l’invocazione, manco a dirlo, interventi di legislatori, garanti (non ultimo, ovviamente, quello sulla protezione dei dati personali) e altre divinità più o meno laiche appartenti a Pantheon di varia estrazione.

L’ultimo grido, in materia di Sindrome di Frankenstein, è quella che stata definita “analisi delle emozioni” associata all’altro grande feticcio-taboo dei nostri tempi, il riconoscimento facciale, il tutto ovviamente posto in essere da una minacciosa “intelligenza artificiale”.

Non serve essere un ricercatore di neuroscienze o uno psicologo, basta avere frequentato uno dei tanti corsi di “comunicazione efficace” od “gestione della negoziazione” per sapere che esistono discipline, come la “Programmazione Neuro Linguistica” che sono basate sulla “lettura” dei segnali del corpo o, per dirla con termini che piaciono agli “allarmisti”, sull’analisi di dati biometrici che rivelano tratti caratteriali, o comportamentali. Tecniche del genere si utilizzano anche in alcune forme di psicoterapia breve, di coaching e anche di allenamento sportivo.

Allo stesso modo, non serve essere specializzato in criminologia, basta avere visto una puntata di Lie to me, per sapere che l’analisi delle microespressioni, anche questa basata sulla raccolta di dati bio e antropometrici, viene utilizzata, pur con qualche scetticismo, nelle attività di polizia di svariati Paesi, Stati Uniti in testa. Che tutto questo sia scienza, parascienza o pseudoscienza è un altro discorso. Dovremmo infatti domandarci se noi “moderni” siamo veramente tanto diversi da quelli durante la Peste Antonina davano ascolto alle ciarlatanerie di Alessandro di Abonutico.

Non c’è nulla di cui stupirsi, o scandalizzarsi, dunque, se i ricercatori che si occupano di queste discipline stanno compiendo l’inevitabile passo successivo che è quello di automatizzare raccolta, analisi e riconoscimento dei dati di interesse —le emozioni, in questo caso specifico.

Sia come sia, è fuori discussione che l’analisi di microespressioni, insieme al riconoscimento facciale che identifica anche tratti etnici e somatici, siano elementi necessari alla gestione della sicurezza, alla prevenzione dei reati e all’individuazione, possibilmente in tempo reale, dei sospettati. Tanto è vero questo che persino la UE, si, “quella del GDPR”, nel ha avviato una sperimentazione chiamata iBorderCtrl del cui esito, peraltro, non si sa granché fortemente orientata all’uso di tecnologie di riconoscimento facciale per finalità di sicurezza.

C’è poco di scandaloso o di “politicamente scorretto” in tutto questo: chi chiama i numeri di emergenza o presenta una querela, cerca di fornire all’operatore tutto quello che può essere utile a identificare la minaccia o il presunto responsabile, e dunque: abbigliamento, altezza, peso, colore degli occhi, “colore”, sesso e via discorrendo. Provate, allora, a immaginare una chiamata al 112 o una denuncia di questo tenore: “il/la sospettato/a è più o meno alto/a, più o meno con capelli più o meno chiari, più o meno lunghi, di apparenza più/o meno euro/afro/asiatica, vestito con pantaloni/tunica/gonna” e poi domandatevi cosa se ne fanno le Volanti o le Gazzelle che devono intervenire, o il pubblico ministero che deve indagare.

Ora, e chiaro che queste considerazioni non significano che la sorveglianza di massa debba essere priva di controlli, ma soltanto che i controlli dovrebbero riguardare il “come” e il “chi controlla”, non il “se”.

L’utilizzo di strumenti automatizzati più o meno “intelligenti” nelle indagini di polizia e nelle attività di pubblica sicurezza non è futuribile ma realtà. Le analisi dell’enorme quantità di dati acquisiti in indagini internazionali come quelle di Encrochat e Sky ECC pongono chiaramente problemi del genere, che si traducono innanzi tutto in termini di rispetto del diritto di difesa. Chi e come ha acquisito i dati? Con quali sistemi sono stati esaminati? Quali garanzie ci sono che i risultati siano attendibili? Perché, anche se la Cassazione italiana ha timidamente avanzato qualche dubbio sul punto, queste informazioni non possono essere diffuse ai difensori?

È anche abbastanza ingenuo lamentarsi del fatto che informazioni personali vengano raccolte e memorizzate nei sistemi informativi di pubblica sicurezza. Il database dei “precedenti di polizia”, le “Pratiche permanenti” dell’Arma dei Carabinieri delle quali si occupò Repubblica nel 2000 e poi nel 2001, sostanzialmente con un nulla di fatto, il Garante dei dati personali, e, prima ancora, il “Casellario politico centrale”, consultabile sul sito del Ministero dei beni culutrali, sono la dimostrazione che l’attività informativa ha necessità di strumenti di analisi che consentano di estrarre “senso” da informazioni che, da sole, sono prive di qualsiasi utilità. Se fosse possibile interconnettere efficacemente anche soltanto i database del sistema giustizia (registro generale civile e penale, carichi pendenti, casellario giudiziale, precedenti di polizia, SDI e via discorrendo) ed estrarre “senso” da quelle informazioni, le capacità di prevenzione, indagine e repressione di reati aumenterebbero notevolmente.

Questa, tuttavia, sarebbe una scelta innanzi tutto politica e non tecnica.

Il rischio insito nell’attribuzione automatica di senso a questi dati è che gli operatori si affidino pigramente ai risultati forniti dal software o che non abbiamo la capacità di capire che cosa significano. È un pericolo più che concreto quando, come detto, la mole di informazioni da mettere a sistema non è gestibile da un essere umano. Dall’altro lato, bisogna chiedersi come verrebbe garantito il diritto dell’indagato, cioè potenzialmente chiunque di noi, di fronte a indagini che per essere vagliate hanno bisogno di periti di parte costosi e, cosa non semplice, competenti. Infine, ci sarebbe da interrogarsi sul grado di effettiva libertà del giudice nel pronunciare una sentenza che, inevitabilmente, sarà condizionata dalla sua ignoranza delle “tecnicalità” sulla base delle quale sono state formate le prove.

Di fronte a questi problemi, trascurati o trattati con fastidio dai sostenitori a tutti i costi della “giustizia predittiva”, l’allarme sulle microespressioni e sull’analisi emotiva diventa una questione francamente marginale.

Come sempre, quando c’è di mezzo la tecnologia dell’informazione, si guarda il dito e non si prende nemmeno in considerazione l’ipotesi che ci possa essere una luna e quale. In questo caso, infatti, l’automazione dell’analisi emotiva porta necessariamente “in chiaro” il fatto che è stata utilizzata e quindi, pur con i limiti di cui sopra, è possibile analizzarne e contestarne l’impiego. Al contrario, quando tecniche del genere sono applicate direttamente dall’inquisitore, sia esso un magistrato o un funzionario di polizia, è impossibile, a meno di non conoscerle, rendersi conto di quello che sta accadendo. Dunque, anche se formalmente, è obbligatorio dare atto nei verbali di interrogatorio che non sono stati utilizzati metodi o tecniche dirette a influire sulla libetà di autodeterminazione o alterare la capacità di ricordare e di valutare fatti, nella pratica sarebbe molto complesso dimostrare il contrario quando chi fa le domande ricorre, ipoteticamente, a questi espedienti.

Ma se questo è il punto, allora il vero problema non è l’uso di un programma (o del famigerato “algoritmo”), ma l’attribuzione chiara della responsabilità di una scelta che incide sulla libertà delle persone. La ipnotica fascinazione macchinistica che spinge a parlare di “diritti dell’IA” e di “legal personhood” per i robot è un mantra ipocrita ripetuto all’infinito per assolvere chi deve prendere una decisione dalle conseguenze dell’esercizio del potere che gli è conferito. E questo non vale soltanto per Carol “computer-says-no” Beer, l’archetipico personaggio di Little Britain.