In evidenza
Sezioni
Magazine
Annunci
Quotidiani GNN
Comuni

Il dibattito sballato sulla legge per l’IA

Il dibattito sballato sulla legge per l’IA
2 minuti di lettura

Il Blueprint for an AI Bill of Rights americano e l’annuncio della nuova bozza del regolamento europeo in materia riportano all’attenzione del pubblico il dibattito su come regolare questa tecnologia ed evidenziano la coazione a ripetere un errore concettuale: regolare il “come” e non il “cosa”.

Per capirci: il codice penale punisce l’omicidio a prescindere da come viene commesso. C’è un solo articolo basato sul concetto che chiunque cagiona la morte di un uomo è punito. Non c’è un articolo per l’omicidio con il coltello, uno per l’omicidio con la pistola, il veleno o qualsiasi altro “come” consente di realizzare il “cosa”. Anche senza essere professori ordinari di diritto o giudici della Corte costituzionale si comprende facilmente il perché di questa scelta: ciò che conta sono gli effetti di un comportamento umano. Tutto il resto riguarda l’attribuzione della responsabilità o la gravità della pena, ma la sostanza è punire la conseguenza concreta di un’azione che può essere compiuta in tanti modi.

Lo stesso criterio vale per la responsabilità civile, quella che disciplina il risarcimento dei danni. Il codice civile all’articolo 2043 in modo semplice e chiaro, stabilisce che  Qualunque fatto doloso o colposo, che cagiona  ad  altri  un  danno ingiusto, obbliga colui che ha  commesso  il  fatto  a  risarcire  il danno. Applicando lo stesso ragionamento fatto per l’omicidio, poco importa che una persona abbia subito un danno perché un software ha funzionato male o è stato mal progettato —questo, infatti, riguarda il “come”— perché una volta verificatosi il danno - il “cosa” - esso va risarcito senza se e senza ma.

Dunque, invece di stabilire che il software non è come la Divina Commedia (cioè un’opera “creativa”) ma è un prodotto e che, dunque, si applicano le norme sulla responsabilità civile e penale di chi lo realizza, il legislatore comunitario si avventura in improbabili e impossibili distinguo su come dovrebbe funzionare e come dovrebbe essere progettata una tecnologia.

Con l’IA (ma in realtà con tanti altri fenomeni che riguardano le tecnologie dell’informazione) questo errore concettuale si ripete. Il regolamento UE sull’intelligenza artificiale, in particolare, continua a mostrare un approccio iperdirigista in base al quale, se continua così, l’Unione pretenderà di stabilire per legge il modo in cui gli elettroni ruotano attorno al nucleo di un atomo, oppure stabilirà a che velocità deve andare la luce (con tanto di sanzione per il superamento del limite). È chiaro che decisioni del genere vengono assunte in base al palese errore concettuale di antopormofizzare un oggetto per poi pretendere, di conseguenza, di poterlo regolare direttamente come fosse un soggetto di diritto.

Parlare di “trasparenza algoritmica” o paventare la “minaccia tecnologica” è un modo per spostare l’attenzione dalle persone alle cose e dunque di deresponsabilizzare gli unici soggetti che dovrebbero, invece, subire le conseguenze di errori e —più spesso— di scelte deliberate: coloro che queste tecnologie le progettano, realizzano e vendono.

Il tema della responsabilità del produttore di software è tanto enorme quanto sistematicamente trascurato. Fino a quando chi costruisce programmi e piattaforme sarà sostanzialmente al riparo da qualsiasi responsabilità per i danni causati da programmi mal scritti o venduti quando non hanno ancora raggiunto un livello di sicurezza accettabile, non sarà possibile avere un reale incremento della sicurezza complessiva del nostro distopico “ecosistema” tecnologico.

In conclusione, quindi, non solo per l’AI il modo migliore per garantire la tutela dei diritti e la sicurezza del “sistema” è applicare anche ai produttori di software la regola aurea del “chi sbaglia, paga” invece di vagheggiare fantasiose “regole” per l’intelligenza artificiale che, in realtà, è soltanto un pezzo di codice.

Applicare un principio di buon senso come questo, però, incontrerebbe le fortissime resistenze del potente comparto industriale Big Tech e - controintuitivamente e per ragioni diverse - anche di chi sviluppa software non  essendo un colosso del settore. Molto meglio, quindi, non svegliare il cane che dorme e lasciare che sia la coda ad agitarlo.