IA “Etica” oppure Etica della IA? Quali valori, quali regole, quali limiti

   Invia l'articolo in formato PDF   
image_pdfimage_print

di Rodolfo Marchisio

Ha senso parlare di IA in generale?

  • In realtà si tratta di diverse applicazioni in campi molto diversi e con finalità diverse. Cosa le accomuna? “L’intelligenza artificiale è un nome che descrive un modo di fare software. In particolare, è un modo di fare software nuovo, che consente di affrontare nuovi problemi e creare nuove applicazioni sostiene Quintarelli [1] Le possibili applicazioni, i campi e gli obiettivi possono essere allora molto diversi. Alcuni già esistenti altri in via di sviluppo.
  • Ci sono molti modi di intenderla e praticarla: in questo periodo si parla molto di IA Generativa (più legata allo sviluppo di chat “intelligenti” in grado di imparare ed agli sviluppi ed usi linguistici o mediatici), di IA “etica”, di IA “spiegabile”, ma anche di “IA noiosa” …
  • Ma anche sono diversi i modi di pensarla e di raccontarla. Si va dal catastrofismo al trionfalismo (talora ingenuo o magari interessato), alle strane  utopie dei miliardari, alla necessità di dare regole e porre limiti. Ma l’IA esiste già nella indifferenza generale (nei motori di ricerca ed in molte applicazioni); e poi c’è quella noiosa già esistente nei settori della agricoltura ad esempio di cui nessuno parla.[2]
  • Tutti parlano invece di IA, ma in modo generico e spesso divergente, concentrandosi su aspetti o problemi diversi. Certamente oggi la “parola dell’anno” è esplosa come fenomeno di moda e come operazione di marketing insieme e, se uno vale uno, tutti si sentono autorizzati a dire o teorizzare la loro opinione ed il loro (spesso interessato o poco informato) punto di vista.
  • È importante invece distinguere alcune figure con ruoli, interessi, responsabilità diverse.

I “padroni” che sono pochi ricchi e potenti; gli esperti, che non vuol dire chi ha una laurea o una cattedra, ma chi ci lavora, chi ci riflette e anche chi si informa; poi i politici e i decisori e soprattutto (anche se non è più di moda) i cittadini che vivono e vivranno, in vario modo, le conseguenze di quello che altri decidono e realizzano.

Ha senso parlare di IA “etica”?

  • Allora ha senso parlare di IA “Etica” intesa come responsabile, che si dà o rispetta delle regole o è meglio parlare di Etica della IA?
    Chi deve essere “etico” cioè rispettare vincoli e regole? La tecnologia, il programma, chi lo progetta e finanzia per guadagnarci o per potere, per controllare altri violando diritti?
    Aldilà del catastrofismo e delle paure o dell’euforia che accompagnano ogni “rivoluzione tecnologica” si è posto in vari modi il problema di tutelare diritti, stabilire regole (“paletti”), di stabilire a protezione dei diritti dei cittadini delle regole, dei limiti, in modo diverso.Quali sono questi problemi? Anche Quintarelli ne elenca alcuni: “L’uso dell’intelligenza artificiale a fini anti-competitivi, la creazione di posizioni di monopolio, lo sfruttamento del lavoro delle persone, la discriminazione. Quando si dice che l’umanità rischia l’estinzione a causa dell’AI, sono baggianate (dice lui)mentre può preoccupare l’utilizzo dell’AI negli armamenti: certamente se facciamo armi autonome, anche in conseguenza del fatto che sappiamo che l’AI sbaglia, possiamo attenderci esiti nefasti. Ma di nuovo, il problema non è l’AI ma l’uso che ne facciamo noi… Quindi queste grandi visioni su ipotetici grandi temi e grandi problemi mascherano problemi attuali concreti che sono importanti, appunto, come lo sfruttamento del lavoro delle persone, la creazione di rendite di monopolio, lo sfruttamento del lavoro altrui”. Tra l’altro.
  • Un altro problema che si è posto nel dibattito da parte delle stesse imprese che la propongono è l’IA che crea Fake in periodo di elezioni, In teoria molte aziende e social si impegnano (?) a non diffondere fake su candidati e partiti. Forse la prima elezione “dopata” di Trump ha indotto a riflettere. Vedremo chi mantiene la parola.

Esiste una etica globale?

Un problema fondamentale che esiste da sempre e che è già emerso col web ed il suo sviluppo, globale e oligopolistico insieme, è che l’etica, come mediazione sui valori/interessi/diritti in un dato paese (o zona del mondo) è un fatto relativo dal punto di vista geografico e storico. Come i valori e diritti stessi (N. Bobbio) che si devono conquistare, ma che si possono perdere in tutto o in parte, l’etica è relativa nel tempo e diversa nelle varie parti, culture e nei vari paesi o regimi del mondo.[3]
Basta confrontare le posizioni in merito che emergono in paesi con culture diverse:
UE (AI Act); USA a livello normativo o come autodeterminazione a livello globale degli stessi promotori della IA; oppure in Cina ad esempio, dove i valori, le regole, il rispetto dei diritti che sono appunto relativi dal punto di vista storico, geografico, politico sono diversi.[4]

L’UE prima ancora dell’atto sulla IA aveva indicato come requisiti da rispettare:
1- Supervisione umana
2- Robustezza e sicurezza
3- Privacy
4- Trasparenza
5- Assenza di discriminazioni
6- Benessere sociale ed ambientale
7- Responsabilità contro impatti negativi

Un altro atto era stato la Carta etica europea per l’uso dell’IA nei sistemi giudiziari (2018): principi di rispetto dei diritti fondamentali, di non-discriminazione, di qualità e sicurezza, di trasparenza, imparzialità, equità e di controllo da parte dell’utilizzatore.

Anche in Italia l’Agenzia per l’Italia digitale ha prodotto un libro bianco legato soprattutto a criteri d’uso nella pubblica amministrazione, dove si parla di problema etico, sfida tecnologica, competenze necessarie, problema dei dati e problemi legali e del coinvolgimento degli utenti, perché il principio di fondo è che l’Intelligenza Artificiale debba servire soprattutto per affiancare le persone e aiutarle a svolgere le loro attività, ma non per sostituirle. [5]

In USA in assenza di una regolamentazione pubblica, sono emerse enunciazione di principi da parte di privati, come Google [6] ed altri, basati però sulla volontà dei responsabili e senza un controllo pubblico. Che è un dato significativo di un modo di pensare in cui la libertà individuale (dalla espressione alla iniziativa economica) sono i punti di riferimento più forti.

La Cina (2019) ha pubblicato [7], dopo una ricerca tutta interna, un elenco di principi: essere vantaggiosa, al servizio della umanità, responsabile, controllare i rischi, progettazione etica, riflettere sulla diversità e sulla inclusività, incoraggiare la condivisione aperta.
Puntare a ottimizzare l’occupazione, l’armonia e la cooperazione, l’adattamento e la moderazione, il perfezionamento, l’implementazione, la pianificazione a lungo termine.

Ma aldilà delle belle parole sappiamo come funzionano già le attuali implementazioni della IA in Cina e come vengano usate spesso a danno dei diritti e delle libertà dei cittadini, dando priorità al potere politico attuale ed alla espansione economica.

Perché questa panoramica, magari un po’noiosa?

Paesi con storie, esperienze e quindi culture diverse possono usare le stesse parole come paravento o per indicare atteggiamenti diversi.
Ricordo uno scrittore arabo che mi aveva fatto riflettere sul fatto che per noi europei “giustizia” era intesa come giustizia sociale, rispetto dei diritti, in relazione alla nostra storia e quindi alla nostra cultura. Nella loro cultura era storicamente legata a “rispetto della legge”. Per cui il dialogo sui diritti umani era difficile.

Cosa c’entra allora la scuola, anello debole della catena sociale?

In questa complessità continuo a domandarmi in che modo la IA “debba” essere introdotta nella scuola, essendo intreccio complesso a causa della globalizzazione che non è dialogo tra culture se non sulle mode e con finalità diverse.  A meno di spiegare tutte queste cose e limitarsi a cosa si può fare con

[1] https://www.wired.it/article/intelligenza-artificiale-noiosa-quintarelli/
[2] ibidem
[3] https://www.einaudi.it/catalogo-libri/scienze-sociali/politica/leta-dei-diritti-norberto-bobbio-9788806223434/
[4] Sull’AI Act vedi anche https://www.gessetticolorati.it/dibattito/2024/02/06/giornata-della-sicurezza-in-rete-difendersi-dalla-privatizzazione-del-web-e-dalla-ia-non-controllata/
[5] Per una sintesi https://libro-bianco-ia.readthedocs.io/it/latest/doc/sintesi.html
[6] AI at Google: our principles, su Google, 7 giugno 2018.
[7] Intelligenza artificiale, pubblicati gli standard etici da non oltrepassare, su Cina in Italia, 26 maggio 2019