IA e scuola. Intelligenza, apprendimento, relazione, linguaggio, valutazione

di Rodolfo Marchisio

Mentre continua il marketing e l’offerta di corsi, libri, incontri sull’uso della IA nella scuola, per fortuna più alle superiori, ma sta arrivando, perché è la moda dell’anno, lasciano perplesse le modalità di questa iniezione di tecnologia, teoricamente avanzata, ma sempre in corso di approfondimento e discussione tra gli esperti; anche presunti. Dite un nome di uno che si occupi o si sia occupato della scuola e verificate se non ha già detto la sua.
Negli USA la sperimentazione nelle scuole pone diversi interrogativi simili a quelli del nostro PNRR.

Uso contro cultura.

Il problema di partenza è la modalità con cui viene proposta alla scuola. Come ogni tecnologia, insegnando (a docenti ed allievi) ad usare. Cosa fa e come si usa. Non cosa ci sta dietro, quali conseguenze può avere su di noi e sui nostri allievi, come stiamo cambiando nella relazione con le tecnologie.  Domande che ci dovremmo porre per capire.
Questo per un difetto congenito nel rapporto tecnologia/scuola e per una mancanza di chiarezza da parte delle Istituzioni. Sembra che nella vita dei nostri allievi sarà più importante saper usare che capire un po’ di più le tecnologie che già usano e che useranno sempre più. E che li stanno cambiando.

Competenza digitale. Una delle competenze chiave per l’apprendimento permanente

La competenza digitale implica l’uso sicuro, critico e responsabile delle tecnologie digitali e il loro impiego nell’apprendimento, nel lavoro e nella partecipazione alla società̀. Comprende l’alfabetizzazione all’informazione e ai dati, la comunicazione e la collaborazione, l’alfabetizzazione ai media, la creazione di contenuti digitali (compresa la programmazione), la sicurezza (compreso il benessere digitale e le competenze relative alla sicurezza informatica), le questioni relative alla proprietà̀ intellettuale, la risoluzione di problemi e il pensiero critico.” [1]
 
“L’intelligenza artificiale generativa può rappresentare un’enorme opportunità per lo sviluppo umano, ma può anche causare danni e pregiudizi – afferma Audrey Azoulay dell’Unesco – Non può essere integrata nell’istruzione senza l’impegno pubblico e le necessarie garanzie e normative da parte dei governi”. “I programmi di intelligenza artificiale generativa sono esplosi con ChatGpt che ha dimostrato la capacità di generare saggi, poesie e conversazioni con input e suggerimenti anche brevi. Molti però si sono posti fin da subito dubbi molto radicali”.
In una nuova guida per i governi l’organismo educativo delle Nazioni Unite avverte che “le autorità pubbliche non sono pronte ad affrontare le questioni etiche legate all’introduzione di programmi di IA nelle aule”. ANSA
Diciamo che sia l’IA che la sua utilità ed i suoi rapporti, specie con l’apprendimento e la formazione, sono complessi.

E i docenti?

Aggiunge l’esperta: “Anche se il 90% delle scuole ha attivato percorsi di formazione ai docenti per l’utilizzo degli strumenti digitali, nella gran parte delle scuole almeno la metà dei docenti non si sente a proprio agio nell’utilizzo delle nuove tecnologie. È un segnale di come oggi la formazione del personale scolastico sia poco efficace.”

 I A e I. Umana

Abbiamo già ricordato che esistono più di 50 definizioni di intelligenza umana e sviluppi diversi di Intelligenze Artificiali.
“Sebbene gli agenti di IA siano in grado di ragionare su problemi molto complessi, non pensano nel modo in cui lo fa l’uomo[2]. L’intelligenza artificiale può avere impatti sia positivi che negativi sulla società. Le tecnologie di IA stanno cambiando il modo in cui noi lavoriamo, viaggiamo, comunichiamo e ci prendiamo cura gli uni degli altri. Tuttavia, dobbiamo essere consapevoli dei danni che possono potenzialmente verificarsi. Per esempio, i pregiudizi nei dati utilizzati per addestrare un sistema di IA potrebbero portare alcune persone ad essere trattate in modo peggiore rispetto ad altre. Perciò, è importante discutere degli impatti che l’IA sta generando nella nostra società e sviluppare criteri per il design etico e per la diffusione dei sistemi basati sull’IA.” AI4K12.org[3]

Per fare cosa

Un difetto della scuola italiana, voluto dai ministri che l’hanno “governata”, è quello di attribuire proprietà taumaturgiche alle tecnologie, per non analizzare ed affrontare i problemi che la scuola evidenzia (dalla disoccupazione – Buona scuola – alla IA). Dalla dispersione scolastica alle prove Invalsi: sono sempre di più, gli strumenti di AI al servizio di docenti e studenti. Ma c’è bisogno di più cultura sul tema, dice Chiara Panciroli. Prima di usarli, prima addirittura di ipotizzare per cosa usarli, bisogna anzitutto conoscere questi strumenti. Capire come funzionano, quali sono le loro potenzialità e (soprattutto) quali sono i loro limiti. Ma anche evitare di considerarli una scatola nera che processa chissà come un input e restituisce un certo output.

Quali tipi di relazioni

  • La relazione che si instaura con forme di IA è non solo di tipo razionale è anche emotiva.
  • L’intelligenza non è di un tipo solo (Gardner) e non è solo di tipo logico deduttivo (Penge).
  • È fortemente intrecciata con l’ambiente, la sfera emotiva, le relazioni (Penge, Goleman)
  • L’insieme di relazioni e di ambienti in cui viviamo è più complessa di come viene presentata. Non è solo un algoritmo, è un cambiamento nella nostra vita che dovremmo capire meglio.
  • Occorre riflettere sul rapporto Intelligenza – apprendimento, perché sinora gli strumenti di IA cercano di imitare l’intelligenza umana soprattutto dal punto di vista logico-deduttivo e non sono (ancora?) in grado di riprodurre la complessità delle dinamiche di apprendimento o rischiano di renderlo algoritmico, impoverendolo. Possono leggere Gardner e Goleman ma non sono in grado di funzionare con gli allievi in modo conseguente.
    Come alcuni di noi.
  • Allora più spesso vengono proposte per colmare lacune cognitive, anche attraverso materiali didattici, oppure per valutare, ma dubito che capirebbero la complessità del dibattito sulla valutazione formativa e sulle conseguenze della scelta tra i due tipi di valutazione. Con buona pace del Ministro Valditara.
  • Quasi tutti gli esperti pongono attenzione a problemi come la privacy, la sicurezza e soprattutto il controllo. Chi è in grado a scuola di controllare e correggere eventuali errori di un programma di IA quando gli oligopoli che la producono si stanno preoccupando loro di come faranno a controllarla quando sarà più intelligente di noi?
    Problemi di scelte ed “etici”? Problemi di formazione, cultura e cittadinanza.

Quali relazioni. Un esempio. Perché siamo gentili con ChatGPT?[4]

Quali sono le conseguenze della costante interazione con le intelligenze artificiali sul nostro modo di comunicare? Si inizia a fare luce sulla cortesia verso le chatbot e non solo.

“Ciao ChatGPT, per favore potresti fare una cosa per me?”. “Ogni volta che mi interfaccio con il Large language model di OpenAI per sbrigare qualche faccenda di lavoro… mi viene istintivamente, senza pensarci, da essere gentile con lui (nella mia mente, ChatGPT è di genere maschile)”. Wired, Signorelli.
Secondo un sondaggio informale su X circa il 70% delle persone trova almeno “abbastanza difficile” essere maleducati con ChatGPT, mentre solo il 16% lo trova “abbastanza facile” (il restante 14% non lo utilizza). Ibidem.

 Spiegazione ironico-emotiva
“Visto che un giorno diventeranno coscienti e si trasformeranno nei nostri padroni, spero che le intelligenze artificiali si ricorderanno di chi è stato gentile con loro.

Spiegazione tecnica
Ci sono parecchi studi che confermano come trattare bene ChatGPT e i suoi simili – dirgli di “fare pure con calma” o addirittura di “pensare bene” prima di dare una risposta – permetta di ottenere risultati migliori (la spiegazione di questo strano fenomeno, che potete trovare qui, è purtroppo esclusivamente tecnica).

Il giornalista tecnologico David Futrelle sul suo blog, riportando anche il parere della ricercatrice Jenna Burrell, sottolinea che “è molto più salutare pensare a essi come a degli strumenti che come a persone”. Notiamo anche che spesso tendiamo ad “umanizzare” tecnologie quando sono diverse da noi (chi dà un nome all’auto o al robottino che spazza e parla loro), ma forse lo saremo meno quando saranno umanoidi. Timore della competizione? Wired.
“Come già sta avvenendo in parecchi altri campi, l’impressione è insomma che non siamo noi che stiamo insegnando alle intelligenze artificiali a parlare o scrivere come esseri umani. Sono loro che stanno addestrando noi a comunicare come delle macchine.” Signorelli, Wired.

Conclusione

Non siamo andati fuori tema. Vogliamo dire che la relazione che instauriamo con le tecnologie che ci servono ci modificano anche, sono molto varie e riguardano la sfera razionale e cognitiva, ma anche quella dei rapporti, delle emozioni, del linguaggio e delle scelte come cittadini.
Questo dovrebbe indagare la ricerca ed a questo dovrebbe formare la scuola. Prima di tutto.

[1] (Council Recommendation on Key Competences for Life-long Learning – Raccomandazione del Consiglio sulle competenze chiave per l’apprendimento permanente, 22 maggio 2018)
[2] Cosa sulla quale gli esperti non hanno le idee chiare e posizioni coerenti
[3] https://ai4k12.org/
[4] https://www.wired.it/article/chatgpt-chatbot-buone-maniere/

 




IA “Etica” oppure Etica della IA? Quali valori, quali regole, quali limiti

di Rodolfo Marchisio

Ha senso parlare di IA in generale?

  • In realtà si tratta di diverse applicazioni in campi molto diversi e con finalità diverse. Cosa le accomuna? “L’intelligenza artificiale è un nome che descrive un modo di fare software. In particolare, è un modo di fare software nuovo, che consente di affrontare nuovi problemi e creare nuove applicazioni sostiene Quintarelli [1] Le possibili applicazioni, i campi e gli obiettivi possono essere allora molto diversi. Alcuni già esistenti altri in via di sviluppo.
  • Ci sono molti modi di intenderla e praticarla: in questo periodo si parla molto di IA Generativa (più legata allo sviluppo di chat “intelligenti” in grado di imparare ed agli sviluppi ed usi linguistici o mediatici), di IA “etica”, di IA “spiegabile”, ma anche di “IA noiosa” …
  • Ma anche sono diversi i modi di pensarla e di raccontarla. Si va dal catastrofismo al trionfalismo (talora ingenuo o magari interessato), alle strane  utopie dei miliardari, alla necessità di dare regole e porre limiti. Ma l’IA esiste già nella indifferenza generale (nei motori di ricerca ed in molte applicazioni); e poi c’è quella noiosa già esistente nei settori della agricoltura ad esempio di cui nessuno parla.[2]
  • Tutti parlano invece di IA, ma in modo generico e spesso divergente, concentrandosi su aspetti o problemi diversi. Certamente oggi la “parola dell’anno” è esplosa come fenomeno di moda e come operazione di marketing insieme e, se uno vale uno, tutti si sentono autorizzati a dire o teorizzare la loro opinione ed il loro (spesso interessato o poco informato) punto di vista.
  • È importante invece distinguere alcune figure con ruoli, interessi, responsabilità diverse.

I “padroni” che sono pochi ricchi e potenti; gli esperti, che non vuol dire chi ha una laurea o una cattedra, ma chi ci lavora, chi ci riflette e anche chi si informa; poi i politici e i decisori e soprattutto (anche se non è più di moda) i cittadini che vivono e vivranno, in vario modo, le conseguenze di quello che altri decidono e realizzano.

Ha senso parlare di IA “etica”?

  • Allora ha senso parlare di IA “Etica” intesa come responsabile, che si dà o rispetta delle regole o è meglio parlare di Etica della IA?
    Chi deve essere “etico” cioè rispettare vincoli e regole? La tecnologia, il programma, chi lo progetta e finanzia per guadagnarci o per potere, per controllare altri violando diritti?
    Aldilà del catastrofismo e delle paure o dell’euforia che accompagnano ogni “rivoluzione tecnologica” si è posto in vari modi il problema di tutelare diritti, stabilire regole (“paletti”), di stabilire a protezione dei diritti dei cittadini delle regole, dei limiti, in modo diverso.Quali sono questi problemi? Anche Quintarelli ne elenca alcuni: “L’uso dell’intelligenza artificiale a fini anti-competitivi, la creazione di posizioni di monopolio, lo sfruttamento del lavoro delle persone, la discriminazione. Quando si dice che l’umanità rischia l’estinzione a causa dell’AI, sono baggianate (dice lui)mentre può preoccupare l’utilizzo dell’AI negli armamenti: certamente se facciamo armi autonome, anche in conseguenza del fatto che sappiamo che l’AI sbaglia, possiamo attenderci esiti nefasti. Ma di nuovo, il problema non è l’AI ma l’uso che ne facciamo noi… Quindi queste grandi visioni su ipotetici grandi temi e grandi problemi mascherano problemi attuali concreti che sono importanti, appunto, come lo sfruttamento del lavoro delle persone, la creazione di rendite di monopolio, lo sfruttamento del lavoro altrui”. Tra l’altro.
  • Un altro problema che si è posto nel dibattito da parte delle stesse imprese che la propongono è l’IA che crea Fake in periodo di elezioni, In teoria molte aziende e social si impegnano (?) a non diffondere fake su candidati e partiti. Forse la prima elezione “dopata” di Trump ha indotto a riflettere. Vedremo chi mantiene la parola.

Esiste una etica globale?

Un problema fondamentale che esiste da sempre e che è già emerso col web ed il suo sviluppo, globale e oligopolistico insieme, è che l’etica, come mediazione sui valori/interessi/diritti in un dato paese (o zona del mondo) è un fatto relativo dal punto di vista geografico e storico. Come i valori e diritti stessi (N. Bobbio) che si devono conquistare, ma che si possono perdere in tutto o in parte, l’etica è relativa nel tempo e diversa nelle varie parti, culture e nei vari paesi o regimi del mondo.[3]
Basta confrontare le posizioni in merito che emergono in paesi con culture diverse:
UE (AI Act); USA a livello normativo o come autodeterminazione a livello globale degli stessi promotori della IA; oppure in Cina ad esempio, dove i valori, le regole, il rispetto dei diritti che sono appunto relativi dal punto di vista storico, geografico, politico sono diversi.[4]

L’UE prima ancora dell’atto sulla IA aveva indicato come requisiti da rispettare:
1- Supervisione umana
2- Robustezza e sicurezza
3- Privacy
4- Trasparenza
5- Assenza di discriminazioni
6- Benessere sociale ed ambientale
7- Responsabilità contro impatti negativi

Un altro atto era stato la Carta etica europea per l’uso dell’IA nei sistemi giudiziari (2018): principi di rispetto dei diritti fondamentali, di non-discriminazione, di qualità e sicurezza, di trasparenza, imparzialità, equità e di controllo da parte dell’utilizzatore.

Anche in Italia l’Agenzia per l’Italia digitale ha prodotto un libro bianco legato soprattutto a criteri d’uso nella pubblica amministrazione, dove si parla di problema etico, sfida tecnologica, competenze necessarie, problema dei dati e problemi legali e del coinvolgimento degli utenti, perché il principio di fondo è che l’Intelligenza Artificiale debba servire soprattutto per affiancare le persone e aiutarle a svolgere le loro attività, ma non per sostituirle. [5]

In USA in assenza di una regolamentazione pubblica, sono emerse enunciazione di principi da parte di privati, come Google [6] ed altri, basati però sulla volontà dei responsabili e senza un controllo pubblico. Che è un dato significativo di un modo di pensare in cui la libertà individuale (dalla espressione alla iniziativa economica) sono i punti di riferimento più forti.

La Cina (2019) ha pubblicato [7], dopo una ricerca tutta interna, un elenco di principi: essere vantaggiosa, al servizio della umanità, responsabile, controllare i rischi, progettazione etica, riflettere sulla diversità e sulla inclusività, incoraggiare la condivisione aperta.
Puntare a ottimizzare l’occupazione, l’armonia e la cooperazione, l’adattamento e la moderazione, il perfezionamento, l’implementazione, la pianificazione a lungo termine.

Ma aldilà delle belle parole sappiamo come funzionano già le attuali implementazioni della IA in Cina e come vengano usate spesso a danno dei diritti e delle libertà dei cittadini, dando priorità al potere politico attuale ed alla espansione economica.

Perché questa panoramica, magari un po’noiosa?

Paesi con storie, esperienze e quindi culture diverse possono usare le stesse parole come paravento o per indicare atteggiamenti diversi.
Ricordo uno scrittore arabo che mi aveva fatto riflettere sul fatto che per noi europei “giustizia” era intesa come giustizia sociale, rispetto dei diritti, in relazione alla nostra storia e quindi alla nostra cultura. Nella loro cultura era storicamente legata a “rispetto della legge”. Per cui il dialogo sui diritti umani era difficile.

Cosa c’entra allora la scuola, anello debole della catena sociale?

In questa complessità continuo a domandarmi in che modo la IA “debba” essere introdotta nella scuola, essendo intreccio complesso a causa della globalizzazione che non è dialogo tra culture se non sulle mode e con finalità diverse.  A meno di spiegare tutte queste cose e limitarsi a cosa si può fare con

[1] https://www.wired.it/article/intelligenza-artificiale-noiosa-quintarelli/
[2] ibidem
[3] https://www.einaudi.it/catalogo-libri/scienze-sociali/politica/leta-dei-diritti-norberto-bobbio-9788806223434/
[4] Sull’AI Act vedi anche https://www.gessetticolorati.it/dibattito/2024/02/06/giornata-della-sicurezza-in-rete-difendersi-dalla-privatizzazione-del-web-e-dalla-ia-non-controllata/
[5] Per una sintesi https://libro-bianco-ia.readthedocs.io/it/latest/doc/sintesi.html
[6] AI at Google: our principles, su Google, 7 giugno 2018.
[7] Intelligenza artificiale, pubblicati gli standard etici da non oltrepassare, su Cina in Italia, 26 maggio 2019

 




Giornata della sicurezza in rete. Difendersi dalla privatizzazione del web e dalla IA non controllata

di Rodolfo Marchisio

 Tra le varie “giornate” ricorrenti e celebranti c’è quella fondamentale della sicurezza in rete, 6 febbraio. Però quest’anno va integrata, perché non è solo più la giornata della sicurezza necessaria in merito a dipendenza (in un paese in cui 1/3 dei bambini tra i 5 e gli 8 anni ha un profilo social ed uno smartphone con seri danni e nella indifferenza dei “grandi” e 2 adolescenti su 3 usano IA e chat Gpt senza saper come funzionano) e privacy, controllo dati, odio e violenza nel web, violazione di diritti. Temi fondamentali con radici simili.
Ci sono importanti novità; da come difendersi dalla Scuola 4.0 a come difendersi dalla moda e dalla operazione di marketing della IA generale non controllata. Cominciamo da questa, troppo di moda per essere vera. L’IA è un mondo di attività, proposte diverse che andrebbero conosciute ed analizzate separatamente. Con alcune attenzioni comuni. Questa rubrica sta dando conto di questo e fornendo dati, riflessioni, stimoli.

IA ACT. Cos’è.

Sta per essere messo a punto l’atto di regolamentazione sulla IA approvato dalla UE. Gli USA come al solito vanno per i fatti loro, pur avendo le maggiori imprese che si occupano con alterne vicende di IA, secondo le logiche del libero mercato e della libertà di espressione. Interesse individuale contro la responsabilità sociale richiesta ad es. dalla nostra Costituzione.
L’UE, dopo avere cercato con scarsi risultati di far pagare le tasse a costoro, ha provato e sta mettendo a punto, si spera per giugno, una serie di regole nello sviluppo della IA.

1- La strada delle regole

  • Usi proibiti perché pericolosi e lesivi.
  • Tecnologie subliminali per manipolare i comportamenti di una persona; quelli che abusano di persone vulnerabili e fragili; la categorizzazione biometrica che fa riferimento a dati personali sensibili, come il credo religioso, l’orientamento politico o sessuale; la pesca a strascico (scraping) da internet di volti, come fece anni fa la contestata startup Clearview AI; il riconoscimento delle emozioni sul posto di lavoro o a scuola; i sistemi di punteggio o social scoring. Il testo vieta anche la polizia predittiva, ossia usare informazioni come tratti della personalità, nazionalità, situazione familiare o economica, per stabilire la probabilità che una persona compia un reato.
    Tenendo conto che l’IA si nutre di tutto quanto c’è in rete, a partire dai nostri pregiudizi.
    Le donne, i meridionali, i migranti sono tutti…
  • Riconoscimento facciale.
    Come noto sta funzionando male soprattutto per i non bianchi, maschi, caucasici. Crea problemi di identificazione (dai viaggi, alla identificazione di presunti colpevoli).
    Riguarda l’impiego di sistemi di riconoscimento facciale e biometrico in tempo reale. Applicazione proibita, perché può portare “a risultati marcati da pregiudizi e provocare effetti discriminatori“. Salvo in tre “situazioni”, nelle quali il riconoscimento facciale “è necessario per raggiungere un pubblico interesse, la cui importanza supera i rischi”. E i tre casi sono: la ricerca di vittime di reati e di persone scomparse; minacce certe alla vita o alla sicurezza fisica delle persone o di attacco terroristico; localizzazione e identificazione dei presunti autori di una lista di 16 reati. Terrorismo, traffico di armi e Wired

È comunque richiesta l’autorizzazione del magistrato. Come farà l’Italia in cui si stanno “abolendo” anche le intercettazioni? E che sta affidando la regia del controllo sull’IA Act non a Enti di controllo “super partes”, ma ad un fedelissimo del Presidente del Consiglio?

  • Ad alto rischio (c’è anche la scuola ed i suoi sistemi di valutazione).
    Sono considerati ad alto rischio sistemi di identificazione e categorizzazione biometrica
    o per il riconoscimento delle emozioni; applicativi di sicurezza di infrastrutture critiche; software educativi o di formazione, per valutare i risultati di studio, per assegnare corsi o per controllare gli studenti durante gli esami. E poi vi sono gli algoritmi usati sul lavoro, per valutare curriculum o distribuire compiti e impieghi; quelli adoperati dalla pubblica amministrazione o da enti privati per distribuire sussidi, per classificare richieste di emergenza, per smascherare frodi finanziarie o per stabilire il grado di rischio quando si sottoscrive un’assicurazione. Infine algoritmi usati dalle forze dell’ordine, dal potere giudiziario e dalle autorità di frontiera per valutare rischi, scoprire flussi di immigrazione illegale o stabilire pericoli sanitari.
  • Di uso generale
    Il testo regola anche i sistemi di AI per uso generale, in grado di svolgere compiti diversi (come creare un testo o un’immagine) e allenati attraverso un’enorme mole di dati non categorizzati, come GPT-4, alla base del potente chatbot ChatGPT, già sanzionato dal nostro garante della privacy, o LaMDA, dietro Google Bard. Gli sviluppatori devono assicurarsi che i contenuti siano marcati in un sistema leggibile da una macchina e siano riconoscibili come generati da un’AI. Un utente deve sapere se sta interagendo con una chatbot. E i contenuti deepfake devono essere etichettati come tali. Precauzioni che, tuttavia, non è detto siano sufficienti a impedire la diffusione di fake news, che la IA può, e di molto, potenziare e raffinare, violando i diritti alla informazione, alla espressione, al voto libero e informato. Ma anche il diritto alla formazione dell’opinione pubblica, non a caso sempre più orientata a credere a cose non provate. (Nichols).

Unica eccezione: l’impiego di questi sistemi per perseguire reati. Il regolamento fissa una soglia per identificare i sistemi ad alto impatto, che hanno maggiori effetti sulla popolazione e perciò devono rispettare obblighi più stringenti.

  1. La strada della conoscenza e della consapevolezza

Come cerchiamo di dimostrare e documentare in questa rubrica, un’altra strada, quella che più interessa la cittadinanza e le scuole è quella di conoscere di più per capire meglio. In questo senso la introduzione piuttosto superficiale della IA nella formazione dei docenti e delle scuole (sinora superiori) con corsi, seminari e dimostrazioni, resta deviante rispetto al fatto che “nuovo” non è sempre sinonimo di meglio, di definito, di motivato, di provato e utile.
Che “tecnologico” non è automaticamente sinonimo di certo, sicuro, efficace, risolutivo. Di progresso.
Le tecnologie non vanno solo conosciute prima ma vanno compresi i sistemi economici, sociali, politici che ne sono alle spalle (Soro) e che le propongono: perché, a quali condizioni, per quali interessi (in genere guadagnare soldi o scambi col potere politico che non le controlla); le conseguenze sui diritti e sulla educazione che stanno dietro a queste iniezioni forzate di tecnologie, fra “modernismo” e dominio degli oligopoli economici che ce le impongono.

Da dove arrivano, chi le controlla e chi non potrà mai controllarle, quali diritti sono in ballo e prima di tutto quale è la reale influenza sulla formazione dei nostri ragazzi e sulla formazione di una cultura e cittadinanza digitale?
Purtroppo i dati delle ricerche confermano che gli adolescenti sono già dentro la IA, ma in modo superficiale. Se 2 adolescenti su 3 hanno già fatto uso di applicazioni basate sull’intelligenza artificiale “generativa” come ChatGpt, in genere per usare le Ai come assistenti personali per generare testi, non mancano le criticità; se le nuove generazioni di “nativi” sembrano essersi evolute tecnicamente, i rischi esistono. Oltre 8 giovani su 10, infatti, accettano di buon grado che siti web e piattaforme possano influenzare il loro modo di conoscere il mondo con il 44,7% tendenzialmente d’accordo e il 37,8% fortemente d’accordo. Per non parlare dei fake, messi in circolazione grazie all’aiuto dell’AI, che solo avendo imparato si possono smascherare. Un’opera di discernimento che, purtroppo, la stragrande maggioranza dei giovani utenti è impreparata a fare: appena il 27% degli intervistati dice di conoscere il funzionamento del “deep learning” generativo e di saperlo illustrare perlomeno a grandi linee. Skuola.net

 Ma la scuola è solo l’anticamera della industria? La scuola, in particolare dalla Buona Scuola ad oggi, ha delegato la sua ricerca di strade e modelli nuovi e più adatti, fondati pedagogicamente, alla tecnologia ed a quella parte che è in mano ai privati. Di IA e programmazione open, controllabile anche dal basso si parla sempre meno.
La scuola che si intravede è tecnologica, privatizzata, controllata dall’esterno e dall’alto.
Come la sanità.

Se la scuola è la formazione di cittadini, di persone consapevoli, futuri lavoratori (anche nella IA spesso sfruttati e sottopagati, mentre i posti di lavoro come programmatore che la “Buona scuola” aveva ipotizzato si sono rivelati per quello che erano: una bufala) la inerzia di fronte alle mode ed al dominio di 10 ricchi monopolisti tecno/economici (molti dei quali come Zuck e Musk oggi già in crisi) è molto preoccupante. La mentalità, gli atteggiamenti, la consapevolezza che deriva dalla conoscenza e dalla riflessione sono quelli che interessano la scuola come ente formativo in cui le tecnologie entrano non perché di per sé valide (gli studi dimostrano il contrario) ma perché inserite in un progetto di conoscenza, riflessione, consapevolezza del mondo da cui arrivano ed in cui tutti viviamo. Compresi bambini con social e smartphone e adolescenti utenti passivi.

Una osservazione. Nelle proposte della “IA” le iniziative open, libere, gestite dal basso non sono mai citate. Mentre la scuola si abbassa a diventare l’anticamera della industria che la programma. Una industria che sfrutta, controlla, cui ci stiamo assuefacendo. Come nel PNRR Scuola 4.0. Ma di questo, se volete, parliamo altrove.

 




Inclusione, decadenza degli “intellettuali” e crisi della scuola dei diritti

disegno di Matilde Gallo, anni 10

di Rodolfo Marchisio

Io questo pezzo non lo volevo scrivere, perché penso che rispondere a EGdL (quello della “predella per ristabilire autorità del docente”, confondendo autorità con autorevolezza), che non è un esperto di scuola, sia quello che lui cercava, una provocazione per far parlare di sé. Ma invitato e tirato per i capelli da un paio di considerazioni, cerco di essere breve.

Intellettuale o influencer?

  • Propongo di abolire il termine “intellettuale”, parola ombrello (Guastavigna) che all’epoca di social, talk e improbabili influencer, non vuol dire più niente. Sicuramente non ha più un ruolo di punto di riferimento nella babele di web, talk e fake. Se “la rete dà la parola a tutti” (U. Eco ed è un bene teorico nel campo dei diritti), dà però anche la parola “a legioni di imbecilli” (U. Eco) e se in rete “1 vale 1” si pone il problema del rapporto tra la libertà di espressione e la competenza in merito all’argomento; “la mia ignoranza vale come la tua competenza” (Asimov). EGdL è esperto di scuola, didattica, pedagogia, inclusione? Dai 2 articoli direi di no.
  • Credo dovremmo parlare di studiosi, di ricercatori, competenti in un campo, anche se la conoscenza oggi è svalutata, anche grazie all’abuso della rete, rispetto alla opinione che chiunque può avere lecitamente. (Nichols).
    Lo studioso si caratterizza per il metodo e per la citazione di fonti, ricerche, documentazione e per l’argomentare vs affermare (come fanno i social e la politica) che validino il suo discorso e permettano agli altri di verificare se dice il vero.
    Lo fa anche wikipedia, il dizionario (non enciclopedia) su cui studiano i nostri ragazzi: questa pagina non è attendibile perché non riporta le fonti e non ha sito/bibliografia.
    Se no è uno qualunque che esprime la sua.

  • L’alternativa di moda è l’influencer da web o talk che spara opinioni e punta a emozionare, scandalizzare, provocare, strategie di moda in rete, TV e politica. EGdL è un influencer nel campo della scuola?

I diritti si possono perdere

  • Il secondo motivo per cui mi permetto di esprimere e documentare la mia opinione è che sono in ballo, in questo ribollire di pareri, livori, frustrazioni, diritti fondamentali per cui, come ci insegna N. Bobbio, ci si è battuti a lungo contro contrari e pigri, ma che si possono perdere in tutto o in parte. Sono nella scuola dal 1969 ed ho vissuto resistenze, diffidenze, difficoltà di parte dei docenti che vivevano come un peso l’inserimento di disabili e poi degli stranieri.
    Credo sia stata una faticosa conquista di diritti che non deve regredire e che non abbia fondamento scientifico la sua critica (Morello).
    La “normalità” non esiste, come non esistono molti concetti usati per separare: siamo tutti diversi ed il confine tra salute e malattia, abilità e deficit è legato ad una convenzione sulla quantità e sulle conseguenze.
    Gli alunni “deboli” non hanno solo diritto a migliorare, ma anche ad essere inseriti nella scuola e nella società. La scuola, per legge non deve solo istruire, ma anche formare la persona ed il cittadino. Qualunque cittadino.
    Il vivere tra diversi (ed ogni diverso è diverso da tutti gli altri diversi) è per tutti crescita, progresso, mediazione verso la cittadinanza democratica; mentre il vivere tra eguali è quanto ci impongono i padroni della rete (Rampini) nei social, comfort zone in cui ci autoconfermiamo tra eguali (Pariser, Bauman) e ci identifichiamo odiando un gruppo diverso da noi (donna, omosessuale, straniero, disabile).

Si può migliorare?

Quando facevamo i primi convegni internazionali sull’inserimento dei disabili a scuola, emergeva (progetto europeo Helios 2) che i popoli mediterranei (Italia, Spagna…) erano più avanti nella inclusione, nella socializzazione; avrebbero potuto far di più nel recupero o compensazione di abilità. I paesi del nord (es. Germania) prendevano i disabili, li chiudevano in ville e li addestravano in modo intensivo, migliorando le loro capacità meglio di noi. Ma non li inserivano nella vita, nella società, nella scuola. Occorre fare entrambe le cose, migliorando e non rinnegando. Ma ci vogliono risorse umane ed economiche.

La scuola è specchio della società e del clima politico e culturale in cui vive

Quelle conquiste sono state frutto di impegno e lotte contro la palude inerziale presente nella scuola allora ed oggi. Non è cambiato molto. La scuola ha sempre avuto una parte più innovativa, più attenta ai diritti ed a temi diversi nelle varie epoche e di contro una minoranza che ci vedeva un problema ed una “palude” talora pigra che si adattava al clima dominante o talora insabbiava.
All’epoca il clima era  teso alla conquista di diritti, oggi alla regressione.
Siamo nella epoca dell’”egocentrismo dei diritti individuali” contro i doveri di solidarietà ed i diritti degli altri (Zagrebelsky). Che sia interesse individuale, diritto di portare armi, diritto di prevaricare, occupazione abusiva del potere, difesa di sé, dei propri soldi e interessi (è sempre più “normale” non pagare tasse e violare le regole comuni a danno degli altri) contro il dovere fondamentale di solidarietà prescritto dalla Costituzione (dall’art 3 in poi).
Viviamo nella “Penisola che non c’è” (Pagnoncelli) che si basa sul percepito e non sui dati reali. Sulla pancia e non sulla ragione.
Inoltre il clima e la società in cui viviamo è quella in cui il 45 % dei cittadini non va a votare, e se una coalizione prende il 40% del 55 % dei votanti, col sistema elettorale attuale, prende il potere esecutivo (che sta “mangiando” gli altri poteri); prende tutto col consenso del 22% della popolazione. La realtà ed il clima in cui vive la scuola è questo. Due studi ci classificavano in serie B con USA e Giappone come “Democrazie con problemi” già anni fa.

L’indagine. Per chi è un problema l’inclusione?

Lasciamo perdere il valore della rilevazione della Tecnica della scuola a livello metodologico, di tipo social. Anche presa per indicativa di una tendenza il 40% dei docenti sarebbe in varie forme favorevole a modificare e qualcuno, oltre a sfogarsi, fa anche proposte sensate. L’altro 60%?
Ma la maggioranza degli allievi invece è contrario, non ci vede un problema. Allora i docenti che vogliono cambiare lo fanno per sé o nell’interesse degli allievi?
Forse i ragazzi sono un po’ più aperti ed i docenti manifestano disagio e problemi nel loro ruolo?
Ottimismo. Che possa essere anche merito della Ed. alla cittadinanza dopo 4 anni (peraltro non attuata in tutte le scuole e che vede diversi docenti, spesso nella secondaria, defilarsi e fare ostruzionismo?)
L’apprendimento è un fatto anche emotivo e sociale (Vigotsky, Goleman) ed avviene riconoscendo la diversità delle intelligenze (Gardner). Non esiste progresso nella omologazione.
Le reazioni di alcuni docenti troll ricupera il livore contro il “68”, il “politicamente corretto”. È odio in rete non argomentazione. Quelli del 68 sono oggi tutti tra i 75 e gli 80 (R. Palermo). Stanno organizzando la contestazione dell’Unitre.

Dice Valditara

“Le conquiste ed i diritti non si toccano” dice il ministro dell’ovvio. Ma va fatto qualcosa. Da chi? Dal Ministro e dalla politica. Che invece continuano a scaricare sulla scuola dopo la EC, la follia del PNRR, i problemi del “merito” (il governo è per la competizione e la competenza– degli altri non sua- non per l’inclusione), l’affettività, l’orientamento, il made in Italy spesso rifiutato dai collegi e tutti i problemi che la politica non sa gestire e risolvere. Se non mettendo una clausola finale. “Con invarianza delle risorse”. Allora è lecito pensare che una parte dei docenti sia stufa di risolvere problemi senza risorse (soldi e ore in più: incentivi estrinseci), ma solo con la motivazione e gli incentivi intrinseci di fare bene e fino in fondo il proprio lavoro?
Parliamo di risorse che sorreggano la motivazione e non di esclusione?

 

 

 

 




Intelligenza artificiale e/a scuola: questioni aperte e qualche conclusione (provvisoria)

di Rodolfo Marchisio

Due aneddoti

  • Mentre organizzavamo For Tic 1 con USR Piemonte e Unito, con M. Guastavigna, un assistente di Luciano Gallino tutto “goduto” ci ha mostrato un suo software che somministrava le prove, le correggeva, attribuiva i voti e inviava in automatico una mail agli allievi. Domanda: “se fa tutto il software, tu coi tuoi allievi quando ci parli?”
  • Ricordate il colonnello russo che contro ogni evidenza che proveniva dalle sue tecnologie (5 missili nucleari in arrivo dagli USA) ha preso tempo ed evitato di far partire la prima guerra nucleare?
    Ci ha salvato. È stato lodato e poi è sparito.

“Prima di usare tecnologie molto potenti, prima addirittura di ipotizzare per cosa usarle, bisogna anzitutto conoscere questi strumenti. Capire come funzionano, quali sono le loro potenzialità e (soprattutto) quali sono i loro limiti. Ma anche evitare di considerarli una scatola nera che processa chissà come input e restituisce magicamente output da applicare a occhi chiusi.” (Soro)

Soro e Rodotà
 “Tutto quello che è tecnicamente possibile è anche eticamente lecito, politicamente e socialmente accettabile, giuridicamente ammissibile?” (Rodotà)

L’algoritmo non è infallibile né neutro. Si tratta di opinioni umane strutturate in forma matematica. L’uomo ha (deve avere) la possibilità di intervenire in qualsiasi momento dei processi decisionali. (Soro)
Senza regole la società (l’ambiente) digitale rischia di divenire la società della schedatura, la rete, da straordinaria risorsa democratica, può diventare strumento di sorveglianza globale da parte dei grandi poteri economici” Rodotà.  Schiavitù volontarie o passive, disinformazione e post verità.
L’IA dà un grande potere a chi la gestisce. Quante delle nostre decisioni come cittadini sono sempre più condizionate: dagli acquisti, ai gusti, alle idee, al nostro stanco diritto di votare influenzato dalle Fake? I GAFAM e soci da servizi di informazione e comunicazione tendono a gestire anche servizi ed attività sociali, sanità, istruzione, servizi ai cittadini.

Si indebolisce la capacità di conoscere i fenomeni e governarli, di intervenire a vantaggio della comunità. (Soro).
Il pericolo del passato era che gli uomini divenissero schiavi, quello del presente è che diventino robot che vivono in bolle tra uguali “selezionati” da algoritmi, coi loro pregiudizi; intolleranti verso le differenze ed il pluralismo: tribù dei social asservite a badanti “Intelligenti”.
Il focus non è cosa fare o far fare alle tecnologie, ma cosa queste possono fare all’uomo (Soro, Turkle)

I fabbricanti di IA si interrogano già su come faranno a controllarla (loro figuriamoci noi) quando sarà più intelligente degli uomini e di loro; la risposta è farla controllare da forme di IA meno evolute. Ha senso?

“Occorre una etica dell’algoritmo e protezione dei dati. Internet da strumento è oggi dimensione, ambiente, ecosistema in cui viviamo; alla IA si delegano decisioni su lavoro, salute, ricerca, giustizia.
Aumenta sempre più ciò che la rete sa di noi e che noi non sappiamo ancora.
Dimostrato che gli algoritmi non sono matematica pura (infallibili e neutri), ma opinioni umane potenziate e implementate, il rischio è che i nostri pregiudizi ed errori siano amplificati dalla IA” (razzismo, discriminazione…). (Soro).
 Il passato (di cui si nutre l’IA) non va cristallizzato nel futuro, l’ultima parola deve aspettare all’uomo. Anche perché il 95% di chi usa la rete si concentra solo sullo 0,03% dei contenuti, quelli suggeriti dalle piattaforme.
La disintermediazione non deve diventare una delega in bianco ai potenti. (Soro).

IA e/a scuola
Le competenze digitali, non si possono ridurre a degli insegnamenti funzionali a singoli compiti, ma necessitano di una costante contestualizzazione culturale, politica e sociale
“L’intelligenza artificiale generativa può rappresentare un’enorme opportunità per lo sviluppo umano, ma può anche causare danni e pregiudizi – Audrey Azoulay dell’Unesco – Non può essere integrata nell’istruzione senza l’impegno pubblico e le necessarie garanzie e normative da parte dei governi”. La via che tenta l’UE.

Gli attuali esempi di intelligenza artificiale sono intrisi di un tipo di politica che applica soluzioni tecniche e di mercato a tutti i problemi sociali. Più prosaicamente, è possibile che l’intelligenza artificiale riproduca gli aspetti peggiori dell’istruzione scolastica: il saggio standardizzato è già fortemente vincolato dalle esigenze dei regimi di valutazione, e i modelli linguistici tendono a riprodurlo nel formato e nel contenuto.” Soro.

Burrell e Fourcade hanno distinto tra “l’élite del coding”, una nuova classe professionale di competenze tecniche e una forza lavoro recentemente emarginata o non retribuita, il “cybertariat”, da cui estrarre manodopera. Gli ingegneri e i dirigenti della Khan Academy sono una nuova élite di sviluppo dell’intelligenza artificiale nel campo dell’istruzione, che sfrutta il lavoro degli insegnanti e degli studenti del cybertariato in classe. (Khanmigo).
Richiede lavoro aggiuntivo non retribuito da parte degli insegnanti e ne estrae valore.
Infine l’intelligenza artificiale potrebbe, a lungo termine, esercitare un’ulteriore pressione degenerativa sulle pratiche e sulle relazioni in classe già ampiamente in crisi.

Alcune conclusioni

Sebbene gli agenti di IA siano in grado di ragionare su problemi molto complessi, non pensano nel modo in cui lo fa l’uomo. L’intelligenza artificiale può avere impatti sia positivi che negativi sulla società. (AI4K12.org)
Allora posto che:

  • Usare il digitale senza una cultura non solo è pericoloso ma è diseducativo
  • Non abbiamo bisogno di più “strumenti o più effetti speciali” (da Buona scuola a Scuola 4.0) ma di migliori cittadini e maggiore cultura della rete.
  • La scuola, i docenti, gli adulti devono essere in grado di dare un senso critico a ciò che i ragazzi fanno con la rete, a fare esperienze significative insieme: a costruire una cultura digitale.
  • Non è utile dividersi (favorevoli/contrari), ma conoscere di più (ricerca) per capire meglio. (Losito)
     (Però se per una volta lasciassimo in pace la scuola che deve ancora digerire il PNRR?)

 Preso atto che il capitalismo si ripete, si potenzia con la rete, rifiuta le regole e la democrazia[1] mi preoccupa la passività, il sonno, degli utenti/consum-attori più ancora che i “pericoli” delle supertecnologie in mani private.
Mi preoccupa vedere e rivivere sempre le stesse cose ad ogni apparire di novità
(o moda) tecnologica.
Papert pensava ad un metodo attivo. Anche per risolvere problemi di cittadinanza e formare cultura. Facciamo esperienze – coi più grandigiochiamo coi nuovi giocattoli per capire come funzionano, ma insegniamo soprattutto cosa c’è dietro ed in che mondo web viviamo con IA.
Ed impariamo a fare buone domande per avere risposte utili.

In sintesi dobbiamo decidere se l’IA debba essere un alleato, un assistente o un nuovo modo di dominarci.
Usare o parlare di IA per usare e non farsi usare. A che età e come?
Ecco i consigli della Commissione europea.

[1] Srinivasan ha pubblicato un intero libro, scaricabile gratuitamente, sul tema dei “network states”. L’idea di base è quella di creare reti di persone connesse via internet che nel tempo sviluppino un legame economico, politico e valoriale tale da identificarsi come gruppo nazionale. Il concetto di “network state” si basa su una democrazia “decentralizzata”, nella quale le persone avranno la possibilità di votare direttamente sulle questioni che le riguardano. I servizi essenziali come la salute, l’educazione e la cura saranno distribuiti attraverso la rete. Un “network state” avrà la capacità di riunire diverse comunità offline in una grande nazione del web. Alla fine, scrive Srinivasan nel suo e-book “possiamo ricucire digitalmente queste enclavi disgiunte in un nuovo tipo di entità politica che possa ottenere un riconoscimento diplomatico”. Si creeranno stati come si creano startup.
I “network states” sono essenzialmente società parallele, gestite tramite la rete, libere dalle pastoie regolatorie degli stati, delle banche centrali, delle burocrazie. Insomma, si potrebbe aggiungere, anche dalle noiose società democratiche
. (Wired WAR)

 




Intelligenza artificiale: perché pone interrogativi etici e sui nostri diritti di cittadini?

di Rodolfo Marchisio
e Stefano Penge

Dopo aver introdotto il tema, averlo approfondito  vediamo di spiegare un po’ di più gli aspetti critici dal punto di vista della cittadinanza.
Un intervento educativo (formazione di competenze e cultura digitale) è possibile solo se si supera la visione della digitalizzazione come un processo di democratizzazione spontanea dell’accesso delle informazioni oggi non più possibile. Agenda digitale. E come un processo “magico” e spontaneo di riforma della scuola in senso democratico grazie alle tecnologie

Quale IA
L’Europa ha stabilito i limiti da porre allo sviluppo della IA per tutelare i cittadini:
AI Act.
Riguardano i modelli fondativi alla base di grandi sistemi di AI e il ricorso alla sorveglianza biometrica e alla (ipotizzata) polizia predittiva. L’AI Act, inquadra i diversi sistemi di intelligenza artificiale pone paletti, proibisce alcune applicazioni e introduce procedure di salvaguardia per mettere al riparo i cittadini dell’Unione da abusi e violazioni dei diritti fondamentali. L’attenzione è:
1- sui modelli fondativi, quelle forme di intelligenza artificiale generali in grado di svolgere compiti diversi (come creare un testo o un’immagine) e allenati attraverso un’enorme mole di dati non categorizzati.
Si è lavorato ad una applicazione preventiva delle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato. Wired.
2- La UE è arrivata ad un compromesso sull’uso dell’AI per compiti di polizia e di sorveglianza.
Sul riconoscimento biometrico in tempo reale, ma si era discusso anche di polizia predittiva poi vietata. Ossia usare gli algoritmi per prevedere le probabilità con cui può essere commesso un reato, da chi e dove? Quali diritti verrebbero violati con questa delega? AI Act Europa (Wired)

Oltre a questo ci sono nodi e modi di vedere la IA (che è mondo complesso) che emergono anche dal fatto che il termine sia sempre più spesso accompagnato da un aggettivo (generativa, etica, spiegabile …).
Si riflette su questi temi e interrogativi:

  • L’intelligenza artificiale può prendere decisioni basate sui dati e sul passato. Talora errate a causa di una mancanza di consapevolezza del contesto. Esiste una possibilità di sapere come? Dovrebbe essere la IA explainable. (spiegabile). Ma funziona? Per tutta la IA?
  • Una decisione può influenzare la vita delle persone, essere utilizzata per scopi maligni, essere influenzata dai pregiudizi e dai valori dei suoi creatori. Gli algoritmi utilizzati nell’IA possono essere influenzati da pregiudizi, anche involontari. O “premiati” in modo da imparare in una certa direzione prefissata da chi li progetta. Ciò può portare a decisioni discriminatorie, sbagliate, diverse da quelle che avrebbero preso degli umani (processi di selezione del personale, prestito bancario…). Anche se le stesse decisioni umane sono diverse se prese da persone competenti, da potenti, da una maggioranza più o meno informata. Come constatiamo da anni. Ma il meccanismo si potenzia ed opacizza con IA.
  • L’ IA comporta la raccolta e l’elaborazione di grandi quantità di dati personali. Questo solleva preoccupazioni sulla privacy delle persone e sulla sicurezza dei dati.
  • L’IA sta automatizzando e sostituendo sempre più lavori umani. Ciò solleva preoccupazioni sulla perdita di posti di lavoro e sulla necessità di una riqualificazione delle persone.
    Vedi studi del possibile impatto sulla occupazione.
  • Nonostante i progressi nell’IA, esistono ancora criticità sui sistemi di controllo decisionale affidabili e trasparenti. Questi problemi richiedono una rigorosa regolamentazione, un’etica e una responsabilità riguardo all’uso dell’IA, nonché un’attenzione costante alla sua implementazione e sviluppo.

Stefano Penge, filosofo e informatico, avverte:
“L’interesse recente – da un anno a questa parte – per l’intelligenza artificiale, con tutti i discorsi a favore e contro, si è concentrato su un sottoinsieme particolare di abilità che attraggono e spaventano apparentemente più delle altre: quelle linguistiche, che permettono ad un software di analizzare un testo, di tradurlo, di prepararne un riassunto, ma anche di continuarlo o riscriverlo secondo un altro stile; il tutto, attraverso un’interazione continua con le persone (il famoso ‘prompt’).
Il riconoscimento facciale e la guida autonoma (le altre abilità di cui si occupa l’AI ACT) hanno in comune con questo sottoinsieme linguistico  l’abbandono della logica tradizionale, quella basata su regole e deduzione, a favore di una logica induttiva
Niente di nuovo, insomma: tutto sommato anche la nostra specie funziona così la maggior parte del tempo e solo in casi speciali usiamo la logica classica e il ragionamento formale. Vedi anche https://www.stefanopenge.it/wp/intellig-enti/.
Quelli citati sopra sono tutti esempi di machine learning, che indica una maniera di costruire modelli artificiali che simulano una parte del mondo (per esempio, un testo)  a partire dalla raccolta di dati relativi a miliardi di situazioni, per induzione appunto.
Questo sistema è inerentemente soggetto ad errore, perché i dati di partenza non sono tutti i dati ma solo una selezione;  perché la maniera in cui sono stati selezionati quei dati (e la maniera in cui vengono “premiati” i modelli migliori) potrebbe essere non oggettiva ma guidata da preferenze culturali o sociali. Ma soprattutto perché il futuro non è per forza uguale al passato, mentre il machine learning per sua natura si basa proprio su questa fede.
Ma anche se decidessimo di fidarsi delle competenze dei software basati sul machine learning, il problema nasce quando queste competenze vengono usate non a fianco, ma  al posto di quelle umane come se fossero equivalenti in qualità, perché costano di meno e rendono di più a chi le governa.”

Anche Sasha Luccioni, ricercatrice nell’AI etica e sostenibile -HuggingFace – sottolinea:

  1. Consumi energetici troppo elevati, i bias cognitivi che vengono riproposti dagli algoritmi, e la tutela del copyright sono le tre sfide che l’intelligenza artificiale dovrà affrontare.
    La diversità deve essere presente all’interno dei modelli dell’intelligenza artificiale: “La tecnologia non è neutra, i bias dell’intelligenza artificiale altro non sono che quello che noi vediamo nella società. Qualsiasi stereotipo si applichi viene peggiorato dal sistema, che tende ad amplificare la distorsione. Solo il 12% di chi lavora nell’AI è donna …è fondamentale che questa tecnologia “non sia nelle mani di pochi soggetti, deve essere open, per intervenire su questi aspetti in modo condiviso”. Wired
  2. Per tutelare la proprietà intellettuale e il copyright (Luccioni) bisogna “implementare meccanismi per capire quali siano le fonti che sono state utilizzate, analizzare i dataset usati da un’intelligenza artificiale. Un lavoro immane che va fatto fare dalle macchine, ma come e da chi controllate? E i cittadini/utenti in tutto questo?
  3. L’impatto ambientale non è trascurabile:
    Ad esempio, sono state emesse 500 tonnellate di CO2 per la creazione di Gpt-3”.
    Wired

    A proposito della possibilità di controllare l’IA
    Penge paragonava la IA ad una piccola bomba atomica: ha un potere enorme, ma può essere costruita (e smontata) solo da quelli che hanno sufficiente potere per raccogliere, selezionare e gestire i materiali (radioattivi!) necessari. Il semplice cittadino non avrà mai questa possibilità; al massimo può giocare con le interfacce che permettono di interagire con i software di IA.
    “Per dire meglio ci sono tre aspetti:
    uno è quello della chiusura del software, in questo caso della proprietà dei modelli linguistici utilizzati, che hanno grande valore perché sono stati prodotti con molte ore di calcolo e molto lavoro di revisione umana;
    – il secondo è quello delle dimensioni di questi modelli, che per essere creati e trattati richiedono risorse informatiche enormi, che consumano elettricità, scaldano, etc.;
    – il terzo è quello dell’opacità: un Large Language Model è costruito con miliardi di parametri. Significa che non è analizzabile da umani, non si può capire perché risponde in un modo o in un altro. Questi tre aspetti insieme impediscono di mettere le mani in questi strumenti come si potrebbe fare con un software libero, ad esempio con LibreOffice (ma non con MS Word)
    .”

    Tornando alla scuola un esempio di preoccupante ottimismo in questo podcast che ipotizza una scuola alla cinese. Paese che notoriamente è da tempo l’incarnazione del “grande fratello” che viola costantemente i diritti dei cittadini, sudditi ipercontrollati e prigionieri.  Concluderemo sulla scuola.

 

 




Intelligenza artificiale a scuola? Domande e riflessioni

di Rodolfo Marchisio

Dopo aver introdotto l’argomento cerchiamo di approfondire.
Sembra che in merito alla IA ci siano 4 atteggiamenti che animano il dibattito: Tecno-apocalittici, utopisti, attenti all’etica o alla sicurezza (Wired).
Chiarito che mi interessa conoscere di più per capire meglio, penso utile essere attenti alle conseguenze delle tecnologie su di noi come persone e come cittadini. E sui nostri diritti, spesso violati non dalle tecnologie in sé (Bauman), ma dai padroni della rete che le e ci controllano.

Tecnologia in divenire, molto diversificata nelle applicazioni.

La IA si sta evolvendo, cresce in maniera costante ed esponenziale (negli ultimi 4 anni il numero di parametri per modelli linguistici di grandi dimensioni è cresciuto di 1.900 volte) ma “passerà almeno un decennio per assistere ad una vera svolta”.
A me profano pare una tecnologia molto variegata, non ancora del tutto chiara anche perché diversi sono i tentativi, gli usi, le tipologie che si stanno sperimentando. Talora in competizione tra loro. Dicevamo una operazione di mercato non ancora definitiva. Vedi dubbi di Musk, di B. Gates e di altri GAFAM.

Dubbi su IA e cittadinanza 

  • Non controlliamo i suoi effetti. Ma anche il suo uso, perché è in mano ai padroni della rete che hanno denaro e tecnologie potenti.
  • Noi non possiamo “costruire” IA né spesso controllarla. Penge rifacendosi alla contrapposizione software free, open /proprietario paragona “la IA ad una piccola bomba atomica che non abbiamo gli strumenti per costruire in modo libero perché non avremo mai quella potenza di fuoco. Con cui però stiamo giocando.”
  • Che ha ancora parecchi difetti: riconoscimento facciale tarato sui bianchi caucasici, discriminazioni di genere; controllo, gestione, dati; “nutrimento” ed addestramento.
  • Che ha un grosso bisogno di essere nutrita da noi, dai nostri dati e prodotti e dipende da chi la propone e dal perché la propone: la colpa non è del web (Bauman), ma dei padroni della rete. Quindi le polemiche sui dati e prodotti e di chi potranno essere usati per nutrire e far crescere applicazioni di IA. Tutti i nostri dati e scritti online, anche quelli con diritto d’autore? Chi autorizza chi? Chi ci tutela?

L’impressione è che sia al momento una “parola ombrello” (Guastavigna), che contiene cose diverse ed ha diversi significati; che prima di somministrare agli allievi, vanno chiariti e distinti: cosa, a chi, perché e come?
 La mia attenzione è concentrata sulla strada indicata da S. Turkle di domandarsi non cosa fare col web ma cosa il web (compresa l’IA) fa a noi, al nostro cervello, alla nostra sfera reazionale, emotiva. Ed ai nostri diritti.

Rischi denunciati

“La crescente capacità di automatizzare le decisioni su larga scala è un’arma a doppio taglio; com’è noto: il rischio discriminazione non è mai lontano. Gli algoritmi elaborati sui dati storici rafforzano e amplificano i pregiudizi e le disuguaglianze già esistenti, con annessi rischi e minacce per i principi democratici.”
“Ridurre al minimo gli impatti negativi sulla società e valorizzare quelli positivi richiede quindi più che sole soluzioni tecnologiche; è necessario un impegno costante e un’attenzione continua della società. Pertanto, la preoccupazione più immediata per l’IA è cosa accadrà se verrà incorporata irrimediabilmente nella vita quotidiana prima che le sue criticità siano completamente risolte.
I Garanti europei per la protezione dei dati, affermavano che “applicazioni come il riconoscimento facciale dal vivo interferiscono con i diritti e le libertà fondamentali in misura tale da poter mettere in discussione l’essenza di tali diritti e libertà. […] Un divieto generale dell’uso del riconoscimento facciale nelle aree accessibili al pubblico è il punto di partenza necessario se vogliamo preservare le nostre libertà e creare un quadro giuridico incentrato sull’uomo per l’IA”. (Agenda digitale)

Uno studio dell’Università di Stanford indica che i successi del settore rendono ora indispensabile pensare seriamente ai lati negativi e ai rischi che un’ampia applicazione dell’IA può rivelare.

Rampini, Bauman, Pariser, Zuboff ed altri ci hanno insegnato che l’alternativa già oggi nel web è tra essere dominati passivamente o cercare di conoscere e contrastare i metodi dei sistemi economici, politici, sociali che stanno dietro agli ambienti, che ci vengono imposti.
Quindi l’alternativa è cercare di dominare un po’ di più o essere dominati
Se noi cittadini siamo “prigionieri del capitalismo oligopolistico oggi digitale” dobbiamo avere la umiltà di ammettere che siamo tutti dei primitivi…e recuperare il senso critico nei (dei) tempi critici in cui viviamo. (De Kerchove).

Scuola

Se anche la scuola è (già) prigioniera del capitalismo oligopolistico oggi digitale. Bonsanto, Micro Mega, ci fermiamo a riflettere?

a) Perché (e come) proporla a scuola?
b) Ne ha bisogno la scuola (in genere priva di cultura digitale diffusa)?
c)  L’ha chiesta per risolvere qualche suo problema o ne ha già troppi?
d) A che livello di scuola è proponibile?

Tutte le mode e tutti i problemi si riversano in una scuola/contenitore di tutte le mode e di tutti i problemi, nonostante il disorientamento o l’esaurimento dei docenti. Non bastano un referente e qualche iniziativa per problema (Digitale, Ed Civica, Orientamento, Educazione alla relazione ed affettività, STEM …). La ed. civica al quarto anno di sperimentazione non è stata attivata in alcune scuole o in alcune classi e non da tutti i docenti. La scuola 4.0 quanti docenti coinvolgerà realmente? Mi pare che più aumenta la pressione sulla scuola per risolvere problemi complessi che riguardano la società, la politica, la famiglia, meno docenti si lascino coinvolgere. “Mi hanno lasciata sola” dice una referente di Ed. Civica.
D’altra parte anche Dig Comp 2.2. (marzo 22) “affronta l’interazione dei cittadini con sistemi basati su IA non sulla conoscenza tout court della stessa.
Le competenze digitali, non si possono ridurre a degli insegnamenti funzionali a singoli compiti, ma necessitano di una costante contestualizzazione culturale, politica e sociale.”

Approfondiremo ancora.