IA e scuola. Intelligenza, apprendimento, relazione, linguaggio, valutazione

   Invia l'articolo in formato PDF   
image_pdfimage_print

di Rodolfo Marchisio

Mentre continua il marketing e l’offerta di corsi, libri, incontri sull’uso della IA nella scuola, per fortuna più alle superiori, ma sta arrivando, perché è la moda dell’anno, lasciano perplesse le modalità di questa iniezione di tecnologia, teoricamente avanzata, ma sempre in corso di approfondimento e discussione tra gli esperti; anche presunti. Dite un nome di uno che si occupi o si sia occupato della scuola e verificate se non ha già detto la sua.
Negli USA la sperimentazione nelle scuole pone diversi interrogativi simili a quelli del nostro PNRR.

Uso contro cultura.

Il problema di partenza è la modalità con cui viene proposta alla scuola. Come ogni tecnologia, insegnando (a docenti ed allievi) ad usare. Cosa fa e come si usa. Non cosa ci sta dietro, quali conseguenze può avere su di noi e sui nostri allievi, come stiamo cambiando nella relazione con le tecnologie.  Domande che ci dovremmo porre per capire.
Questo per un difetto congenito nel rapporto tecnologia/scuola e per una mancanza di chiarezza da parte delle Istituzioni. Sembra che nella vita dei nostri allievi sarà più importante saper usare che capire un po’ di più le tecnologie che già usano e che useranno sempre più. E che li stanno cambiando.

Competenza digitale. Una delle competenze chiave per l’apprendimento permanente

La competenza digitale implica l’uso sicuro, critico e responsabile delle tecnologie digitali e il loro impiego nell’apprendimento, nel lavoro e nella partecipazione alla società̀. Comprende l’alfabetizzazione all’informazione e ai dati, la comunicazione e la collaborazione, l’alfabetizzazione ai media, la creazione di contenuti digitali (compresa la programmazione), la sicurezza (compreso il benessere digitale e le competenze relative alla sicurezza informatica), le questioni relative alla proprietà̀ intellettuale, la risoluzione di problemi e il pensiero critico.” [1]
 
“L’intelligenza artificiale generativa può rappresentare un’enorme opportunità per lo sviluppo umano, ma può anche causare danni e pregiudizi – afferma Audrey Azoulay dell’Unesco – Non può essere integrata nell’istruzione senza l’impegno pubblico e le necessarie garanzie e normative da parte dei governi”. “I programmi di intelligenza artificiale generativa sono esplosi con ChatGpt che ha dimostrato la capacità di generare saggi, poesie e conversazioni con input e suggerimenti anche brevi. Molti però si sono posti fin da subito dubbi molto radicali”.
In una nuova guida per i governi l’organismo educativo delle Nazioni Unite avverte che “le autorità pubbliche non sono pronte ad affrontare le questioni etiche legate all’introduzione di programmi di IA nelle aule”. ANSA
Diciamo che sia l’IA che la sua utilità ed i suoi rapporti, specie con l’apprendimento e la formazione, sono complessi.

E i docenti?

Aggiunge l’esperta: “Anche se il 90% delle scuole ha attivato percorsi di formazione ai docenti per l’utilizzo degli strumenti digitali, nella gran parte delle scuole almeno la metà dei docenti non si sente a proprio agio nell’utilizzo delle nuove tecnologie. È un segnale di come oggi la formazione del personale scolastico sia poco efficace.”

 I A e I. Umana

Abbiamo già ricordato che esistono più di 50 definizioni di intelligenza umana e sviluppi diversi di Intelligenze Artificiali.
“Sebbene gli agenti di IA siano in grado di ragionare su problemi molto complessi, non pensano nel modo in cui lo fa l’uomo[2]. L’intelligenza artificiale può avere impatti sia positivi che negativi sulla società. Le tecnologie di IA stanno cambiando il modo in cui noi lavoriamo, viaggiamo, comunichiamo e ci prendiamo cura gli uni degli altri. Tuttavia, dobbiamo essere consapevoli dei danni che possono potenzialmente verificarsi. Per esempio, i pregiudizi nei dati utilizzati per addestrare un sistema di IA potrebbero portare alcune persone ad essere trattate in modo peggiore rispetto ad altre. Perciò, è importante discutere degli impatti che l’IA sta generando nella nostra società e sviluppare criteri per il design etico e per la diffusione dei sistemi basati sull’IA.” AI4K12.org[3]

Per fare cosa

Un difetto della scuola italiana, voluto dai ministri che l’hanno “governata”, è quello di attribuire proprietà taumaturgiche alle tecnologie, per non analizzare ed affrontare i problemi che la scuola evidenzia (dalla disoccupazione – Buona scuola – alla IA). Dalla dispersione scolastica alle prove Invalsi: sono sempre di più, gli strumenti di AI al servizio di docenti e studenti. Ma c’è bisogno di più cultura sul tema, dice Chiara Panciroli. Prima di usarli, prima addirittura di ipotizzare per cosa usarli, bisogna anzitutto conoscere questi strumenti. Capire come funzionano, quali sono le loro potenzialità e (soprattutto) quali sono i loro limiti. Ma anche evitare di considerarli una scatola nera che processa chissà come un input e restituisce un certo output.

Quali tipi di relazioni

  • La relazione che si instaura con forme di IA è non solo di tipo razionale è anche emotiva.
  • L’intelligenza non è di un tipo solo (Gardner) e non è solo di tipo logico deduttivo (Penge).
  • È fortemente intrecciata con l’ambiente, la sfera emotiva, le relazioni (Penge, Goleman)
  • L’insieme di relazioni e di ambienti in cui viviamo è più complessa di come viene presentata. Non è solo un algoritmo, è un cambiamento nella nostra vita che dovremmo capire meglio.
  • Occorre riflettere sul rapporto Intelligenza – apprendimento, perché sinora gli strumenti di IA cercano di imitare l’intelligenza umana soprattutto dal punto di vista logico-deduttivo e non sono (ancora?) in grado di riprodurre la complessità delle dinamiche di apprendimento o rischiano di renderlo algoritmico, impoverendolo. Possono leggere Gardner e Goleman ma non sono in grado di funzionare con gli allievi in modo conseguente.
    Come alcuni di noi.
  • Allora più spesso vengono proposte per colmare lacune cognitive, anche attraverso materiali didattici, oppure per valutare, ma dubito che capirebbero la complessità del dibattito sulla valutazione formativa e sulle conseguenze della scelta tra i due tipi di valutazione. Con buona pace del Ministro Valditara.
  • Quasi tutti gli esperti pongono attenzione a problemi come la privacy, la sicurezza e soprattutto il controllo. Chi è in grado a scuola di controllare e correggere eventuali errori di un programma di IA quando gli oligopoli che la producono si stanno preoccupando loro di come faranno a controllarla quando sarà più intelligente di noi?
    Problemi di scelte ed “etici”? Problemi di formazione, cultura e cittadinanza.

Quali relazioni. Un esempio. Perché siamo gentili con ChatGPT?[4]

Quali sono le conseguenze della costante interazione con le intelligenze artificiali sul nostro modo di comunicare? Si inizia a fare luce sulla cortesia verso le chatbot e non solo.

“Ciao ChatGPT, per favore potresti fare una cosa per me?”. “Ogni volta che mi interfaccio con il Large language model di OpenAI per sbrigare qualche faccenda di lavoro… mi viene istintivamente, senza pensarci, da essere gentile con lui (nella mia mente, ChatGPT è di genere maschile)”. Wired, Signorelli.
Secondo un sondaggio informale su X circa il 70% delle persone trova almeno “abbastanza difficile” essere maleducati con ChatGPT, mentre solo il 16% lo trova “abbastanza facile” (il restante 14% non lo utilizza). Ibidem.

 Spiegazione ironico-emotiva
“Visto che un giorno diventeranno coscienti e si trasformeranno nei nostri padroni, spero che le intelligenze artificiali si ricorderanno di chi è stato gentile con loro.

Spiegazione tecnica
Ci sono parecchi studi che confermano come trattare bene ChatGPT e i suoi simili – dirgli di “fare pure con calma” o addirittura di “pensare bene” prima di dare una risposta – permetta di ottenere risultati migliori (la spiegazione di questo strano fenomeno, che potete trovare qui, è purtroppo esclusivamente tecnica).

Il giornalista tecnologico David Futrelle sul suo blog, riportando anche il parere della ricercatrice Jenna Burrell, sottolinea che “è molto più salutare pensare a essi come a degli strumenti che come a persone”. Notiamo anche che spesso tendiamo ad “umanizzare” tecnologie quando sono diverse da noi (chi dà un nome all’auto o al robottino che spazza e parla loro), ma forse lo saremo meno quando saranno umanoidi. Timore della competizione? Wired.
“Come già sta avvenendo in parecchi altri campi, l’impressione è insomma che non siamo noi che stiamo insegnando alle intelligenze artificiali a parlare o scrivere come esseri umani. Sono loro che stanno addestrando noi a comunicare come delle macchine.” Signorelli, Wired.

Conclusione

Non siamo andati fuori tema. Vogliamo dire che la relazione che instauriamo con le tecnologie che ci servono ci modificano anche, sono molto varie e riguardano la sfera razionale e cognitiva, ma anche quella dei rapporti, delle emozioni, del linguaggio e delle scelte come cittadini.
Questo dovrebbe indagare la ricerca ed a questo dovrebbe formare la scuola. Prima di tutto.

[1] (Council Recommendation on Key Competences for Life-long Learning – Raccomandazione del Consiglio sulle competenze chiave per l’apprendimento permanente, 22 maggio 2018)
[2] Cosa sulla quale gli esperti non hanno le idee chiare e posizioni coerenti
[3] https://ai4k12.org/
[4] https://www.wired.it/article/chatgpt-chatbot-buone-maniere/