Intelligenza artificiale, chatGPT e l’inafferabilità dell’umano

   Invia l'articolo in formato PDF   
image_pdfimage_print

Aluisi Tosolini
Coordinatore del comitato scientifico Casco Learning

n questi ultimi mesi il dibattito sull’Intelligenza artificiale si è accesso con una fortissima fiammata che ha coinvolto anche l’opinione pubblica “generalista”, i quotidiani, le televisioni, i settimanali, e le radio.
Al centro del dibattito ChatGPT, il chatbot promosso da OpenAI e basato su intelligenza artificiale, lanciato il 30 novembre 2022 ha raggiunto un milione di utenti in 5 giorni e chiunque voglia può sperimentarlo, previa iscrizione partendo dall’ indirizzo https://chat.openai.com/chat .

Prima di ragionare sulle ricadute educative è bene cercare di capire bene di che cosa si tratta.
Proviamo a farlo con alcuni rapidi passaggi e link per l’approfondimento.

Che cos’è un chatbot?

La prima cosa da chiedersi è che cos’è un chatbot.

La definizione offerta da Oracle è la seguente: software che simula ed elabora le conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale. I chatbot possono essere semplici, come i programmi rudimentali che rispondono a una semplice interrogazione (query) con una singola riga, oppure sofisticati come gli assistenti digitali che apprendono e si evolvono per fornire livelli crescenti di personalizzazione quando raccolgono ed elaborano le informazioni.
Guidati da Intelligenza Artificiale (AI), con regole automatizzate, elaborazione in linguaggio naturale (NLP) e machine learning (ML), i chatbot elaborano i dati per fornire risposte a richieste di ogni tipo.

Sempre Oracle ne distingue due tipologie

  • dichiarativi: dedicati ad attività molto specifiche
  • predittivi: basati sui dati di conversazione

sottolineando i limiti e le potenzialità di ognuno e ribadendo l’importanza di una buona messe di dati e di una AI il più possibile evoluta per il loro funzionamento ottimale.

La stessa Oracle (ma è solo un esempio tra i tanti) propone anche un percorso di accompagnamento finalizzato alla costruzione e implementazione di un chatbot.

Da dove viene ChatGPT ?

Cerchiamo di spiegarlo con le parole chiarissime di Paolo Benanti:ChatGpt è un prototipo di chatbot basato su intelligenza artificiale e machine learning sviluppato da una realtà specializzata nella conversazione della macchina con utente umano (OpenAI, appunto). ChatGpt appartiene a una famiglia di intelligenze artificiali basate sul machine learning utilizzando una tecnica di deep learning nota come transformer, che consiste nell’utilizzare una rete neurale per analizzare e comprendere il significato di un testo. Nello specifico, ChatGpt fa parte della famiglia degli InstructGpt, modelli formati tramite deep learning ma poi ottimizzati tramite il rinforzo umano”.

Aggiungiamo anche una spiegazione riferita al deep learning che viene così definito, ad esempio, da bigdata4innovation.itun apprendimento automatico e gerarchico, un segmento della branca di machine learning e artificial intelligence (AI) che imita il modo in cui gli umani acquisiscono alcune tipologie di conoscenza. Si tratta di un metodo ad hoc di machine learning che ingloba reti neurali artificiali in strati successivi per apprendere dai dati in maniera iterativa. Dunque, il deep learning è una tecnica per apprendere esponendo le reti neurali artificiali ad ampie quantità di dati, in modo da imparare a eseguire i compiti assegnati.

Di chi è ChatGPT ?

La società OpenAI è stata fondata nel 2015 da Elon Musk e Sam Altman: Successivamente Musk si fece da parte per il rischio di conflitto di interessi a partire dall’utilizzo di una intelligenza artificiale proprietaria correlata alla guida automatica delle auto Tesla. Secondo voci giornalistiche Microsoft sarebbe pronta ad acquistare il 49% della società investendoci circa 10 miliardi di dollari per rilanciare così anche il suo motore di ricerca Bing.

Come funziona ChatGPT e cosa produce

Molto semplicemente: io faccio domande e lui risponde con un testo più o meno articolato (si può chiedere un testo più o meno lungo, più o meno approfondito).
Per chi volesse farsi una idea generale consiglio un articolo di Wired che costituisce un’ottima presentazione di ChatGPT

I giornali italiani si sono sbizzarriti a riportare le risposte più o meno corrette e precise del chatbot GPT sottolineando in sostanza che

  1. si tratta di risposte più o meno precise a seconda dell’argomento e quindi anche delle conoscenze che il chatbot ha acquisito (va comunque detto che interrogandolo lo si “allena” e quindi proprio l’uso migliora il suo rendimento)
  2. attualmente le risposte sono sostanzialmente simili ad un bignami
  3. il testo di risposta dipende molto dalla precisione e dalle tipologia della domanda (il prompt). Ad esempio, a richiesta, può scrivere diverse tipologie di poesie sullo stesso tema ed assumendo stili diversi (stile Montale, stile Ungaretti, stile Petrarca, ecc).
  4. ChatGPT rischia di mandare in soffitta molti lavoratori della comunicazione perché in sostanza confeziona articoli, relazioni, presentazioni, testi, temi, scrittura di contenuti per il web, … Sui rischi e sulle conseguenze per il mondo giornalistico e della scuola consiglio lo stupendo podcast prodotto dalla Rai, il n. 7 della serie Codice Beta con l’intervista a Michele Mezza.

Il collega Di Terlizzi ha chiesto a ChatGPT di spiegare in quali situazioni un testo scritto da un essere umano può essere considerato superiore a un testo generato da un modello di IA come ChatGPT.
Ecco la risposta: “Un testo scritto da un essere umano può essere più originale e creativo, mentre i modelli di IA spesso generano testi basati sui dati di addestramento che hanno visto. Un testo scritto da un essere umano può essere più adattato alle esigenze specifiche del lettore o del contesto, mentre i modelli di IA spesso generano testi basati sui dati di addestramento che hanno visto.
Un testo scritto da un essere umano può essere più attento alle questioni sociali, etiche e culturali, mentre i modelli di IA spesso generano testi basati sui dati di addestramento che hanno visto.
Un testo scritto da un essere umano può essere più efficace nel comunicare emozioni, sentimenti e toni, mentre i modelli di IA spesso generano testi basati sui dati di addestramento che hanno visto.
In generale, i modelli di IA come ChatGPT sono molto potenti per generare testi di alta qualità e possono essere utilizzati per generare testi in molti campi. Tuttavia, ci sono alcune situazioni in cui un testo scritto da un essere umano può essere preferibile perché è più originale, creativo e adattato alle esigenze specifiche del contesto”.

Che dire…. non male.

Continuando “il dialogo”, assieme  a Di Terlizzi abbiamo chiesto a chatGPT di fornire i riferimenti delle sue affermazioni. Ecco la (strabiliante) risposta:

  1. “Generative Pre-training for Language Understanding” di Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei e Ilya Sutskever. Questo articolo introduce un modello di generazione di testo chiamato GPT (Generative Pre-trained Transformer) e mostra come esso può essere utilizzato per una varietà di compiti di generazione di testo.
  2. “Language Models are Unsupervised Multitask Learners” di Alec Radford, Karthik Narasimhan, Tim Salimans e Ilya Sutskever. Questo articolo mostra come i modelli di linguaggio possono essere utilizzati per una varietà di compiti di generazione di testo e di comprensione del linguaggio.
  3. “Fine-Tuning Pre-Trained Language Models for Domain-Specific NLP Tasks: A Survey” di Jieyu Zhao, Jing Liu, Xipeng Qiu, Xuedong Huang. Questo articolo fornisce una panoramica delle tecniche utilizzate per adattare i modelli di linguaggio pre-addestrati per compiti specifici del dominio.
  4. “Exploring the Limits of Language Modeling” di Tom Brown, Benjamin Mann, Nick Cammarata, Christopher Hesse, Mark Chen, Eric Sigler, Ryan Sepassi, Noam Shazeer, Alexander Alemi. Questo articolo analizza i limiti dei modelli di generazione di testo e le sfide future per lo sviluppo di questi modelli.
  5. “Human-like Text Generation” di Yizhe Zhang, Siqi Sun, Michel Galley, Chris Brockett, Xiang Gao, Jianfeng Gao. Questo articolo esplora le tecniche utilizzate per generare testi che si avvicinano al modo in cui scrivono gli esseri umani.

Spero che questi riferimenti bibliografici ti siano utili nella tua ricerca.

Ovviamente i riferimenti potrebbero essere errati e cosi ho provato a vedere se i riferimenti sono reali e ho trovato pronta ed immediata conferma. Esemplifico con i link agli articoli citati 1; 3 e 5. Ovviamente per me studi completamente incomprensibili !

OpenAI e Google: rischio disruption ?

Nell’economia (digitale e non solo) si parla di Disruptive innovation per indicare le innovazioni che cambiano radicalmente ed alla massima velocità un mercato mandando in soffitta aziende affermate.
Secondo molti chi ha più da temere da OpenAI è proprio Google. La differenza sostanziale è la seguente: io faccio la stessa domanda a tutti e due i servizi ma mentre ChatGPT mi risponde fornendomi una risposta in sé già completa (per quanto semplice e da verificare nella sua correttezza)., google mi fornisce un elenco di link che considera pertinenti. Ovviamente anche Google ha una sua intelligenza artificiale e potrebbe benissimo fare la stessa cosa che fa OpenAI solo che….. se lo facesse il suo modello di business salterebbe per aria. Google infatti guadagna con la pubblicità connessa alle ricerche on line. Scrive Paolo Benanti: “se un chatbot risponde alle domande con frasi stringate, le persone hanno meno motivi per cliccare sui link pubblicitari. Circa l’81% dei 257,6 miliardi di dollari di entrate di Google nel 2021 proveniva dalla pubblicità, in gran parte dagli annunci pay-per-click”.
Chi volesse ulteriormente approfondire questo aspetto può leggere l’interessante analisi di Ignacio De Gregorio intitolata emblematicamente “Can chatgpt kill google?

Rischi, opportunità, limiti, valutazioni

Tra i moltissimi commenti ho letto con grande interesse e divertimento l’articolo del filosofo Ian Bogost intitolato Una chiacchierata artificiale e pubblicato in italiano da Internazionale nel numero del 16 dicembre 2022.
Bogost evidenzia tutti i limiti di chatGPT e del modello di intelligenza artificiale sotteso riassumendo la sua valutazione nella seguente affermazione: “Forse ChatGpt e la tecnologia alla sua base non riguardano tanto la scrittura persuasiva, quanto l’abilità di dire cazzate in maniera superba. Un ciarlatano manipola la verità con cattive intenzioni, cioè per ricavarci qualcosa. La reazione iniziale a ChatGpt è più o meno quella che si ha davanti a un ciarlatano: si presume che sia un arnese progettato per aiutare le persone a cavarsela con una tesina per la scuola, un articolo di giornale e via discorrendo. È una conclusione facile per chiunque pensi che l’intelligenza artificiale sia progettata per sostituire la creatività umana e non per esaltarla.
E ancora: “L’intelligenza artificiale non capisce né può comporre uno scritto, ma offre uno strumento per scandagliare il testo, per giocarci, per modellare una quantità infinita di frasi relative a un’ampia gamma di ambiti – dalla letteratura alla scienza fino agli insulti su internet – plasmandole in strutture in cui possano essere posti nuovi interrogativi e, occasionalmente, prodotte alcune risposte”.

Algoretica

Non va poi taciuto l’aspetto etico della questione.

Paolo Benanti, francescano che insegna alla Pontificia Università Gregoriana, scrive: “Gli effetti e il potere di questo nuovo Bignami degli anni 20 di questo secolo può farne non solo uno strumento che rispecchia nei risultati il senso comune ma il vero nuovo produttore dell’opinione pubblica. La sfida è lanciata. Troverà l’algoretica uno spazio in questa battaglia? Un tema del quale si è discusso in questi giorni in Vaticano per la firma della «Rome Call for AI Ethics», documento sottoscritto dalle tre religioni abramitiche, curato dalla Fondazione RenAIssance e promosso dalla Pontificia Accademia per la Vita: «Si tratta di vigilare e di operare affinché non attecchisca l’uso discriminatorio di questi strumenti a spese dei più fragili e degli esclusi», ha detto il Papa ai partecipanti all’incontro (tra loro Brad Smith, presidente di Microsoft, e Dario Gil, vicepresidente globale di Ibm), auspicando che «l’algoretica, ossia la riflessione etica sull’uso degli algoritmi, sia sempre più presente, oltre che nel dibattito pubblico, anche nello sviluppo delle soluzioni tecniche”.

E su questo tema non si può non rimandare a tutti gli studi di Luciano Floridi (si veda il suo ultimo volume Etica dell’intelligenza artificiale Sviluppi, opportunità, sfide) e al suo impegno a livello istituzionale con l’Unione Europea per definire nuovi standard per l’intelligenza artificiale.

ChatGPT e la scuola

Ovviamente non potevano mancare articoli più o meno allarmati sulle ricadute scolastiche di ChatGPT.
Il dibattito italiano, dopo un primo articolo su Tecnica della scuola, è proseguito, con scarsissima fantasia, recuperando articoli ed esperienze statunitensi e canadesi piuttosto preoccupate per il rischio, in sostanza, di copiatura da parte degli studenti.

Rischio decisamente ridicolo per due diversi ordini di motivi:

  1. Il primo, che è anche alla base di un interessante articolo di Kevin Roose pubblicato dal New York Times il 14 gennaio 2023, è che vietare l’uso di chatGPT a scuola è assolutamente inutile: si tratta piuttosto di utilizzarlo come banco di prova,  come sfida. L’articolo si conclude così: “I grandi modelli linguistici non diventeranno meno capaci nei prossimi anni”, ha dichiarato Ethan Mollick, professore alla Wharton School dell’Università della Pennsylvania. “Dobbiamo trovare un modo per adattarci a questi strumenti, non solo per vietarli”.
    Questa è la ragione più importante per non bandirli dalle aule, perché gli studenti di oggi si diplomeranno in un mondo pieno di programmi di intelligenza artificiale generativi. Dovranno conoscere questi strumenti, i loro punti di forza e di debolezza, le loro caratteristiche e i loro punti deboli, per poter lavorare al loro fianco. Per essere buoni cittadini, avranno bisogno di un’esperienza pratica per capire come funziona questo tipo di I.A., quali tipi di pregiudizi contiene e come può essere usato in modo improprio e come arma.
    Questo adattamento non sarà facile. Raramente i cambiamenti tecnologici improvvisi lo sono. Ma chi meglio dei loro insegnanti può guidare gli studenti inquesto nuovo mondo?”
  2. Il secondo è ben messo in risalto da Ian Bogost quando scrive, irridendo buona parte del sistema di valutazione statunitense ma anche italiano: “che senso ha preoccuparsi del destino di esami basati sugli elaborati da scrivere a casa? È un formato stupido che tutti detestano, ma che nessuno ha il coraggio di abbandonare. …Certo, possiamo approfittare di tutto questo per barare a scuola o per ottenere un lavoro con l’inganno. È quello che farebbe una persona noiosa, e quello che un computer si aspetterebbe. I computer non sono mai stati strumenti della ragione capaci di risolvere problemi spiccatamente umani. Sono apparecchi che strutturano l’esperienza umana attraverso un metodo peculiare e molto potente di manipolazione dei simboli. Questo li rende oggetti estetici tanto quanto funzionali. Gpt e i suoi cugini ci offrono l’occasione di prenderli per quello che sono e usarli non tanto per svolgere determinati compiti, ma per giocare con il mondo che hanno creato. O meglio, per distruggerlo”. Per inciso sottolineo qui la “vetustità” – per essere gentili dell’armamentario docimologico e valutativo della scuola italiana.

E quest’ultima riflessione di Bogost mi riporta ad un messaggio whatsapp di Piervincenzo Di Terlizzi che in modo lapidario mi ha scritto: A me (chatGPT) interessa perché la vedo come un asintoto. Più si affina in quello che noi pensiamo originalmente umano, ma che è in realtà deposito formulare, più l’umano, secondo me, brilla nella sua inafferrabilità.

Piervincenzo è un grecista, dirige l’istituto professionale e tecnico Zanussi a Pordenone, e la sua affermazione fa il paio con la conclusione dell’ultimo libro di Kevin Roose. Kevin Roose infatti che sostiene che “le persone possano prosperare nell’era delle macchine ripensando il loro rapporto con la tecnologia e rendendosi insostituibilmente umane”.

Ecco la sfida della scuola: insegnare alle persone a rendersi insostituibilmente umane, facendo brillare proprio la specificità e l’inafferabilità dell’umano.