La civiltà senza estendendo il numero di operazioni importanti che possiamo effettuare senza pensarci.
Alfred North Whitehead
In un articolo apparso su questo blog il 14 febbraio, abbiamo dato spazio ad una nostra nuova conoscenza di presentare la festa di San Valentino. L’articolo era firmato da ChatGPT, un’intelligenza Artificiale sviluppata da OpenAI, azienda americana specializzata del settore.
Sebbene l’utilizzo di questo strumento sia esploso dalla prima volta in cui ci abbiamo interagito, in linea di principio OpenAI ha una versione gratuita che tutti possono utilizzare, recandosi alla pagina web preposta mediante il link postato sopra e provare ChatGPT in prima persona, per esempio ponendo la domanda “Dimmi qualcosa sul giorno di San Valentino in circa 30 righe di testo e con un tono giocoso.”, che è ciò che abbiamo chiesto noi per ottenere il nostro articolo precedente, che è firmato da ChatGPT.
Che cos’è un Large Language Model (LLM)?
Il divertimento non finisce qui. ChatGPT è un’estrapolazione di un LLM (Large Language Model) addestrato ed ottimizzato su milioni di pagine web e su molti manuali, specialmente manuali di linguaggi di programmazione, così che padroneggia molta della conoscenza condivisa su internet in forma scritta.
Che cosa significa tutto ciò? Cosa significa conoscere?
Un LLM è un membro di una classe di algoritmi matematici meglio conosciuti come Reti Neurali. Molto approssimativamente, si tratta di strutture matematiche con una quantità enorme di parametri, che possono essere regolati. Il vantaggio di questi rispetto ad altri tipi di programmi, che conferisce loro la flessibilità e la capacità di individuare strutture non banali che li hanno resi così popolari, è che la regolazione è effettuata esponendo direttamente queste strutture a dati opportunamente pre-formattati e che riguardano il mondo reale. Ho raccontato qualcosa in più a tal proposito quando ho brevemente descritto la presentazione di Patrice Kiener nel primo incontro della comunità R+, di cui ho scritto qui.
Per farla breve: i dati su cui viene addestrato un LLM (e quindi ChatGPT) sono testi scritti da esseri umani. Il programma effettua una vera e propria lettura, nonché un’organizzazione, del contenuto di milioni di pagine internet su ogni argomento immaginabile, ivi compresa la documentazione dei linguaggi di programmazione, ed impara a predire la parola successiva in una frase in un modo che è simile a ciò che gli umani fanno con il proprio cervello.
Quest’ultima affermazione non è esattamente corretta, ma lo è abbastanza per i compiti intellettuali di livello medio-basso, con cui ci riferiamo agli atti di intelligenza verbale che non richiedono quantità significative di creatività e di pensiero fuori dagli schemi.
ChatGPT eccelle ad apprendere a memoria ed ha già passato molti test di livello universitario. Le sue capacità includono la riorganizzazione di ciò che ha appreso in un linguaggio scritto su misura della domanda posta dall’utente finale. Se ciò significhi anche che la nostra istruzione universitaria sia compromessa e che agli studenti sia richiesto di riempire le proprie teste di nozioni pre-confezionate, invece di dar prova di abilità genuinamente umane nella soluzione di problemi che si incontrano nel mondo reale, è un argomento su cui si può dibattere.
Il fatto che un tale traguardo sia, ad oggi, unico nel suo genere per un computer resta vero.
Mietere informazione navigando sul web: che cosa sa ChatGPT di Dentoni?
Parlare di tutto ciò in astratto non fa giustizia alla magnificenza dell’impresa firmata OpenAI. Molto meglio offrire un esempio della performance del modello in un breve dialogo reale, perciò eccovi ChatGPT mentre risponde ad una domanda di Mirko su Dentoni (in inglese, per evitare le fluttuazioni nelle risposte che sono causate dalla casualità che è insita in ChatGPT):

Ed ecco una contro-domanda, sull’ossessione personale di Mirko:

Come potete vedere con i vostri occhi, il programma sa davvero poco sulla nostra azienda; peraltro, ciò che ne sa è mescolato con delle nozioni che riguardano altre pasticcerie. Sicuramente non può aver appreso da nessuna parte una nozione come il fatto che siamo aperti dal 1820, perciò questa informazione deve necessariamente provenire da un uso scorretto di altre informazioni raccolte in giro per la rete.
Questo è un indizio che possiamo utilizzare per spiegare brevemente in che modo l modello funzioni. Le poche righe che stiamo per buttare giù sono -necessariamente, per un blog di questo tipo- una vera ingiustizia, se paragoniamo il loro misero contenuto allo sforzo portentoso che è stato speso per creare il modello, ma forniranno al lettore interessato un’intuizione basilare, partendo da un esempio molto concreto e facile da ricordare.
Algoritmi di predizione verbale sequenziale: in che senso ChatGPT “sa” cosa dice?
Il titolo di questa sezione contiene l’intuizione basilare per comprendere i meccanismi dietro le quinte di ChatGPT. Nella sua essenza nuda e cruda, si tratta di uno strumento statistico estremamente sofisticato che è capace di fare quanto segue:
- Prendere un testo fornito come input e suddividerlo in unità che vengono ordinate in funzione della loro importanza rispetto al contesto generale del testo, che viene determinato mediante un’analisi ricorsiva del suo contenuto, ad esempio identificando le parole che compaiono con maggiore frequenza.
- Assemblare dati provenienti dalla collezione messa insieme durante la fase di addestramento, che includeva centinaia di gigabytes ti testo raccolti dappertutto e arricchiti da input umano, strutturandoli successivamente in ordine di rilevanza rispetto al testo inserito dall’utente.
- Usare questi dati per generare una risposta, che viene emessa parola per parola, utilizzando un’analisi statistica per valutare, per ogni parola, la più probabile parola che la debba seguire.
Se suona sofisticato, è perché lo è. E non è affatto perfetto, nella misura in cui si possa definire “perfetto” un qualunque testo prodotto da esseri umani. Difatti, la natura statistica dell’approccio alla conoscenza di ChatGPT è evidente dalla risposta fornita alla domanda di Mirko sulla Pasticceria Dentoni: contiene informazioni vere mescolate ad affermazioni decisamente false.
Al nocciolo della questione, la ragione di ciò è che la quantità di informazione su piccole aziende che si può trovare sul web è piuttosto scarsa. Poiché ChatGPT (e l’Intelligenza Artificiale in generale) non separa i concetti l’uno dall’altro nel modo in cui lo fa un essere umano, un problema su cui torneremo nel prossimo post su questo blog), è semplicemente naturale che l’algoritmo integri questa informazione scarsa con qualcosa che gli assomiglia e che sembra possa incrementare la rilevanza della risposta, probabilisticamente.
Per fornire un controesempio al nostro ragionamento, si legga al risposta di ChatGPT ad una domanda sul miglior ristorante al mondo:

Molto più accurato, vero…? Sa perfino del piatto più famoso di Bottura, senza che gli sia neppure richiesto, mentre non ha la minima idea sulla nostra Torta di Crêpes, anche se glielo si chiede esplicitamente.
E si capisce il perché: la location di Bottura è uno dei ristoranti migliori e più pubblicizzati al mondo, quindi esistono molte più pagine web che lo discutono e, per questo, molti più dati su cui la rete ChatGPT ha la possibilità di regolare i pesi statistici della propria rete neurale.
Come potrebbe cambiare il lavoro basato sulla conoscenza a causa di ChatGPT?
Per quanto la conoscenza di ChatGPT possa essere sfocata ed imprecisa, se la si interroga su dei dettagli specifici di questo mondo, il fatto che risponda correttamente a un’enormità di domande basilari e possa scrivere articoli su qualsiasi argomento di cultura generale o anche specialistica nel giro di pochi minuti (e incoraggio chiunque stia leggendo a provare da sé) è una potenziale rivoluzione all’orizzonte. Ed una rivoluzione pericolosa almeno sotto un aspetto specifico, per capirci.
Ci vogliono pochi secondi di riflessione per notare che quasi tutto il presente lavoro basato sulla conoscenza umana ma consistente in attività non creative e ripetitive sia candidato ad essere spazzato via dall’evoluzione di questo genere di tecnologia. Eserciti di persone che compilano moduli tutto il giorno in lavori di amministrazione saranno potenzialmente rimpiazzati da una manciata di loro, preposti a supervisionare il lavoro dell’IA che effettua questi compiti molto più efficientemente e rapidamente di quanto possa fare qualsiasi essere umano. Tutto ciò che sarebbe necessario per arrivarci sarebbe di addestrare l’IA su quantità notevoli di dati specializzati, facendo in modo che questa fase di addestramento sia supervisionata da esseri umani competenti, per assicurare la correttezza dell’addestramento.
Gli operatori dei servizi clienti bassati sulla messaggistica tramite Whatsapp, che è già automatizzata tramite dei robot più primitivi di ChatGPT dalle aziende che forniscono servizi altamente standardizzati, potrebbero essere spazzati via con la medesima facilità.
Anche il lavoro di revisionare gli articoli accademici potrebbe cambiare drammaticamente: un primo passo per rifiutare un articolo potrebbe essere il tentativo di generare i suoi contenuti con un tale modello di IA addestrato su milioni di articoli sulla materia in questione. Ciò potrebbe, di fatto, avere effetti anche benefici, permettendo alla comunità di sbarazzarsi di pappagalli e copioni senza originalità, alleviando in parte la piaga che affligge da decenni il mondo universitario.
Perfino i cassieri potrebbero essere rimpiazzati da una combinazione di casse automatiche e di un’intelligenza artificiale basata su un LLM, che fornirebbe al cliente tutte le informazioni che potrebbero essere richieste prima di procedere all’acquisto.
Non c’è dubbio che viviamo in tempi molto interessanti, dal punto di vista dello sviluppo della tecnologia. Come ho argomentato altrove , questo non è necessariamente un bene, per il nostro benessere: non siamo programmati per tenerne a bada gli effetti collaterali più preoccupanti, perché siamo evolutivamente inclini ad lasciarci andare agli accessi resi possibili dall’abbondanza; ma abbondanza non fa rima con felicità e godimento.
Con tutto ciò, non c’è assolutamente nulla che si possa fare per chiamarci fuori dal gioco, perlomeno nella misura in cui le nostre vite ci richiedono di essere coinvolti nella società,. La tecnologia non è una forza che si possa combattere, perché acquisisce velocità -indipendentemente dal suo potenziale di perturbazione- a causa degli alti livelli di adozione individuale, motivati dall’accresciuto vantaggio che ciò porta nell’immediato alle vite di chi la adotta.
Detto in parole povere: tutti acquistano un telefono per la comodità indiscutibile che comporta nella vita individuale; muoviamo avanti l’orologio di vent’anni, mezzo mondo è dipendente dal telefonino, spesso ne è schiavo. Ma si provi, adesso, a tornare indietro! La tecnologia prospera sull’asimmetria temporale della diffusione delle abitudini nei sistemi complessi umani: una volta diffusa, non la si può più espungere.
È una forza con cui vanno fatti i conti!
Per quanto piccoli siamo su scala mondiale, la nostra azienda sta investendo pesantemente in tecnologia, progressivamente automatizzando tutto ciò che sia possibile automatizzare, dalla presa ordini da asporto, alle casse self-service di ultima generazione, fino alle macchine per la produzione di pasticcini controllate tramite computer, del tipo 4.0.
Il lavoro umano qualificato diventa sempre più difficile da reperire, soprattutto per attività stagionali, ma un bilancio positivo a fine annata è necessario oggi come ieri, per restare in campo.
La tecnologia, pertanto, è sempre di meno una scelta.
Mirko Serino e Francesco Panarese