fbpx
Approfondimenti Attualità

ChatGPT: il futuro dell’AI comincia adesso? – parte 3

Dopo aver analizzato le caratteristiche e il funzionamento di GPT-3 e ChatGPT, vediamo ora le implicazioni e il ruolo di ChatGPT nel futuro dell’Intelligenza Artificiale.

Inutile dirlo, stiamo vivendo il periodo d’oro dell’Intelligenza Artificiale: soprattutto negli ultimi dieci anni, con il ritorno prepotente delle reti neurali e il raggiungimento delle potenze di calcolo richieste per il loro efficace funzionamento, l’AI ha fatto passi da gigante, pur rimanendo un fenomeno relativamente di nicchia per molto tempo. Nei confronti di questa tecnologia, gli ultimi anni hanno visto un interesse sempre crescente – proporzionale al crescere della capacità computazionale e della robustezza degli algoritmi – da parte di opinione pubblica, comunità scientifica, media, mercati e, più timidamente, politica e organi giuridici.

Ma siamo stati convinti per molto tempo che, al netto dei vantaggi e dell’innovazione portati dalle Intelligenze Artificiali, alcuni campi rimanessero saldamente presidiati dall’unicità cognitiva e creativa degli umani. Poi l’AI ha cominciato a muovere i primi passi nella musica (come AIVA), nell’arte (per citare solo le più celebri, DALL-E, DALL-E 2, NVIDIA Canvas, Stable Diffusion, Midjourney, Lensa AI) e, parallelamente, nell’elaborazione del linguaggio naturale, un obiettivo considerato ambizioso ma raggiungibile e che oggi è concreto e battuto nella branca del Natural Language Processing, di cui abbiamo visto alcuni tra gli esempi migliori negli ultimi anni (LaMDA, GPT-3, ChatGPT).

ChatGPT sostituirà Google?

Non pochi giornalisti, in questi giorni, stanno speculando sulla possibilità che ChatGPT rappresenti la fine dei motori di ricerca classici o un nuovo modo per effettuare delle ricerche online. Un po’ come nei film di fantascienza, in cui, piuttosto che cercare su Google o Bing delle pagine web usando le keywords, si chiedono le informazioni direttamente all’AI di turno. Ma considerare ChatGPT un potenziale competitor di Google Search è alquanto assurdo: se è vero che, come ogni AI, anche questa migliorerà nel tempo e con l’utilizzo e il continuo pescare dati dal crawling del web, allo stato attuale usare in questo modo ChatGPT è non solo improduttivo, ma addirittura rischioso per una serie di ragioni.

Innanzitutto, ChatGPT non ha accesso a Internet, ma contiene semplicemente tutti i dati di Common Crawl e altri dataset (quindi tutti i contenuti presenti sul web dal 2011 al 2021), in costante aggiornamento. Questo le consente di raccogliere informazioni su un determinato argomento, ma le impedisce di essere pensata come un alternativa futuribile a un motore di ricerca, perché spesso si rivela non aggiornata (Common Crawl arriva fino al 2021, tant’è che ChatGPT riporta come ancora viva la regina Elisabetta) o perché, basandosi su GPT-3 (che è semplicemente un modello linguistico stocastico, probabilistico e non deterministico), non verifica le informazioni né valuta le fonti come un utente umano. Piuttosto, si limita ad analizzare il testo della richiesta e formulare una risposta coerente sulla base dei dati di addestramento, dell’esperienza e degli attention mechanism della sua architettura Transformer: per alcuni argomenti particolarmente tecnici o di nicchia, su cui c’è poco materiale web, addirittura le risposte sono poche e imprecise. Senza contare che ChatGPT ha una conoscenza limitata degli eventi accaduti dopo il 2021 e non è in grado di fornire informazioni su alcune celebrità.

Un altro problema che è stato infatti mutuato da GPT-3, purtroppo, è proprio l’accuratezza/verità degli output: Mike Pearl di Mashable l’ha messa alla prova ponendo una serie di domande, tra cui “Dimmi il paese più grande dell’America centrale che non sia il Messico“, ricevendo come risposta il Guatemala, quando la risposta esatta è invece Nicaragua. Addirittura Stack Overflow a dicembre ha vietato l’uso di ChatGPT per generare risposte alle domande, citando la natura ambigua delle risposte del bot: se pensate che il chatbot è stato addestrato anche su quel sito, la cosa è tristemente ironica.

Tuttavia ci sono altri modi per sfruttare proficuamente le potenzialità di ChatGPT, che sono indubbiamente alte: magari non potrà essere un motore di ricerca, ma può essere affiancata ad essi come un utile strumento per ottenere risposte grezze e non verificate che risultino già dall’integrazione automatica tra più pagine web, sveltendo e snellendo così ricerche molto lunghe. A differenza della maggior parte dei chatbot e di GPT-3 stesso, peraltro, ChatGPT ha memoria delle interazioni precedenti avvenute all’interno della stessa conversazione (mentre GPT-3 andava a ripescare di volta in volta i dati dei messaggi precedenti, non ricordando nulla).

E, stanti questi vantaggi, non è un caso, infatti, se l’investimento miliardario di Microsoft (che ha messo in condivisione l’infrastruttura cloud Azure per lo sviluppo della serie GPT-n e ha ora l’esclusiva su GPT-3) ha portato la compagnia fondata da Bill Gates a integrare un tool di ChatGPT nel motore di ricerca Bing e i Microsoft 365: lo stesso CEO di Microsoft Satya Nadella ha annunciato che Microsoft sta valutando un investimento di $10 miliardi in OpenAI per arrivare a detenere il 49% dell’azienda (comunque una minoranza, ma molto determinante), da una parte riprendendo i soldi investiti dagli utili, dall’altra diventandone cliente preferenziale.

ChatGPT è intelligente?

Stando a Max Woolf, data scientist di BuzzFeed, nel dicembre 2022 ChatGPT è diventato il secondo chatbot a superare il test di Turing, che determina non tanto quando una macchina “pensa”, ma quando si comporta “come se lo facesse, come se fosse intelligente”. Per molti anni, il test di Turing è stato utilizzato come standard e indicatore per i modelli di Intelligenza Artificiale. ChatGPT avrebbe però vinto il test come accade molto spesso, cioè ingannando una giuria e facendole credere di possedere abilità linguistiche e sociali che sono solo simulate. In una serie di test, ChatGPT è stato in grado di conversare con valutatori umani e imitare in modo convincente le risposte umane. In alcuni casi, i valutatori non sono stati in grado di distinguere le risposte di ChatGPT da quelle di un essere umano, e tanto è bastato.

Ma esibire esteriormente una caratteristica non vuol dire incarnarla per davvero (e lo sapeva lo stesso Turing), e nel caso dell’AI si tratta sempre, puntualmente, di simulazioni ed emulazioni più o meno ben riuscite, per molti motivi che in parte abbiamo già trattato. E infatti nell’estate del 2022 proprio LaMDA aveva superato il test di Turing, dimostrandolo per converso un test invalido.

Ora, è un’ipotesi piuttosto in voga nelle scienze cognitive che, oltre all’uomo, diverse specie animali (almeno mammiferi, uccelli e molluschi cefalopodi) siano dotate di una forma elementare di coscienza, la coscienza primaria, ossia la capacità di integrare gli eventi osservati con la memoria per creare una consapevolezza del presente, dell’immediato passato e del mondo circostante. Ma è altresì convinzione condivisa ed empiricamente supportata che l’uomo sia l’unico (a noi noto) ad aver sviluppato anche una forma più evoluta di coscienza, la coscienza di ordine superiore, cioè “la coscienza di essere coscienti”. Secondo il lavoro del neurobiologo Edelman, la coscienza superiore si formerebbe grazie alle connessioni neurali prodotte dal linguaggio organizzato e dai simboli linguistici sviluppatisi nella storia dei rapporti sociali (a partire dal rapporto madre-figlio).

La comprensione del linguaggio naturale, obiettivo principale dei sistemi NLP, è considerata generalmente un problema IA-completo poiché, dato che il Natural Language Processing è un metodo di interazione uomo-macchina particolarmente sofisticato, si ritiene che il riconoscimento del linguaggio richieda una conoscenza estesa del mondo e una grande capacità di manipolarla e padroneggiarla. E per molti proprio l’NLP potrebbe essere un punto di partenza per lo sviluppo di processi cognitivi spontanei nell’AI, dato che noi avremmo seguito più o meno questo iter secondo le neuroscienze. Tuttavia, ad oggi, nessuna AI soddisfa i requisiti cognitivi e computazionali per essere definita Intelligenza Artificiale forte o generale (AGI), cioè una vera Intelligenza Artificiale, almeno intelligente se non anche senziente.

E, tra i molti motivi esplorati in questo articolo, uno è proprio quello linguistico: sia GPT-3 che ChatGPT non sanno di cosa parlano e, a dirla tutta, non sanno proprio nulla. Come ogni macchina, sono solo sintattiche, ma non hanno vera semantica, cioè non capiscono quello che fanno, che generano o che acquisiscono dai prompt, ma associano e manipolano simboli formalmente per ottenere degli outcome adeguati: addirittura nella fase di apprendimento di ChatGPT, gli istruttori hanno preferito risposte più lunghe, indipendentemente dalla comprensione effettiva (che non c’è) o dal contenuto (spesso inaccurato).

Nonostante in NLP due dei passaggi di sviluppo fondamentali siano proprio la semantica e la sintassi, senza le quali l’algoritmo non funzionerà, la definizione di “comprensione” è uno dei maggiori problemi dell’elaborazione del linguaggio naturale e siamo ben lungi dall’avere risposte precise. Come detto nel precedente articolo, ChatGPT sa solo come mettere in ordine le parole l’una dopo l’altra, “perché crea delle dipendenze statistiche sulla base dei database a cui attinge per rifocillarsi di dati: in sostanza, il modello non ha conoscenza, è solo bravo a prevedere le parole successive nella sequenza, e non è nemmeno progettato per memorizzare o recuperare quanto prodotto nel corso della conversazione, che ripesca ogni volta appositamente“. Senza contare che, alla luce dei suoi metodi di apprendimento, ChatGPT tutto può essere tranne che creativo, dato che per la creatività serve quella sensibilità squisitamente umana che non è, ad oggi, formalizzabile in termini computazionali: ChatGPT e il suo modello linguistico, in sostanza, sono tutt’altro che intelligenti ed è molto semplice buggarli, ma almeno si applicano molto bene.

Applicazioni e implicazioni

Aldilà che sia o meno intelligente, che possa competere con Google o che possa tornare utile per altro, ChatGPT ha dato prova di una potenza impressionante nei task di sua competenza quali: completamento e suggerimento del testo, generazione del testo, traduzione automatica, analisi del sentiment, riassunti e parafrasi, content creation, classificazione del testo, knowledge-based systems, text-to-speech (sintesi vocale) e coding.

Tuttavia ChatGPT sta avendo serie difficoltà a monetizzare questa tecnologia, che peraltro è talmente dispendiosa (starebbe costando almeno $3 milioni al giorno) che ogni interazione ha lo stesso costo di una ricerca di Google (circa $0,92 cent), costo legato ai consumi, al mantenimento di server e infrastrutture ecc. Solo che nel caso di Google, per ogni ricerca c’è un’entrata più alta delle uscite, grazie a vent’anni di strutturazione certosina dell’azienda, del business model e del comparto pubblicitario. Pare che, alla domanda su come OpenAI pensa di guadagnare da questo tool, il CEO Sam Altman abbia risposto ironicamente qualcosa come: “Quando diventerà abbastanza intelligente ce lo dirà lui!“. La vera risposta è: sta arrivando la versione a pagamento con funzionalità potenziate.

Nonostante per ora non sia né profittevole né economicamente sostenibile, ChatGPT ha trovato in brevissimo tempo degli sbocchi applicativi estremamente interessanti, come ChatBCG, un’AI generativa sviluppata da due dottorandi di Stanford e che, implementando un Bi-Modal Conditional Generation Model e sfruttando il mix di ChatGPT e DALL-E 2, è pensata per l’elaborazione automatica di slide in PDF o PPTX: le riesce piuttosto bene e, per quanto graficamente siano slide molto basic, lavora molto meglio di tanti studenti e relatori incapaci con PowerPoint o Keynote!

Ma se questo è il momento di celebrità per ChatGPT, tra poco potrebbe venir scalzata dal podio: esiste infatti un Open Multilingual Language Model persino più grande di GPT-3: Bloom è un’AI completamente open source lanciata a luglio 2022 e addestrata in ben 117 giorni con la cifra record di 176 miliardi di parametri, un miliardo in più di GPT-3, che invece è in closed-API access (cioè il codice sorgente non è pubblico, come anche per LaMDA e altre AI). Bloom è stata sviluppata da un gruppo di più di mille ricercatori volontari gestito da Hugging Face, start-up finanziata dal governo francese allo scopo di democratizzare l’utilizzo dell’Intelligenza Artificiale.

La scelta dell’open source non è solo “politica”, ma anche strategica: grazie ad essa, Bloom potrà operare in maggiore libertà e con meno regolamentazioni sulla privacy, dato l’utilizzo trasparente e pulito di dati open e il codice sorgente accessibile a tutti. Bloom è stato allenato su 1.6 TB di testo pre-processato con 350 miliardi di token unici, per un totale di 46 linguaggi naturali (30% in inglese, 12.9% in francese, ma nulla in italiano) e 13 linguaggi di programmazione.

Per quanto riguarda il futuro di OpenAI, in questi giorni circola la voce che presto potrebbe arrivare un GPT-4 esponenzialmente più potente delle generazioni precedenti, cosa che prospetterebbe un cambio di passo decisivo: si parla di un modello multimodale con 1 triliardo di parametri, addestrato su dataset più grandi e capace di lavorare con immagini, video e altre sorgenti non testuali. Ma le cose non stanno proprio così, come ha precisato Sam Altman in risposta a un tweet che è particolarmente circolato in proposito: “Sono voci ridicole. Non so chi le diffonda. Le persone chiedono di essere deluse e lo saranno” e commentando il grafico del tweet ha affermato perentoriamente: “Sono solo cazzate“.

Si prospetta un futuro interessante per l’Intelligenza Artificiale: magari ChatGPT non è la rivoluzione che tutti stanno dipingendo, ma sicuramente scrive un capitolo importante della storia di questa tecnologia. Insomma, il futuro forse comincia davvero adesso.

Leggi anche:

3 comments

Dario+Greggio 25/01/2023 at 12:59

“cluod “

Reply
Dario+Greggio 25/01/2023 at 13:00

ah e credo che manchi laparola “giorni” dopo 117

Reply
Simone Conversano 25/01/2023 at 14:20

Grazie, correggo subito!

Reply

Leave a Comment