Quantcast

Quando l’intelligenza artificiale arriva a ChatGPT che capisce molto il mondo

In questi giorni si parla spesso di ChatGPT. Nell'intervista il professor Luca Mari racconta cosa sta cambiando grazie a questo strumento che sviluppa 200 miliardi di numeri nella sua configurazione

Generico 02 Jan 2023

«Cambiamenti che nel passato richiedevano secoli oggi si realizzano in anni: il libro “Superintelligenza: tendenze, pericoli, strategie” di Nick Bostrom, pubblicato nel 2014 da Boringhieri, riporta una stima secondo cui per raddoppiare il valore dell’economia planetaria erano necessari 200’000 anni nelle società di cacciatori-raccoglitori, 1’000 anni nelle società di agricoltori, e meno di 10 anni oggi, con il risultato che, almeno in certi contesti, troviamo più sorprendente la stabilità del cambiamento. Ma ammetto che anche solo poche settimane fa non avrei creduto di poter conversare con un’entità artificiale come ho fatto in questi giorni».

Luca Mari è professore ordinario di scienza della misura presso l’Università Carlo CattaneoLIUC di Castellanza, dove tiene corsi di scienza della misura e analisi statistica dei dati, teoria dei sistemi e pensiero digitale. Da anni si interessa di intelligenza artificiale, e lo abbiamo sentito per parlare di ChatGPT.

“ChatGPT è una rete neurale artificiale, progettata da OpenAI e addestrata su una grande quantità di dati testuali per essere in grado di dialogare con esseri umani in un linguaggio naturale, come l’italiano o l’inglese. Si tratta di una variante di GPT-3 (Generative Pre-training Transformer), una rete neurale di straordinaria complessità – il suo comportamento è caratterizzato da circa 200 miliardi di parametri numerici – sviluppata per l’elaborazione di linguaggio naturale, in inglese Natural Language Processing, NLP. In modo spesso notevolmente efficace, GTP-3 compie attività linguistiche come riassumere o tradurre testi, ma anche generare contenuti originali sulla base di richieste specifiche”.

Lei invece come lo definirebbe?

«La cosa che trovo sorprendente è che ChatGPT è il primo chatbot che dialoga e argomenta in modo spesso indistinguibile da un essere umano. Se posso permettermi di parlare di sistemi artificiali usando termini che abitualmente applichiamo a entità senzienti, siamo ormai abituati a sistemi che sanno risolvere problemi specifici meglio di noi, come è il caso dei programmi che giocano a scacchi e da tempo battono anche i migliori giocatori umani, e a sistemi che dispongono di informazione in quantità ben maggiore a quella che ognuno di noi potrebbe gestire in una vita, vedi i motori di ricerca su web. Ma questo è un cambiamento che non mi aspettavo, perché ChatGPT non solo “sa” tanto, benché, forse anche perché è ancora nella sua infanzia, sbaglia anche spesso, ma è come se “capisse” tanto: risponde a tono, capisce le allusioni a quanto si è discusso in precedenza, sa proporre esempi, e così via.

E tutto ciò con un intervento di “istruttori” umani molto limitato: grazie alla loro struttura, le reti neurali imparano da grandi quantità di dati, e questo ce le rende entità cognitivamente aliene. I cuccioli di esseri umani imparano passando il loro tempo a chiedere “perché?”, e questo senza che nessuno glielo abbia chiesto o insegnato. Perché dunque impariamo cercando risposte a domande “perché?”? Cioè, perché impariamo cercando spiegazioni a quello che ci accade intorno? Perché la nostra capacità di acquisire e memorizzare dati è relativamente limitata, e quindi abbiamo bisogno di operare in modo efficiente con delle ottime sintesi: invece di ricordare tanti casi specifici, preferiamo cercare di trovare poche regole generali, spesso nella forma di relazioni causa-effetto.

Il punto è che, almeno fino ad ora, le reti neurali funzionano in modo molto diverso, imparando a partire non da poche regole ma da tanti dati, i famosi “big data”. E ChatGPT ci sta dimostrando che, quando la rete è abbastanza complessa e i dati con cui è addestrata sono abbastanza numerosi, un altro modo di apprendere è possibile. Con l’effetto che, proprio a causa di questa doppia complessità, di struttura e di quantità di dati, come esattamente funziona ChatGPT non lo sa nessuno. Ha risposto a quella domanda in quel modo per ragioni statistiche, che non ha molto senso cercare di investigare. E’ come se un essere umano, a cui chiediamo la ragione di un’affermazione che ha appena fatto, ci rispondesse non dandoci appunto una spiegazione, ma proponendoci di fargli un’immagine della configurazione fisica del suo cervello. Cosa ne penseremmo?»

Dai suoi scritti e da alcune sue elaborazioni sembra che siamo a una svolta…

«Benché il web esista solo da trent’anni, siamo ormai abituati all’idea di essere distanti pochi click da un enorme quantità di dati e informazione. Ma non meno importante della quantità è la qualità: come decidiamo se fidarci dell’informazione che otteniamo via web? Ci sono almeno tre scenari complementari, che si sono consolidati nel corso del tempo:

– quando arriviamo all’informazione attraverso un sito web, è il sito stesso a fornirci il contesto da cui possiamo inferire la validità dell’informazione, una condizione non così diversa da quella tradizionale in cui per questo ci riferiamo al titolo del quotidiano, al nome dell’autore, e così via;

– quando arriviamo all’informazione attraverso un motore di ricerca (Google ecc.), il contesto non è più così esplicito, e perciò dobbiamo imparare come individuare gli indizi (per esempio l’indirizzo della pagina) da cui inferire la validità dell’informazione;

– quando arriviamo all’informazione attraverso una fonte secondaria o terziaria, soprattutto se aperta a contributi anonimi come Wikipedia, stabilire la validità dell’informazione può essere problematico.

L’uso di una rete neurale come ChatGPT configura un ulteriore, quarto scenario, in cui i dati che la rete elabora sono tratti da un contesto completamente inaccessibile. Non per nulla, si considera aperto il problema dell’explainable AI: come rendere spiegabili i risultati che produce un’intelligenza artificiale?»

Questo che racconta deve farci preoccupare?

«Strumenti come ChatGPT sono potenzialmente fantastici amplificatori delle nostre capacità intellettuali, ma perché tutti ne possiamo beneficiare dobbiamo aiutare tutti ad apprezzare l’importanza di disporre di informazione socialmente affidabile, e insegnare a tutti a riconoscere se l’informazione che ci viene messa a disposizione, dalle reti neurali e non solo, è socialmente affidabile. Mi pare che, pur in condizioni e con strumenti diversi da quelli a cui i nostri antenati erano abituati, proseguire nel paziente lavoro di raccogliere dati, interpretarli in informazione, e da questa generare conoscenza abbia senso e possa dare senso a quello che facciamo da queste parti».

È innegabile che questo sviluppo mette in seria discussione il lavoro dei giornalisti. Che ne pensa?

«È una domanda difficile, perché le cose stanno cambiando molto rapidamente. Quello che so è che dall’inizio di dicembre uso ChatGPT non solo per metterlo alla prova e cercare di capire quello che sta succedendo, ma anche per ottenere un supporto nella soluzione di problemi concreti. Per esempio, quando ho avuto bisogno di scrivere nuovo software, anche a proposito di problemi e relativamente a strumenti molto specifici, il codice generato da ChatGPT è stato quasi sempre corretto e di ottima qualità. Non conosco una persona che avrebbe saputo rispondermi sistematicamente in quel modo».

Pubblicato il 04 Gennaio 2023
Leggi i commenti

Commenti

L'email è richiesta ma non verrà mostrata ai visitatori. Il contenuto di questo commento esprime il pensiero dell'autore e non rappresenta la linea editoriale di VareseNews.it, che rimane autonoma e indipendente. I messaggi inclusi nei commenti non sono testi giornalistici, ma post inviati dai singoli lettori che possono essere automaticamente pubblicati senza filtro preventivo. I commenti che includano uno o più link a siti esterni verranno rimossi in automatico dal sistema.

Segnala Errore