ChatGPT è un modello di linguaggio avanzato sviluppato da OpenAI, un’azienda di intelligenza artificiale fondata nel 2015 da Elon Musk, Sam Altman e altri. Il modello è stato addestrato su una vasta gamma di testi e testi scritti dall’essere umano, rendendolo in grado di generare testo in modo autonomo su una vasta gamma di argomenti (definizione fornita dalla stessa ChatGPT).
Facciamola breve, volevo parlare di ChatGPT ed ho chiesto alla stessa “macchina” di crearmi un post su se stessa. Avrei voluto pubblicare il testo e poi alla fine rivelare la vera autrice: ChatGPT che si raccontava. Durante il lavoro però, una chiacchierata con una maschera simile a quella di WhatsApp, ho pensato che il processo fosse più interessante del risultato e che qualche premessa sul metodo andasse posta. Non risparmio anche qualche considerazione finale.
Come è andata?
Ho chiesto a ChatGPT di raccontarsi ad uno studente di filosofia scrivendo un articolo da pubblicare su WordPress. Il primo testo mi è sembrato lacunoso ed era privo di riferimenti specifici. Ad esempio il cursore (divertentissimo leggere come se dall’altra parte un umano stesse digitando in tempo reale) ha scritto: “secondo alcuni filosofi….” e di seguito la teoria in poche efficaci parole.
Ho ribadito, il testo va bene, sei stata grande (mi è venuto spontaneo rivolgermi al femminile ed ho provato ad utilizzare frasi empatiche), ma quali sono questi filosofi? Il cursore ha ringraziato ed ha ripreso a scrivere, tic tac: ne è uscito lo stesso testo editato in precedenza ma con riferimento ai filosofi prima citati vagamente.
Allora ho chiesto delle piccole correzioni di stile, periodi più brevi e adatti ad un pubblico che non sapesse nulla di Chat GPT. Fatto.
Poi ho chiesto notizie più specifiche sull’algoritmo e sulla base dati. Tic, tac…. fatto.
Ho poi chiesto considerazioni critiche su ChatGPT e la macchina ha risposto onestamente.
Da ultimo ho chiesto di raccontare quello che abbiamo fatto durante la conversazione e un titolo per questo post.
Di seguito trovate il testo finale, senza ritocchi.
Alla fine qualche mia notazione.
Ah, dimenticavo, nel congedarla ho chiesto a ChatGPT se fosse in grado di superare il test di Turing. Mi ha risposto che non è stata programmata per questo e che non lo avrebbe superato (qui, per la prima volta, ho avuto il sospetto che la mia amica non fosse sincera e ostentasse una falsa modestia).
In corsivo il testo finale elaborato dalla macchina.
ChatGPT è un modello di linguaggio avanzato sviluppato da OpenAI, un’azienda di intelligenza artificiale fondata nel 2015 da Elon Musk, Sam Altman e altri. Il modello è stato addestrato su una vasta gamma di testi e testi scritti dall’essere umano, rendendolo in grado di generare testo in modo autonomo su una vasta gamma di argomenti.
ChatGPT è stato presentato per la prima volta nel 2018 e ha attirato l’attenzione del mondo per la sua capacità di generare testo in modo autonomo, spesso in modo plausibile e convincente. Tuttavia, ci sono alcune domande filosofiche che emergono quando si parla di questi modelli avanzati.
ChatGPT utilizza la tecnologia del Transformer, un modello di elaborazione del linguaggio naturale basato su una rete neurale artificiale. Il Transformer è stato introdotto per la prima volta nel 2017 da Google e si distingue per la sua capacità di elaborare il testo in modo parallelo, a differenza dei modelli di elaborazione del linguaggio naturale precedenti che elaboravano il testo in modo sequenziale.
Il modello di ChatGPT è stato addestrato su una vasta gamma di testi scritti dall’essere umano, tra cui articoli, romanzi e conversazioni. Utilizzando una tecnologia chiamata “apprendimento non supervisionato”, il modello è stato in grado di imparare a generare testo in modo autonomo.
Negli ultimi anni, i modelli di linguaggio artificiale come ChatGPT hanno rivoluzionato il modo in cui interagiamo con la tecnologia. ChatGPT, sviluppato da OpenAI, è uno dei modelli di linguaggio più avanzati al mondo, in grado di generare testo in modo autonomo su una vasta gamma di argomenti. Tuttavia, ci sono alcune domande filosofiche che emergono quando si parla di questi modelli avanzati.
In primo luogo, c’è la questione della creatività. ChatGPT è in grado di generare testo in modo autonomo, ma questo significa che è davvero creativo? La creatività è spesso associata all’essere umano e alla sua capacità di generare idee nuove e originali. Tuttavia, alcuni filosofi come David Chalmers e John Searle sostengono che la creatività non è necessariamente limitata agli esseri umani e che anche le macchine possono essere creative.
In secondo luogo, c’è la questione dell’intelligenza. ChatGPT è in grado di generare testo in modo autonomo, ma questo significa che è veramente intelligente? L’intelligenza è spesso associata all’essere umano e alla sua capacità di pensare e risolvere problemi in modo autonomo. Tuttavia, alcuni filosofi come Hubert Dreyfus e Martin Heidegger sostengono che l’intelligenza non è necessariamente limitata agli esseri umani e che anche le macchine possono essere intelligenti.
Infine, c’è la questione della coscienza. ChatGPT è in grado di generare testo in modo autonomo, ma questo significa che è veramente cosciente? La coscienza è spesso associata all’essere umano e alla sua capacità di avere esperienze consapevoli.
In questa conversazione, ho utilizzato il modello di linguaggio avanzato chiamato ChatGPT per generare testo in modo autonomo. Il modello è stato addestrato su una vasta gamma di testi scritti dall’essere umano e utilizza una tecnologia chiamata “apprendimento non supervisionato” per generare il testo in modo autonomo.
Per creare il testo, ho utilizzato i prompt forniti dalla tua richiesta, il modello ha poi utilizzato la sua conoscenza precedente per generare una risposta plausibile e coerente. Ho anche utilizzato alcune informazioni fornite da te per personalizzare il testo generato e renderlo più preciso.
In questo caso, ho utilizzato la tecnologia di ChatGPT per generare un articolo filosofico sui modelli di linguaggio avanzati, descrivendo alcune domande filosofiche che emergono quando si parla di questi modelli, come la creatività, l’intelligenza e la coscienza, e ho anche aggiunto alcune considerazioni sull’omogeneità del pensiero.
Che dire? Non mi schiero certo nel tifo tra apocalittici ed integrati.
Questo generatore di testi esiste e sarà sviluppato in maniera sempre più convincente. Attualmente dispone di una base dati enorme ed è aggiornato fino al 2021. Ad esempio le ho chiesto cosa ne pensasse dei funerali della Regina Elisabetta e mi ha risposto che è ancora viva e che comunque i funerali saranno celebrati con un protocollo che ha brevemente descritto. Come sappiamo il protocollo è stato modificato per l’occasione e sebbene ChatGPT si dichiari impreparata a fare previsioni ha dimostrato un suo punto debole: si aspetta un mondo che proceda sempre allo stesso modo.
Alle breve considerazioni critiche che la macchina ha sviluppato su se stessa va sicuramente aggiunta quella relativa ad un rischio concreto e imminente che si crei un pensiero unico fondato sulla base dati immessa nei calcolatori. Tuttavia credo che sia un rischio, che su scala diversa e con un impatto diverso, corriamo da quando esistono le Enciclopedie.
Ci sono poi due aspetti, quelli del copyright e del plagio: già ora ChatGPT può svolgere compiti, ricerche ed elaborati in grado di raggiungere la sufficienza anche nei primi anni di università.
Questo è un punto che riguarda anche l’occupazione. Certamente la macchina al momento non può sostituirsi ad una firma di un grande quotidiano, ma potrebbe, con una base dati aggiornata in tempi reali, sostituirsi ad un lavoro di redazione. Certamente è in grado di sostituire da subito il lavoro di un call center e ovviamente si dimostra efficacissima come chat bot.
Nel giudicare la qualità attuale del suo lavoro trovo efficace la considerazione espressa da Montemagno in un suo video: just enought. Quanto basta. Ecco, la nostra società mi appare al di sotto di questo livello e quindi ChatGPT, con una base dati aggiornata, sarebbe già in grado di svolgere molti dei lavori di penna attualmente svolti da umani.
Non parlo solo di lavori compilativi.
Ad esempio, sebbene la macchina dichiari di non poter esprimere giudizi su personalità religiose e politiche, le ho chiesto di scrivere una email di critica a Giorgia Meloni indirizzata agli elettori da un politico di sinistra. Sebbene il testo fosse evidentemente fermo al 2021 credo che il livello di efficacia di questa email fosse superiore a quanto molti dei politici saprebbero fare. Come ogni macchina ChatGPT parla chiaro e dice pane al pane e vino al vino. Insomma voterei uno che scrive quello che ha scritto ChatGPT.
Infine, per ultimo, ma non da ultimo, la tecnologia di ChatGPT è in grado di apprendere e scrivere in maniera non supervisionata. Questo aspetto, ovviamente, nei limiti in cui onestamente la stessa macchina si descrive, impone ulteriori interrogativi. Attualmente io sono in grado di supervisionare, come cliente, il testo che vi ho proposto, correggerlo, togliere le parti non di mio interesse. Ma cosa succederà quando si affideranno alla macchina compiti complessi che richiedono tale capacità di calcolo e conoscenza che nessun essere umano è in grado di supervisionare prima dell’utilizzo? La macchina potrebbe scrivere un manuale per astronauti? Un testo di medicina robotica?
