Cos'è ChatGPT, l'intelligenza artificiale che scrive come un essere umano (e perché fa paura)
I colossi dell'hi-tech stanno investendo miliardi. E c'è chi teme l'invasione sul web e nelle scuole di plagi e fake news
ChatGPT è la parola chiave del momento, tutti ne parlano, chi con timore chi invece come della prossima rivoluzione tecnologica. Ma che l'intelligenza artificiale non sia un fuoco di paglia lo dimostrano i miliardi che Microsoft ha deciso di investire proprio in ChatGPT e la risposta, sempre a suon di dollari, da parte di Alphabet (Google). Ma che cos'è questa ChatGPT? Quali sono le opportunità e quali i rischi? Proviamo a fare un po' di chiarezza.
Open Ai la società creata da Elon Musk A creare il fenomeno del web è stato Elon Musk. E' stato tra i primi a credere a Open Ai, organizzazione non a scopo di lucro che studia appunto l'intelligenza artificiale con lo scopo di promuovere e sviluppare un software amichevole (friendly AI) in modo che l'umanità possa trarne beneficio. E' stata fondata nel 2015 a San Francisco e i suoi brevetti sono aperti al pubblico. Ha diversi prodotti ma il più celebre è diventata la chatbot ChatGPT. Gli sviluppatori del modello stanno però pensando, dopo l'investimento annunciato da Microsoft, di mettere il tutto all'asta con una base di partenza monstre: 29 miliardi di dollari.
Intelligenza artificiale e gli investimenti nel settore
Cos'è una chatbot Da qualche anno avrete probabilmente già interagito con una intelligenza artificiale. Le grandi società utilizzano già quelle che sono le chatbot, ossia software progettati per simulare una conversazione con un essere umano. Attualmente riescono a rispondere a poche domande per poi magari rimandarvi all'essere umano vero e proprio del servizio assistenza. ChatGPT è una versione più performante di una chatbot.
Cosa fa ChatGPT
E veniamo dunque a Chatgpt: cosa è in grado di fare? E' in grado di creare testi come un essere umano, usando una prosa chiara e definita e la punteggiatura appropriata. Per farlo utilizza 170 miliardi di parametri e un database di 570 gigabyte di dati. Questa chatbot non risponde solo alle domande ma può scrivere testi interi utilizzando anche stili diversi: tutto in base ai parametri che l'utente è in grado di fornire. Domande come "scrivimi una storia d'amore tra Renzo e Lucia ambientata sulla Luna utilizzando lo stile di Shakespeare" potrebbero generare capolavori della letteratura fantasy. ChatGPT è stata lanciata a novembre (qui il link dove provare a iscriversi) e da allora milioni di persone si sono iscritte. Un successo tale che, al momento in cui scriviamo, per ora è impossibile aggiungersi alla comunità.
Fake news, plagi: quali sono i rischi di ChatGPT Ma come ogni medaglia, c'è il rovescio. Avere un'intelligenza artificiale in grado di scrivere come un essere umano potrebbe "impoverire" l'umanità. Il rischi di vedere il web e i social invasi da fake news che sembrano essere testi reali (anche scientifici) è altissimo. E anche nelle scuole ci si attende una invasione di tesine "fatte" al computer. Senza dimenticare il lato artistico: molti cantautori temono l'arrivo sul mercato di prodotti simili alle proprie creazioni. E quanti posti di lavoro potrebbero quindi sparire (anche quello giornalistico) con l'arrivo di una Ai ancora più potente?
La corsa ai ripari per difendersi dall'uso sbagliato Quello che però va ricordato è che il software funziona quando alla base ci sono dati originali creati comunque dall'uomo. Se tutto inizia ad essere prodotto dalla macchina, alla fine anche i dati alla base rimarranno sempre gli stessi. E che dire poi di tutte quelle professioni che si creeranno in futuro: data scientist, machine learning engineer o sviluppatori di Ai. E allo stesso tempo sono in arrivo sistemi che sono in grado di utilizzare l'intelligenza artificiale per scovare i testi scritti... con l'intelligenza artificiale. ChatGpt Zero è un'app per contrastare i plagi in ambito scolastico e universitario, che sono aumentati da quando è stata rilasciato ChatGpt, ed è stata creata da Edward Tian, 22 anni studente di computer science a Princeton. E' una specie di "antidoto" al sistema di AI diventato popolare nelle ultime settimane che sta perà generando dubbi nel mondo accademico, della sicurezza informatica e anche nel mondo artistico per questioni di creatività e copyright. Il sistema GptZero è stato creato da Edward Tian per "decifrare in modo rapido ed efficiente se un essere umano o ChatGpt ha scritto un saggio". L'app analizza determinati parametri di linguaggio per verificare se un testo è stato scritto da una persona o dall'AI. Per esempio ne misura la complessità (più è alta, più è probabile che appartenga a una persona) oppure la variazione dei periodi (un'intelligenza artificiale tende a scrivere con uno stile uniforme).
I rischi di ChatGPT nelle scuole Il sistema messo a punto dallo studente si innesta in un dibattito sui testi e le conversazioni prodotte col software ChatGpt che diverse scuole e università, da New York all'Australia, hanno cominciato a vietare perché con costruzione e sintassi difficilmente distinguibili da quelle umane e quindi a rischio brogli degli studenti. Una politica condivisa anche dall'International conference on machine learning che ha proibito l'uso di questi sistemi per la scrittura di articoli accademici. Allarme anche dagli esperti di cybersicurezza perché ChatGpt è in grado di scrivere virus malevoli. Le preoccupazioni relative all'etica e alla correttezza dell'impiego di questo software investe anche il campo dell'arte per questioni di plagio e violazione di copyright. "Una schifezza" e "una grottesca presa in giro di ciò che significa essere umani". Questo il parere di Nick Cave, musicista e compositore, su una canzone scritta da ChatGpt "nel suo stile" e sottopostagli da un utente. Un esercizio di "replica e parodia", ha aggiunto, "scrivere una buona canzone non è imitazione o replica, è il contrario".
Il futuro? Una ChatGPT ancora più potente La tecnica comunque non si ferma e anzi è in arrivo, anche se i fondatori continuano a smentire, una versione 5 di ChatGPT ancora più potente in grado di utilizzare trilioni di parametri e terabyte di dati.
E la concorrenza non resta a guardare: ecco cosa fa Google Di sicuro l'Intelligenza artificiale è un mercato che fa gola e non può essere lasciato in mano ad una sola azienda. Ed è per questo motivo che anche Alphabet (Google) muove le sue pedine. D'altronde è in "pericolo" il loro principale prodotto, il motore di ricerca. A rivelarlo al Time è stato Demis Hassabis, a capo di DeepMind, la società di AI che fa capo ad Alphabet. Ha spiegato che la società sta sviluppando una versione di prova e privata del suo chatbot Sparrow che potrebbe essere rilasciato nel 2023. Hassabis afferma che questo software ha funzionalità che mancano a ChatGPT, inclusa la capacità di citare fonti attraverso l'apprendimento per rinforzo. DeepMind e OpenAI stanno entrambe lavorando sul raggiungimento dell'intelligenza generale artificiale (Agi), che ha l'obiettivo di creare hardware o software in grado di emulare il più possibile il ragionamento umano. "La creazione di Agi sarà lo sviluppo tecnologico più importante nella storia umana", ha detto il Ceo di OpenAI Sam Altman.
SU TGCOM24