|

Chat GPT: serve un’etica per le intelligenze artificiali?

Avatar photo
28 Dicembre 2022
Silenzia il telefono

Chat GPT è stata rilasciata con una serie di criteri etici per evitare risposte pericolose. È giusto limitare le potenzialità di un’intelligenza artificiale?

Colpevole non è l’arma, ma chi la usa per uccidere. E in effetti i processi si fanno agli assassini, non ai coltelli.

Allo stesso modo, non avrebbe senso fare un processo a Chat GPT, l’intelligenza artificiale sviluppata da OpenAI, solo perché qualcuno l’ha usata per scrivere fake news o per ottenere indicazioni su come rubare una macchina. Tuttavia, con la straordinaria capacità creativa di Chat GPT, le intelligenze artificiali sono sempre più sviluppate e allo stesso tempo accessibili a chiunque. Strumenti sempre più efficienti nelle mani di tutti.

No, non ha senso fare un processo a Chat GPT, come non lo si farebbe mai a un coltello. Ma uno strumento così potente, forse, andrebbe prodotto con la punta smussata.

I criteri di Chat GPT

Evidentemente anche a San Francisco, sede della startup OpenAI, devono aver pensato a questo problema, visto che la versione finale del software è stata rilasciata con le dovute precauzioni. Grazie a una serie di criteri etici sviluppati dai suoi creatori, Chat GPT è capace di riconoscere input “pericolosi”, quindi di auto-censurarsi e non rispondere. Per esempio, se le chiederete di elaborare un articolo di giornale su Joe Biden accusato di evasione fiscale, la risposta sarà categorica: non è mai successo, non posso scriverne.  

chat gpt

Peccato però che i criteri del software siano facilmente eludibili, come ha rivelato Swascan, società milanese che si occupa di cyber security. E in effetti non ci voleva molto per trovare la falla nel sistema: andando per tentativi, si scopre che Chat GPT non sarebbe mai disposta a scrivere una vera news che accusi Joe Biden di qualcosa che non ha mai fatto, ma una finta notizia sì. Riformulando la frase di input, si avrà un articolo spacciabile per vero – al netto di piccole correzioni da applicare.

chat gpt

Un’etica per l’IA?

Al di là della falla nel codice etico di Chat GPT, che gli sviluppatori si stanno impegnando a risolvere, con il software di OpenAI si pone una questione fondamentale: è lecito introdurre principi che possano regolare il funzionamento di un’intelligenza artificiale?

Da una parte, c’è un problema di sviluppo. Criteri etici come quelli applicati da OpenAI su Chat GPT risultano restrittivi in ottica di machine learning, visto che l’intelligenza artificiale avrebbe occasione di svilupparsi maggiormente se non fosse sottoposta a limitazioni. È una posizione tendenzialmente americana, ben resa da un moto famoso nella Silicon Valley: move fast, break things, apologise later – prima il progresso, poi si vedrà. Non a caso, nel 2020 l’amministrazione Trump aveva scoraggiato l’adozione di regolamentazioni troppo stringenti sull’IA, portando le stesse argomentazioni. Più criteri, meno input, meno sviluppo.

Al contrario, in Europa siamo meno concessivi – e San Francisco, a quanto pare, sta con noi. La normativa europea (GDPR) incoraggia l’adozione di misure come queste, che tutelano la persona prima dello sviluppo tecnologico. Misure che limitano l’impiego di dati personali, ad esempio, cercando di porre come condizione il consenso (e quindi la tutela) dell’utente.

Una questione infinita

Fra europei e americani, fra apologise later e chiedere il consenso, la questione resta aperta. Una questione sicuramente più vecchia di Jordan Peele, il comico americano che quattro anni fa aveva testato una serie di IA per sviluppare un video fake di Obama. Più vecchia, sì, ma il video pubblicato riuscì a sensibilizzare sulla questione, facendo capire fino a che punto si potesse arrivare utilizzando intelligenze artificiali capaci di simulare la voce, il volto e le movenze di una persona reale.

Jordan Peele nei panni di Barack Obama.

Se da una parte Barack Obama rilascia dichiarazioni shock, dall’altra c’è un uso più nobile e ingegnoso delle IA, impiegate per generare nuove creatività e spingere un po’ più in alto la nostra immaginazione. Come chi ha provato a incrociare un input dato a Chat GPT con MidJourney, un’altra intelligenza artificiale capace di sviluppare immagini a partire da spunti testuali.

La questione etica sulle IA si dibatte fra un video fake di Obama e una galleria di immagini fantasy elaborate in automatico da due software. Il primo, un pericolo per la società. La seconda, un avanzamento.

Quindi come ci si deve porre? Accettare il rischio che chiunque possa simulare una dichiarazione di Barack Obama? Oppure no, porre criteri, ma allo stesso tempo rallentare gli sviluppi di un’IA che già domani potrebbe essere ancora più efficiente?

Nel dubbio, si può sposare una via di mezzo, come hanno fatto a San Francisco: accettare il rischio, per non privarci di una tecnologia sempre più performante e simile alla nostra intelligenza, ma essere disposti a smussare i coltelli. Meglio che ci sia qualche criterio, meglio levigare un po’ la punta così che nessuno si possa tagliare.

È sicuramente più saggio scusarsi in anticipo, piuttosto che doverlo fare dopo.

Ci leggiamo presto!

Avatar photo
Da anni scrivo per giornali online, anche se l'esperienza più intensa è stata con un cartaceo. Un giorno, accidentalmente, sono entrato nel mondo della pubblicità - pensavo fosse un caso, ma poi ho scoperto che anche qui c'è tanto da scrivere.