A causa della scrittura di informazioni non veritiere, ChatGPT è citata in giudizio per diffamazione
ChatGPT, l’intelligenza artificiale di OpenAI, ha la reputazione di generare facilmente informazioni false. Questa brutta abitudine sta portando l’azienda americana davanti ai tribunali per una questione di diffamazione.
Giocando con il fuoco, alla fine si finisce per bruciarsi. OpenAI, l’azienda americana di ChatGPT, il chatbot più famoso al momento, sta pagando il prezzo di una situazione che ha preferito ignorare. Infatti, da mesi molti utenti e media hanno segnalato l’IA, che ha la spiacevole abitudine di inventare fatti con grande disinvoltura.
Poco tempo fa, è stato un avvocato americano a farne le spese: utilizzando ChatGPT per completare uno dei suoi dossier, ha riempito il documento di esempi di casi giudiziari che semplicemente non esistevano. Nonostante i suoi rimpianti, Steven Schwartz, questo è il suo nome, rischia ora grossi problemi. Ma è un’altra questione legata al lato mitomane di ChatGPT che ci interessa oggi.
Informazioni false che portano OpenAI in tribunale
Mark Walters, un conduttore radio americano, ha infatti deciso di citare in giudizio OpenAI per diffamazione. La ragione? Quando viene interrogata sulla sua persona, l’intelligenza artificiale dell’azienda rivela informazioni sconvolgenti, ma soprattutto completamente false. ChatGPT racconta in particolare che Mark Walters ha commesso frodi e ha deviato fondi da un’organizzazione non a scopo di lucro. È stato un giornalista di nome Fred Riehl a scoprire questo e a informare il conduttore radio.
Quest’ultimo ha deciso di citare in giudizio OpenAI. Il caso è stato depositato lo scorso 5 giugno presso la Corte superiore della contea di Gwinnett in Georgia. Mark Walters chiede all’azienda un risarcimento danni non specificato.
Il documento del caso, disponibile online, spiega che il giornalista americano Fred Riehl ha chiesto a ChatGPT di riassumere un documento legale da un file PDF. L’IA ha così mescolato nel suo riassunto informazioni vere e dati completamente falsi. Se Riehl non avesse verificato queste informazioni e le avesse utilizzate così come stavano, la vita di Mark Walters avrebbe potuto essere sconvolta.

Un caso storico nel mondo dell’IA?
The Verge, che è uno dei media che riporta il caso, parla della possibilità che il caso Walters contro OpenAI sia il primo del suo genere. Un’intelligenza artificiale citata in giudizio per diffamazione sarebbe quindi una novità, ma si può supporre che non sarà l’ultima, considerando gli errori che ChatGPT può commettere quando risponde alle richieste degli utenti.
Il chatbot mostra comunque un minuscolo messaggio in fondo alla pagina che lo rende utilizzabile: “ChatGPT può produrre informazioni inesatte riguardanti persone, luoghi o fatti”. Tuttavia, il suo creatore, Sam Altman, continua a presentare questo strumento come affidabile e sicuro. A gennaio, intervistato dal canale YouTube StrictlyVC, ha dichiarato in particolare: “Preferirei di gran lunga che ChatGPT mi insegni qualcosa anziché andare a leggere un libro”, la prova che, secondo lui, l’IA è abbastanza affidabile da essere creduta.
Tuttavia, secondo un professore di diritto intervistato da The Verge, la richiesta di Mark Walters ha poche possibilità di portare a una condanna. Ciò è dovuto in particolare al fatto che il querelante non ha segnalato l’informazione errata a OpenAI e quindi non ha lasciato all’azienda la possibilità di correggere l’errore. Tuttavia, resta il fatto che questo caso potrebbe essere solo l’inizio nel mondo in costruzione della conversazione dell’intelligenza artificiale.