Intelligenza artificiale: come identificare un contenuto creato da un sistema di intelligenza artificiale? È la grande domanda a cui Google e OpenAI devono rispondere.
È il grande dibattito del momento: come identificare i contenuti generati da un sistema di intelligenza artificiale. La soluzione proposta è lontana dall’essere soddisfacente e potrebbe addirittura avere un effetto negativo su Internet.
Un appuntamento fondamentale per lo sviluppo dell’IA
In occasione di un evento alla Casa Bianca, il presidente degli Stati Uniti, Joe Biden, ha annunciato un’iniziativa di grande importanza per garantire la sicurezza della tecnologia dell’intelligenza artificiale.
Diverse grandi aziende che stanno sviluppando la propria IA, tra cui OpenAI, Amazon, Microsoft, Google e anche Meta, si sono impegnate volontariamente ad adottare misure volte a rendere la tecnologia dell’IA più sicura e responsabile. Perché l’obiettivo è regolamentare questa tecnologia emergente a causa delle crescenti preoccupazioni riguardo al suo potenziale di disagio.
L’iniziativa mira a introdurre un livello di trasparenza molto più elevato nell’uso dell’IA sviluppando un sistema di “filigrana” per tutte le forme di contenuto generato da questa tecnologia. Questa filigrana permetterà agli utenti di sapere quando l’IA è stata utilizzata, facilitando l’individuazione di contenuti falsi come notizie manipolate, immagini o audio che potrebbero ingannare o manipolare le masse.
Tuttavia, la filigrana presenta un vero problema. Ogni IA sarebbe così identificata, consentendo ad esempio a Google di autorizzare o meno determinate IA. Una possibilità in più per il gigante americano di esercitare il suo monopolio.
Gli USA cercano di recuperare il loro ritardo normativo
Il governo americano è consapevole del ritardo rispetto all’Unione europea nella regolamentazione dell’IA. Sta quindi cercando di colmare questa lacuna lavorando su una legislazione bipartitica specificamente dedicata a questa tecnologia.
L’UE ha già adottato regole che richiedono ai sistemi di IA
di rivelare i contenuti generati dall’IA, distinguere le immagini “deep-fake” da quelle reali e garantire l’assenza di contenuti illegali.
Oltre alla sicurezza e alla trasparenza, le aziende coinvolte si sono anche impegnate a proteggere la privacy degli utenti. Con lo sviluppo rapido dell’IA, è essenziale prendere misure per combattere i pregiudizi e evitare eventuali discriminazioni nei confronti di determinati gruppi. Queste aziende stanno anche considerando di indirizzare la loro competenza nell’IA verso importanti questioni scientifiche, come la ricerca medica e la lotta al cambiamento climatico. È il caso ad esempio dell’IA di Elon Musk.
Questo annuncio rappresenta un passo avanti significativo nel campo dell’intelligenza artificiale e potrebbe influenzare il modo in cui questa tecnologia viene sviluppata, anche in Europa. La collaborazione tra i giganti della tecnologia e il governo americano offre una nuova speranza per un futuro in cui l’IA possa essere messa al servizio del bene comune evitando al contempo eventuali abusi.