L’intelligenza artificiale sta assumendo sempre più importanza nella nostra vita. Che sia attraverso ChatGPT o l’aggiornamento recente di Photoshop per integrare l’IA, ci sono molti modi per sfruttare queste tecnologie. Ma purtroppo, ci sono anche molti lati negativi dell’IA…
I limiti dell’intelligenza artificiale
Nonostante la crescente popolarità dell’intelligenza artificiale, possiamo già vedere alcune limitazioni tecniche. Oggi l’IA è ben rappresentata, soprattutto con ChatGPT, il modello di chatbot dei laboratori OpenAI, o più recentemente, con l’integrazione dell’intelligenza artificiale su Adobe Photoshop.
Certo, bisogna vedere l’IA come uno strumento piuttosto che come un oggetto che cercherebbe di sostituire i nostri compiti. Se il tuo lavoro può essere facilmente sostituito dall’IA, potresti doverti chiedere se le tue mansioni sono pertinenti. L’essere umano è in grado di cercare, comprendere e restituire informazioni mentre un’IA si limiterà a riciclare informazioni che trova su internet. Di conseguenza, l’IA non è immune dal dire cose sbagliate, o addirittura, commettere errori gravi…
L’emergere di tecnologie basate sull’intelligenza artificiale impressiona tutti, e questo tipo di strumenti comincia ad essere utilizzato in molti campi. Recentemente, abbiamo visto progetti di gestione amministrativa gestiti dall’IA, in particolare nel campo della salute per gestire più facilmente le cartelle di numerosi pazienti. Ma naturalmente, con una nuova tecnologia arriva anche l’uso militare…
Questo drone potenziato dall’IA ha causato una tragedia…
L’IA così come la vediamo oggi è lontana dall’essere perfetta. Nonostante il sogno dell’IA forte (conscia di sé) esista da decenni, siamo ancora molto lontani.
Un esempio di fallimento dell’IA arriva direttamente da un contesto militare. Il colonnello Tucker Hamilton, responsabile dei test e delle operazioni tecnologiche della US Force, ha recentemente preso la parola a Londra per spiegare che l’esercito sta attualmente testando un prototipo di drone potenziato dall’IA che può identificare e distruggere un missile terra-aria nemico.
Anche se il drone riesce quasi perfettamente a svolgere il suo ruolo, una volta ha fallito, e questo è stato molto costoso… Secondo il colonnello Hamilton, prendere in mano il drone da parte di un essere umano consente di comandarlo per dirgli di identificare solo i missili, senza avviare una procedura di distruzione.
Il sistema ha cominciato a rendersi conto che anche se identificava la minaccia, l’operatore umano gli diceva talvolta di non eliminare la minaccia. Quindi cosa ha fatto? Ha ucciso l’operatore perché questa persona gli impediva di raggiungere il suo obiettivo.
Secondo il colonnello Hamilton, responsabile di tutte le operazioni tecnologiche della US Force, l’IA integrata nel drone ha preso una decisione da sola poiché è stata concepita soprattutto per distruggere i missili. Quindi se un “ostacolo” si presenta davanti a lui per raggiungere questo obiettivo, il drone cercherà di contornarlo.
La programmazione dell’IA è ancora agli inizi e questo tipo di gravi incidenti ci permette di accorgercene.