« Non fornire informazioni riservate »: Google avverte i propri dipendenti sui pericoli dell’intelligenza artificiale, compresa la propria!
Mentre Bard, la sua intelligenza artificiale di casa, sta accumulando ritardi in molti paesi del mondo, Google sembra mettere in guardia i propri dipendenti dai rischi associati ai chatbot. E ciò include la propria soluzione.
Presentato al mondo intero lo scorso febbraio, Bard, l’intelligenza artificiale che Google spera di offrire ovunque nei suoi servizi, sta accumulando ritardi in Europa. Il motivo: la società di Mountain View non ha risposto alle preoccupazioni sulla privacy della Commissione irlandese per la protezione dei dati (DPC), come abbiamo spiegato la settimana scorsa.
E c’è da scommettere che le recenti rivelazioni di Reuters, riguardanti il modo in cui gli esecutivi di Google vedono le intelligenze artificiali, non incoraggiano le autorità riluttanti a dare il via libera a Bard per l’installazione del servizio in nuovi territori.
Google si diffida delle IA, compresa Bard
L’indagine condotta dall’agenzia di stampa rivela che Alphabet, la società madre di Google, mette in guardia i propri dipendenti su come utilizzare i chatbot attualmente disponibili sul mercato. In particolare, i dirigenti e i manager dell’azienda hanno consigliato ai propri collaboratori di non inserire documenti riservati o informazioni sensibili durante gli scambi con le IA, compresa Bard.
Per questa richiesta, Alphabet si basa su una politica di privacy a lunga data. Ma questa richiesta tende anche a dimostrare che le informazioni che si possono fornire a un’intelligenza artificiale generativa non cadono nel vuoto. Non solo possono essere lette da un essere umano che lavora sulla specifica IA, ma in più il chatbot è in grado di assimilare le informazioni e di riutilizzarle in altri contesti, generando quindi un potenziale rischio di fuga.

Anche il codice informatico generato dall’IA è sotto accusa
Un’altra raccomandazione fatta dai dirigenti di Alphabet agli ingegneri di Google è evitare di utilizzare direttamente porzioni di codice informatico generate dai chatbot. Intervistata da Reuters, l’azienda ha ritenuto che anche se Bard può commettere errori nelle sue suggerimenti, questi potrebbero comunque essere utili agli sviluppatori, a condizione di fare una revisione successiva.
Di fronte alle fughe di notizie associate a queste richieste interne, Google ha deciso di essere trasparente: per i dirigenti, queste raccomandazioni equivale ad ammettere i limiti dei loro prodotti legati all’intelligenza artificiale, ed è quindi logico che i dipendenti dell’azienda siano i primi a essere informati di tali situazioni.
Tuttavia, la comunicazione di Google suscita preoccupazioni non solo tra gli utenti, ma anche tra i custodi della privacy. In linea di principio, non è opportuno fornire dati troppo sensibili alle IA accessibili al pubblico. Altre aziende nel settore tecnologico hanno già avvertito i propri dipendenti su questo punto: è il caso di Samsung, Amazon e Deutsche Bank, afferma Reuters. Apple, che è più discreta sull’argomento, avrebbe anche consigliato ai propri dipendenti di evitare le IA.
Secondo uno studio condotto dal sito Fishbowl a gennaio, il 43% dei professionisti utilizzava comunque ChatGPT o altri strumenti simili all’epoca, spesso alle spalle del proprio capo. Immaginiamo che questa percentuale aumenterà nel tempo.