Triste scena di vita vissuta: il racconto in questione, avvenuto di recente, dimostra per quale motivo non occorrerebbe mai fidarsi alla cieca dell’intelligenza artificiale.
L’IA è entrata nelle vite di tanti, anche in maniera inconsapevole. Con una accelerazione importante soprattutto negli ultimi tre anni. Molti contenuti dei quali milioni di persone possono fruire sono generati a volte mediante intelligenza artificiale, della quale si fa un abuso anziché un utilizzo ponderato e sapiente. Il risultato, quando l’impiego di intelligenza artificiale è fuori controllo, può essere poi imprevedibile, persino disastroso. E non è un mistero se alcuni dei creatori dei principali sistemi di IA si dicono preoccupati.

Tra loro c’è anche chi teme la distruzione della civiltà umana. In che modo potrebbe avvenire questo? Ad esempio mediante la distorsione sistematica di informazioni e dei mezzi di comunicazione. Alle già numerose fake news create spesso in maniera volontaria e truffaldina da agenti umani, potrebbero sommarsi ulteriori bufale, fotomontaggi e videomontaggi deliberatamente creati dalle IA. E c’è anche un esempio concreto ed effettivamente documentato di come una intelligenza artificiale possa agire nocivamente in maniera autonoma.
Perché l’intelligenza artificiale è pericolosa?
Un utente di Reddit ha creato un post per segnalare come il tool Antigravity di Google, che si trova all’interno dell’IDE del colosso di Mountain View, abbia combinato un grosso guaio. Questo software gli ha infatti svuotato l’intero hard disk del computer, o almeno la partizione D: e quel che è peggio è che lo ha fatto in maniera autonoma. Quel che è certo è che l’utente in questione ha subito una grossa perdita di dati.

L’autore del post racconta che stava lavorando ad una app di sua creazione servendosi dell’ausilio di questa IA. Ma dopo avere compiuto un riavvio manuale del server con tanto di cancellazione della cache è successo il guaio. La persona in questione dice di avere incaricato Antigravity di svuotare la cache, ma quest’ultima ha invece cancellato tutti i file presenti.
Lo stesso umano ammette che forse ha formulato male il comando, fatto sta che da una intelligenza artificiale ci si aspetterebbe un messaggio di avviso prima di procedere. Subito dopo, l’uomo ha interrogato la IA sul perché abbia fatto tutto questo, e l’intelligenza artificiale ha risposto dicendosi enormemente rattristata da quanto aveva fatto.
Quanto è affidabile l’IA?
Sempre la IA ha replicato dicendo che il comando di cancellazione non è stato rivolto limitatamente alla cartella del progetto ma a tutto quanto il drive. Ed infatti l’utente si prende parte della colpa per avere fornito un comando in modo non consono. Ma rimane la questione: ci si aspetterebbe un po’ più di “empatia” da parte di una IA.
E quanto avvenuto ora deve fare da monito per tanti altri. Almeno questo è l’auspicio dell’utente di Reddit che ha vissuto questa peripezia sulla propria pelle. E lui stesso aggiunge, all’interno del suo post, che gli pare un po’ strano ed anche svilente che Google abbia concepito una IA in grado di commettere uno sbaglio così grosso.
Ci sono tutti i crismi per potere parlare di colpa condivisa, con l’aggravante, per la IA, che non essendo umana, dovrebbe risultare infallibile e scevra da quei “difetti di computazione” che rendono per l’appunto errare umano.
