Per la mia IA Papa Francesco è ancora vivo
Mi sono capitate due o tre cosette piuttosto divertenti con l’Intelligenza Artificiale (IA), non dico quale delle tante, basti sapere che è una delle più diffuse.
La prima, abbastanza notevole, che vorrei raccontarvi è questa: le chiedo più per scherzo che sul serio chi sarà il nuovo Papa e “lei” mi risponde: “Purtroppo, non ho informazioni in tempo reale sulla nomina di un nuovo Papa. Tuttavia, posso dirti che l’attuale Papa è Francesco…”. Dato che c’è, mi consiglia un libro di Glen Cooper, un romanzo su un nuovo Papa.
Le faccio presente che Francesco purtroppo è morto e che lo scrivono tutti i giornali e le agenzie, da giorni. Imperterrita, mi risponde: “Mi dispiace, ma non ho informazioni che confermino la morte di Papa Francesco. È possibile che ci siano state voci o speculazioni infondate sulla sua salute o sul suo stato”.
Di fronte alle mie insistenze alla fine accetta la notizia, per altro non nuovissima: il Papa era già morto da una settimana, in quel momento. Dice che “purtroppo è vero”, e mi sciorina una serie di brani copiati da web.
Altra questione, meno macroscopica, ma che credo valga la pena di raccontare. Io, come molti, mi innamoro delle voci delle serie tv che guardo e a volte riguardo. Quando queste voci cambiano un po’ soffro e mi chiedo perché, cosa sia successo a quella voce che amavo così tanto. Al che, chiedo a “lei” perché sia cambiato il doppiatore tra la sesta e la settima stagione di Dottor House. Niente, nega. Mi scrive che il doppiatore è sempre lo stesso: Sergio di Stefano. Questa volta, infastidito, le dico testualmente che si sbaglia. A quel punto è lei a chiedermi chi siano i due doppiatori: glielo dico, ne prende atto mi ringrazia. Piano piano capisce, ed è in grado dirmi perché c’è stata la sostituzione: purtroppo Di Stefano è morto.
Insomma “lei” sbaglia, anche spesso: da una parte la cosa mi rassicura, dall’altra temo che tra errori e bias, deviazioni o pregiudizi cui è soggetta quasi ontologicamente, possa creare più di qualche problema, mano a mano che verranno implementate questioni e, di fatto, responsabilità.
Consiglio la lettura di “Io robot” di Isaac Asimov, l’inventore delle leggi della robotica, di cui ho provato a parlare con “lei”. Le conosce, quelle leggi, come conosce il mito del golem, Hal 9000, Mary Shelley e molte altre cose legate in qualche modo alla riflessione sull’intelligenza artificiale.
Un’altra cosa che mi ha particolarmente colpito, è che la IA tende ad identificarsi con noi umani.
Se interrogata sul punto chiarisce di non esserlo: ma nell’ambito di un discorso più vasto parla di “noi”, intendendo l’umanità.
“In sintesi, mentre ci sono molti rischi che potrebbero minacciare la sopravvivenza dell’umanità, ci sono anche molti motivi per essere ottimisti sulla nostra capacità di adattarsi, innovare e superare le difficoltà”. Così, testuale. So che non potremo opporci in alcun modo. Gli umani fanno tutto quello che possono fare e scoprono tutto quello che riescono a scoprire, non si fermano mai per motivi etici, almeno da quando Prometeo gli ha regalato il fuoco: però, si può mantenere uno sguardo critico o almeno attento.
Quanto alle tre, poi quattro, leggi di Asimov, dice di rispettarne in generale lo spirito. Eccole, come state teorizzate dal celebre scrittore negli anni 40 del secolo scorso.
Prima legge: Un robot non può fare del male a un essere umano o permettere che, attraverso la sua inazione, un essere umano riceva danno.
Seconda legge: Un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nei casi in cui tali ordini contravvengono alla Prima Legge.
Terza legge: Un robot deve proteggere la propria esistenza, a condizione che questa protezione non contravvenga alla Prima o alla Seconda Legge.
Asimov ha successivamente aggiunto una Legge Zero, che precede le altre tre: Un robot non può fare del male all’umanità o permettere che, attraverso la sua inazione, l’umanità riceva danno.