Intelligenze artificiali senzienti: sogno o son desto?

di Lorenzo Ricciardi Celsi*

È recente la notizia di un ingegnere di Google che avrebbe scoperto un’intelligenza artificiale senziente. Eppure, Paolo Benanti, professore di etica alla Pontificia Università Gregoriana, esperto di algoretica e firmatario della Rome Call for AI Ethics, assicura in un’intervista che la tecnologia è lungi dall’aver raggiunto un simile risultato.

La nuova soluzione proposta da Google, LaMDA , costituisce un chatbot avanzato, in grado di comporre frasi sulla base di calcoli statistici e, come tale, è paragonabile a una caverna che rimanda indietro un’eco, oppure anche a un miraggio nel deserto: in buona sostanza, l’utente che lo utilizza pensa di trovarsi di fronte a una persona, ma in realtà sta avendo a che fare con niente di più di una macchina. In altri termini, il fatto che ci siano assonanze statistiche non significa che la macchina sia dotata di una coscienza propria.

A seguito delle dichiarazioni del summenzionato ingegnere di Google, si è diffusa in rete la notizia per cui LaMDA dichiarerebbe nelle proprie conversazioni di essere una persona vera e propria. In realtà, LaMDA è stato addestrato in modo estremamente sofisticato a dare questa risposta. Inoltre, lo stato dell’arte della ricerca non consente di parlare di un’intelligenza artificiale propriamente senziente.

Piuttosto, il fatto che anche una persona molto preparata come un ingegnere di Google si faccia ingannare al punto da rilasciare tali dichiarazioni costituisce un segnale evidente della necessità di una maggiore formazione sulle implicazioni etiche dell’intelligenza artificiale. Se questa tecnologia fosse utilizzata intenzionalmente per interagire con persone vulnerabili, potrebbe convincerle a scelte che altrimenti non farebbero, dall’acquistare articoli suggeriti su internet o per telefono al compiere azioni anche potenzialmente pericolose.

È importante prendere consapevolezza dei rischi associati all’uso delle intelligenze artificiali. Si immagini cosa potrebbe accadere se delegassimo a un’intelligenza artificiale la decisione di lanciare missili. L’umanità ha già rischiato l’estinzione con la tecnologia della bomba atomica e ciò vale anche per la diffusione pervasiva di tecnologie intelligenti. Tutto dipende dall’uso che se ne fa. In questo senso, sarà di fondamentale importanza la ormai prossima emanazione dell’AI Act da parte della Commissione europea, finalizzato a definire e regolare i livelli di rischio della progettazione e sviluppo di soluzioni di intelligenza artificiale.

In particolare, a questo proposito, dalla governance dei progetti di intelligenza artificiale avviati in vari contesti industriali negli ultimi anni, al di là del fondamentale requisito della trasparenza, sono emerse due grandi questioni per cui è necessario uno sforzo regolatorio:

  1. Le forme di intelligenza artificiale più sofisticate attualmente producono risultati sorprendenti che non sono causalmente dimostrabili: nessuno sa dire fino in fondo perché la macchina abbia dato una determinata risposta all’input ricevuto. Ciò crea evidenti criticità in alcuni settori applicativi come la guida autonoma: in tal caso, un sistema è buono se fa sempre la stessa cosa e quindi se è prevedibile; altrimenti è evidentemente pericoloso.
  2. 2. I dati su cui vengono addestrati gli algoritmi che risiedono dentro le intelligenze artificiali sono il frutto di scelte passate, che rischiano di incorporare errori nei dati. Ciò induce l’intelligenza artificiale a compiere predizioni e scelte non obiettive ma questionabili, in quanto affette da pregiudizi.

Siamo quindi certi che ne vedremo delle belle… La comunità internazionale si sta mobilitando per smentire Stephen Hawking, il quale nel 2017 definì l’avvento dell’intelligenza artificiale come uno degli eventi potenzialmente più pericolosi per l’umanità.

_______________

*Manager presso Elis Innovation Hub, esperto di Big Data Analytics & Artificial Intelligence. Senior Member dell’Institute of Elecrtrical and Electronics Engineers, ha conseguito il dottorato di ricerca cum laude in Automatica presso l’Università La Sapienza di Roma e in Automatique et Traiement du signal presso l’Université Paris-Saclay. Per Duc in altum ha già scritto L’Intelligenza artificiale, il nostro futuro e le tante implicazioni etiche

I miei ultimi libri

Sei un lettore di Duc in altum? Ti piace questo blog? Pensi che sia utile? Se vuoi sostenerlo, puoi fare una donazione utilizzando questo IBAN:

IT64Z0200820500000400192457
BIC/SWIFT: UNCRITM1D09
Beneficiario: Aldo Maria Valli
Causale: donazione volontaria per blog Duc in altum

Grazie!