Pedro García, amministratore delegato di Minsait in Italia esprime la sua opinione su un argomento molto dibattuto: l’intelligenza artificiale sulla quale tanta è la teoria ma non le certezze.
Le tre evidenze
Sull’Intelligenza Artificiale ci sono più pagine scritte che certezze. Tuttavia, abbiamo almeno tre evidenze su cui costruire un progetto comune per l’applicazione di questa potente tecnologia. Primo, il potenziale dell’AI è tale che la sua diffusione è inarrestabile. Secondo, siamo in un momento storico decisivo per garantire un’implementazione etica, responsabile e sostenibile dell’AI. Terzo, questa implementazione etica è un compito e una responsabilità comune e condivisa.
La rivoluzione dell’intelligenza artificiale
L’AI non è La Rivoluzione, ma l’abilitatore tecnologico della prossima grande Rivoluzione, che è ancora agli inizi, ma che è già inarrestabile. Una rivoluzione che va oltre l’intelligenza generativa e che presenta, per le aziende, potenzialità sorprendenti. Esse promettono di migliorare la competitività, il processo decisionale, il rapporto con i cittadini, le proposte di valore. Inoltre la sicurezza e le operazioni e processi, e molti altri aspetti.
L’opinione della LUISS
Come si evince dall’ultimo rapporto sullo stato di implementazione dell’AI nelle aziende italiane realizzato insieme all’Università LUISS Guido Carli, la strada da percorrere per cogliere questo potenziale è ancora lunga. La maggior parte delle aziende, in Italia e nel mondo, non sa come applicarla nella propria attività produttiva, né ha ancora piani strategici per guidarne l’applicazione. In molti casi, non esiste nemmeno una solida base tecnologica a supporto di un’implementazione agile dell’AI. Oltre a cogliere il pieno potenziale dell’AI, dobbiamo assicurarci che l’AI venga utilizzata in modo etico, responsabile e sostenibile. Come altri strumenti tecnologici, dovrebbe essere una risorsa al servizio delle persone e del bene comune.
Intelligenza artificiale, i cinque principi
Partiamo da una concezione dell’AI etica basata sui cinque principi proposti da Luciano Floridi:
- (1) la beneficenza, intesa come orientamento dei sistemi a promuovere il benessere, preservare la dignità e preservare il pianeta;
- (2) la non-maleficenza, attraverso il rispetto della privacy e della sicurezza;
- (3) l’autonomia decisionale, senza dimenticare, in ogni caso, che la nostra AI “debole” avrebbe solo un’autonomia programmata o delegata nelle sue decisioni. Quindi non godrebbe di una piena agency morale);
- (4) l’equità, articolata su prosperità, solidarietà e non iniquità, che comprende l’imparzialità o l’assenza di pregiudizi e preconcetti che possano portare l’algoritmo a prendere decisioni ingiuste;
- (5) l’“esplicabilità”, intesa come trasparenza del processo interno che gli algoritmi seguono per l’elaborazione dei dati, l’identificazione dei modelli e il processo decisionale.
L’AI Act
Per promuovere, infatti, un’applicazione responsabile dell’AI, il Consiglio dell’Unione Europea ha appena dato il via libera definitivo all’AI Act. Una proposta pionieristica che cerca di bilanciare le opportunità e l’innovazione con una gestione adeguata dei rischi e delle sfide poste dalla nuova tecnologia. L’AI Act, in linea con i principi di Floridi, rappresenta un passo in avanti fondamentale. Questo in attesa dell’implementazione settoriale e l’adattamento alla normativa dei Paesi.
Il ruolo del quadro normativo
Tuttavia, non possiamo affidarci completamente al rispetto del quadro normativo, che è ancora agli inizi e limitato sia geograficamente sia per quanto riguarda la portata. L’AI responsabile non è solo un compito del legislatore e delle istituzioni, né solo delle imprese. Realizzare un’AI etica è un compito collettivo, una responsabilità comune che richiede un’alleanza tra tessuto produttivo, mondo accademico, società civile e istituzioni pubbliche. L’AI è un orizzonte collettivo che richiede responsabilità e iniziativa da parte di tutti.