Cosa possono fare le imprese per sfruttare le opportunità di una Intelligenza Artificiale Responsabile? Questa è la domanda a cui vuol rispondere il report di Cefriel sul tema. Il nuovo white paper “Intelligenza Artificiale Responsabile – Cos’è, perché se ne parla, cosa devono fare le imprese?”, scritto da Diego Ragazzi, esperto senior di Data Strategy Cefriel. Scaricabile gratuitamente, vuole approfondire il tema dell’Intelligenza Artificiale responsabile, anche alla luce della discussione intorno ai rischi che questa può comportare per le persone.
Quale il mercato dell’AI?
Il valore complessivo del mercato dell’Intelligenza Artificiale crescerà del 19% nei prossimi tre anni secondo Idc. In Italia, secondo quanto riportato dall’Osservatorio Artificial Intelligence 2023 della School of Management del Politecnico di Milano, il mercato dell’AI nel 2022 ha raggiunto i 500 milioni di euro. Con una crescita del 32% in un solo anno, di cui il 73% commissionato da imprese italiane (365 milioni di euro). Il 27% rappresentato da export di progetti (135 milioni di euro).
“Intelligenza Artificiale Responsabile – Cos’è, perché se ne parla, cosa devono fare le imprese?”
I numeri che dimostrano come la diffusione dell’Intelligenza Artificiale sia inarrestabile. Inoltre porti un numero crescente di imprese a guardare con interesse a questa opportunità. Come afferma Gartner nel Gartner Hype Cycle for AI 2023, “l’adozione anticipata di queste innovazioni porterà a un significativo vantaggio competitivo”. Secondo lo stesso Osservatorio AI del PoliMI, il 61% delle grandi imprese italiane ha già avviato almeno un progetto di Intelligenza Artificiale. Tra queste, il 42% ne ha più di uno operativo.
Perché si deve parlare di Intelligenza Artificiale responsabile?
L’intelligenza artificiale è diventata in poco tempo un potente motore di trasformazione per il mondo delle imprese e per la società in generale. Il 30 novembre 2022 OpenAI rilasciava la prima versione di Intelligenza Artificiale generativa in grado di interagire attraverso una semplice e intuitiva interfaccia conversazionale: ChatGPT.
La rivoluzione ChatGPT
L’evento ha avuto un impatto dirompente. Ben oltre la ristretta cerchia di specialisti del settore che per anni hanno sviluppato i modelli e le tecnologie alla base del suo straordinario successo. Governi e comuni cittadini hanno scoperto di navigare in un mare ignoto, dove non è chiaro quale rotta convenga seguire. Comprensibilmente, tutto ciò ha rinfocolato timori che sembravano sopiti. Riproponendo con prepotenza i grandi temi etici legati allo sviluppo dell’intelligenza artificiale.
Le opportunità e le sfide
Veicoli autonomi e assistenti virtuali personalizzati, solo per fare un paio di esempi, hanno dimostrato uno straordinario potenziale per migliorare la produttività. Oltre a semplificare i processi e aprire possibilità senza precedenti. Tuttavia, con il proliferare della tecnologia, aumenta anche la necessità di garantire uno sviluppo responsabile. Non è solo un obbligo morale ma anche un imperativo strategico per le aziende. Affrontando attivamente questioni come la trasparenza, l’affidabilità e responsabilità, le aziende possono creare fiducia tra i collaboratori, i clienti e i partner commerciali. Favorendo una percezione positiva della tecnologia.
Cosa possono fare le imprese per arginare il rischio?
Secondo Cefriel, le imprese devono aumentare la consapevolezza interna. Infatti è necessario comprendere almeno le principali sfide etiche poste dai sistemi di AI. Lavorare sulla cultura di fondo è importante anche per un altro motivo, legato a una tematica affine e parzialmente sovrapposta alla questione etica. Cioè l’accettazione dell’AI da parte dei dipendenti e collaboratori dell’impresa e, più in generale, dei cittadini.
Una roadmap necessaria
Un passo successivo consiste nel cominciare a mappare i casi d’uso, attuali e prevedibili, supportati da sistemi di AI, e fare una prima valutazione del “rischio etico”. Per le imprese che operano in Europa questo è un passo fondamentale. Perché l’AI Act, il regolamento in lavorazione in seno all’Unione Europea per regolamentare l’utilizzo dell’intelligenza artificiale, adotta precisamente una prospettiva basata sul rischio.
Senza dimenticare l’approccio etico
Un approccio etico allo sviluppo e all’utilizzo dei sistemi di AI in azienda non è più da rimandare. Il rischio normativo, legale e di immagine legato allo sviluppo di iniziative di AI è già oggi elevato e non potrà che crescere in futuro. L’adozione di buone pratiche di sviluppo responsabile dell’AI consente di ridurre l’esposizione al rischio. Inoltre permette di realizzare applicazioni e servizi di qualità, migliorandone accuratezza e prestazioni.
Intelligenza Artificiale Responsabile, sfruttarne al meglio le opportunità
Alfonso Fuggetta, Amministratore Delegato di Cefriel
C’è un urgente bisogno di percorsi di awareness. Per questo Cefriel ha presentato un nuovo servizio che vuole accompagnare le imprese e le PA nel fare una valutazione del rischio circa l’impatto delle soluzioni basate su AI. Inoltre per pianificare processi e azioni mirati a fare della tecnologia un uso responsabile. Poi rendere i servizi e i prodotti offerti in linea con quanto già definito dall’AI Act. Non avviare fin da ora le azioni volte a sviluppare awareness e valutare i rischi connessi allo sviluppo e all’utilizzo dell’AI nelle imprese potrebbe vanificare gli investimenti pianificati.