Red Hat ha organizzato il 28 maggio un incontro con la stampa per ricapitolare i più recenti sviluppi tecnologici centrati sull’intelligenza artificiale e gli ultimi annunci, in particolare quelli fatti al Red Hat Summit tenuto ai primi di maggio a Denver. Hanno partecipato Gianni Anguilletti, Vice-President Med Region, Red Hat, Rofolfo Falcone, Country Manager, Red Hat Italy, e Giorgio Galli, Head of Presales, Red Hat Italy.
L’intelligenza artificiale è al centro del settore IT
Il mondo dell’IT nelle aziende è in rapida evoluzione e dopo il successo del cloud è la volta dell’intelligenza artificiale, che è ormai l’argomento principale delle discussioni degli addetti ai lavori, tanto è vero che l’82% delle organizzazioni prevede di aumentare i workload in ambito AI nei prossimi due anni. Il 65% delle stesse organizzazioni sta investendo nell’AI generativa, il 52% ritiene che oggi ci sia una carenza di strumenti sufficientemente efficienti in ambito machine learning operation, il 40% delle maggiori società del mondo sta assegnando finanziamenti per lo sviluppo dell’intelligenza artificiale. In sintesi, il mercato del software in ambito AI crescerà a un ritmo del 18 – 20% anno su anno ed entro il 2026 raggiungerà i 790 miliardi di dollari.
Per supportare i propri clienti in questa fase di rapida crescita dell’intelligenza artificiale, Red Hat continuerà a espandere e rafforzare la proposizione attuale in termini di tecnologie e servizi, che essenzialmente si basa su tre pilastri principali. Il primo è un framework per lo sviluppo di applicazioni moderne e native per il cloud, che possono sfruttare nuovi paradigmi tecnologici, come per esempio AI, ML, microservizi e container. Il secondo pilastro è costituito dalle tecnologie per la realizzazione e la gestione di piattaforme cloud Ibride e aperte. Il terzo riguarda gli strumenti per l’automazione di infrastrutture informatiche, per rendere le relative operazioni non soltanto più economiche e più rapide ma anche più resilienti e più affidabili.
Tutto questo sempre tenendo conto della necessità di libertà di scelta, di consistenza e di flessibilità che le aziende devono avere. In pratica questo portfolio deve poter essere installato su qualsiasi tipo di piattaforma, che sia on-prem, nel cloud privato o pubblico.
Inoltre Red Hat fornisce ai propri clienti tutta una serie di nuove tecnologie, metodologie, best practice per sviluppare applicazioni potenziate dall’AI, riducendo al minimo il tempo intercorrente tra lo sviluppo e la messa in produzione.
Gianni Anguilletti, Vice-President Med Region, Red Hat
È convinzione di Red Hat che, come il cloud è ibrido e aperto, anche l’intelligenza artificiale deve essere ibrida e aperta. Per questo è in atto uno sforzo significativo per rendere open source i modelli in questo ambito. In altre parole, l’azienda ha intenzione di investire e di lavorare sull’AI proprio come ha fatto in passato, prima per il sistema operativo Linux, in seguito per il cloud. Questa attività sarà sempre basata sulla collaborazione con le comunità di cui facciamo parte storicamente, mettendo al centro il cliente, senza però dimenticare la community di sviluppatori, che rende possibile il modello di sviluppo open source.
L’AI e l’open source
Red Hat dà il suo contributo allo sviluppo dell’AI con una piattaforma basata su standard aperti, sul cloud e ibrida. A questo si aggiunge la compatibilità con l’hardware di Nvidia, Intel e AMD per accelerare l’esecuzione dell’AI. Con Nvidia, in particolare, la community è al lavoro per integrare i microservizi dell’azienda, in modo che siano eseguibili sulla piattaforma di Red Hat. Sempre Red Hat ha stretto accordi con Elastic, Run:AI e Stability.AI per sfruttare i loro applicativi integrati ISV, e con Deloitte, Qualcomm e Renesas per lo sviluppo tramite simulazione virtuale del software per le automobili. Ha stretto anche un’alleanza con l’associazione AI Sweden, che raccoglie più di 100 aziende che si occupano di AI.
Il marchio sta accelerando l’implementazione dell’intelligenza artificiale secondo una struttura a livelli. Alla base c’è un’infrastruttura composta dai prodotti Red Hat Enterprise Linux (un sistema operativo che contiene tutte le componenti software per sviluppare, interagire e addestrare modelli AI, in fase di technology preview), Ansible Automation Platform (una soluzione per l’automazione IT strategica, disponibile a breve come technology preview) e OpenShift (piattaforma AI e ML che consente di creare e distribuire applicazioni abilitate all’AI su larga scala in ambienti cloud ibridi). OpenShift AI fa da piattaforma su cui poggiano i modelli AI open source, quelli proprietari e IBM Watsonx, per esempio. Sopra tutto ci sono le applicazioni, come Red Hat Lightspeed e quelle sviluppate dai clienti.
Rofolfo Falcone, Country Manager, Red Hat Italy
Lightspeed (disponibile come Technology Preview entro il 2024) solleva l’utente dalla necessità di scrivere codice, dato che basta usare il linguaggio naturale per ottenere subito un programma pronto per essere usato (dopo una revisione, naturalmente). Lightspeed è una applicazione AI, che verrà estesa anche a RHEL (in fase di pianificazione, disponibilità da definire) e a OpenShift. Così si avrà una intelligenza artificiale generativa capace di gestire i sistemi operativi e l’infrastruttura.
Un’evoluzione importante nel settore dell’AI è la possibilità di contribuire allo sviluppo dei modelli LLM, anche da parte di aziende e sviluppatori open source. In precedenza, le modifiche non potevano essere inglobate nei modelli, creati e gestiti solamente dai grandi marchi. Per favorire la crescita dei modelli LLM grazie ai contributi open source, IBM e Red Hat hanno creato InstructLab, un progetto open source che serve per lo sviluppo di una versione potenziata di IBM Granite. IBM ha donato e mantiene l’infrastruttura necessaria per questo progetto.
Le modifiche e le migliorie al modello open source sono sottoposte alla community, ma non è detto che tutte siano accettate, c’è una fase di validazione. Quelle che superano questo esame vanno ad arricchire il modello, che così diventa più versatile. Da notare che questa infrastruttura di sviluppo conserva tutte le informazioni necessarie per risalire alla fonte delle modifiche e dei dati utilizzati per l’addestramento, secondo un principio di totale trasparenza. Red Hat si impegna a livello contrattuale a garantire questa trasparenza e il buon funzionamento dei modelli. In altre parole, l’azienda si fa garante nelle eventuali diatribe legali che possono sorgere in seguito all’uso di questi modelli.
Red Hat sta anche lavorando per far sì che l’automazione rispetti le policy legate alle regolamentazioni, ovvero che sia conforme a regole che in determinati ambiti, come quello finanziario, sono assolutamente necessarie.
Un altro progetto open source in corso è Konveyor, un’applicazione di AI generativa per la modernizzazione dei sistemi IT aziendali, basata sul linguaggio naturale. In pratica analizza un’applicazione tradizionale e dice come può essere trasformata in microservizi, con la generazione del codice necessario per la trasformazione.
Giorgio Galli, Head of Presales, Red Hat Italy
In sintesi, l’open source permette alla community di contribuire allo sviluppo di modelli AI open source tramite il progetto InstructLab creato da IBM e Red Hat. Quest’ultima continua a espandere le tecnologie RHEL AI e OpenShift AI, per supportare la modifica dei modelli, il training e l’esecuzione. Tutto questo fatto in maniera trasparente, in modo che tutti possano contribuire.