Adattarsi ai nuovi scenari: come sarà il futuro dei data center

Più scalabili, flessibili e capaci di rispondere alle mutate e mutevoli necessità di business.

cloud Data Center

Come adattarsi ai nuovi scenari, risponde Marco Bubani, Direttore Innovazione VEM sistemi. Il futuro dei data center tra cloud ibrido, virtualizzazione, Intelligenza Artificiale.

Marco Bubani VEM sistemiLa rapidità con la quale il mercato chiede alle imprese di adattarsi a nuovi scenari e a condizioni è in costante aumento. Le infrastrutture digitali devono essere ancora più scalabili, flessibili e capaci di rispondere alle mutevoli necessità di business. Una delle risposte a queste esigenze è stato il Public Cloud. Ma oggi, sebbene continui a essere una risorsa preziosa, le esigenze in evoluzione delle aziende e le nuove tecnologie richiedono soluzioni più diversificate e flessibili. Data Sovereignty, norme sempre più attente alla sicurezza ed alla privacy delle informazioni, Intelligenza Artificiale, bassa latenza, e costi stanno evidenziando la necessità di progettare le infrastrutture in modo ibrido.

I nuovi scenari

Questo approccio, sfruttando i vantaggi del Public Cloud in combinazione con altre architetture, permette alle aziende di ottimizzare le prestazioni, la sicurezza e i costi, soddisfacendo al contempo le specifiche esigenze operative e strategiche. Tuttavia, perché questo modello sia realizzabile, occorre ripensare completamente a come i Data Center sono progettati fino ad ora. Portando quelle caratteristiche di flessibilità e scalabilità tipiche del Public Cloud anche sulle infrastrutture digitali delle imprese. Inoltre rivedendo il modello con il quale queste infrastrutture così dinamiche e distribuite vengono protette da nuove minacce.

I quattro trend per i nuovi scenari

In particolare VEM sistemi individua quattro “trend chiave”. Essi stanno già generando impatto su come i Data Center sono progettati e incideranno su come questi ultimi devono essere ripensati in futuro.

  1. Il cloud

Il cloud offre numerosi vantaggi, tra cui la flessibilità, la scalabilità, la riduzione dei costi, tutto ciò lo rende una scelta attraente per molte aziende. Tuttavia, presenta anche alcune problematiche, come la governance dei dati, il controllo dei costi più difficile, la dipendenza da un cloud provider. Infatti, costruire servizi utilizzando tecnologie proprietarie dei grandi hyperscaler significa vincolarsi molto all’ hyperscaler stesso. Tutti questi aspetti hanno portato le aziende a ripensare a come progettare il Data Center. Così da mantenere i vantaggi del cloud ma garantire anche maggiore governance e indipendenza dai cloud provider a cui ci si rivolge e un migliore controllo dei costi.

Nuovi scenari e data center

Da queste considerazioni nasce così il trend della containerizzazione che vede in Red Hat una delle aziende di riferimento sul tema.  Si tratta in dettaglio di un nuovo modo di rivedere le applicazioni scritte a microservizi. Ognuno dei quali viene gestito da un container applicativo che può essere spostato tra il mondo on premise e quello cloud. Mantenendo anche un certo grado di indipendenza rispetto al cloud provider a cui ci si rivolge.

  1. La virtualizzazione

Recenti trasformazioni di mercato portano le aziende a comprendere che il fattore dipendenza non è limitato soltanto ai provider di servizi cloud. Ma si estende anche ad altre tecnologie utilizzateLa dipendenza, o lock-in, può verificarsi soprattutto quando esiste un fornitore dominante che ha l’egemonia tecnologica all’interno del mercato. Cosa accade se nella proprietà, nella strategia, nella politica o nella stabilità commerciale del fornitore cambia qualcosa? Ecco emergere di nuovo la necessità per le aziende di cercare di essere da un lato più indipendenti. Dall’altro di avere la capacità di valutare delle alternative. Nel mercato della virtualizzazione questa consapevolezza ha portato i CIO ad esplorare delle alternative tecnologiche rispetto a quelle abitualmente utilizzate.

Un percorso verso la modernizzazione

Una di queste soluzioni, per chi fosse interessato ad intraprendere un percorso orientato alla modernizzazione delle applicazioni, è rappresentata, secondo VEM sistemi, dalla piattaforma Open Shift di Red Hat. Questa piattaforma è in grado di far convivere macchine virtuali e container applicativi all’interno dello stesso ambiente, gestendo in modo ibrido entrambi gli aspetti. Con questa soluzione in sostanza, le macchine virtuali sono inserite all’interno di container applicativi consentendo una transizione graduale verso la riprogettazione delle applicazioni in ottica di microservizi.

  1. L’Intelligenza Artificiale

L’Intelligenza Artificiale esercita un impatto significativo sui Data Center a causa della sua intrinseca esigenza di dati e risorse. Per addestrare o sviluppare algoritmi di AI, è necessario disporre di sistemi con elevate capacità computazionali. In grado di gestire un traffico dati estremamente elevato e di affrontare le esigenze di dissipazione del calore.

Una così elevata concentrazione di carichi computazionali, con la necessità di accedere a volumi enormi di dati, rende i data center, concepiti secondo le attuali specifiche, inadeguati per supportare tali applicazioni. Schneider Electric ha sviluppato tecnologie dedicate alla gestione di sistemi a capacità computazionale elevatissima in alta densità come quelli generati dall’AI. Con una fortissima attenzione alla sostenibilità ed alla riduzione dei consumi e dell’impatto sull’ambiente.

  1. Un nuovo hardware

In passato, le CPU costituivano l’elemento predominante nei Data Center. Oggi, accanto ad esse, vi sono le GPU, processori specificamente dedicati all’Intelligenza Artificiale. Si è compreso che la capacità computazionale richiesta per elaborare le informazioni necessarie all’addestramento degli algoritmi non poteva essere gestita dagli stessi processori impiegati per la gestione delle applicazioni. Di conseguenza, è stato effettuato un offload di tutte le operazioni relative ai big data e all’IA su hardware specifici, ovvero le GPU.

Gli hardware

Ma ora si sta delineando l’arrivo di un nuovo gruppo di hardware specifico. Anche l’infrastruttura del Data Center, sempre più orientata al software, può essere trasferita dalla CPU a un hardware dedicato: Data Processing Unit (DPU). Ovvero schede con processori ottimizzati per gestire i quattro elementi strutturali del data center: networking, observability, storage e security. Tuttavia, nelle architetture complesse e distribuite, collocare questi quattro elementi su un hardware dedicato può risultare complesso nella progettazione del Data Center del futuro.

Adattarsi ai nuovi scenari: come sarà il futuro dei data center

A questo concetto è associato il ruolo di CISCO. Grazie all’acquisizione di Isovalent, ha ampliato la propria offerta creando così la soluzione Hypershild. Un’architettura di sicurezza nata per proteggere i datacenter di nuova generazione basati su AI. Isovalent è stata fondata con l’obiettivo specifico di gestire e ottimizzare networking, observability e sicurezza nei sistemi distribuiti basati su container. Di conseguenza, ciò consente a Cisco di ottenere una visione completa di tutte le comunicazioni, sia nel contesto fisico dell’hardware sia in quello orientato al software.

Conclusione

VEM Sistemi si distingue nel panorama dei system integrator grazie alla sua capacità di progettare sia data center fisici che, grazie all’acquisizione di Neen, infrastrutture basate sul cloud ibrido. Potendo così offrire ai propri clienti soluzioni complete e di elevato valore. Attraverso l’attenzione ai temi chiave come il cloud, la virtualizzazione, l’intelligenza artificiale e l’evoluzione dell’hardware, VEM è in grado di anticipare e affrontare le sfide future, contribuendo alla realizzazione di Data Center moderni e avanzati. Questo posizionamento strategico ci consente di mantenere un ruolo di primo piano nell’innovazione e nella trasformazione digitale. Supportando le aziende nel loro percorso di crescita e adattamento continuo.