Nutanix GPT-in-a-Box, mantenere il controllo dei dati

Nutanix gpt partner program

Nutanix svela GPT-in-a-Box, per i clienti che desiderano innovare grazie ad intelligenza artificiale e machine learning mantenendo il controllo dei propri dati.

La nuova offerta, immediatamente disponibile, è una piattaforma software-defined completa per i progetti di IA che include servizi per aiutare le aziende a dimensionare e configurare l’infrastruttura hardware e software adatta per l’implementazione di una serie di modelli LLM (Large Language Models) utilizzando i principali framework open source di IA e MLOps sulla Nutanix Cloud Platform. La soluzione offre ai clienti un’infrastruttura IA per l’impostazione e l’esecuzione di trasformatori generativi pre-addestrati (GPT), compresi modelli LLM, sia in ambiente edge che nel loro datacenter.

Molte aziende sono alle prese con il problema di come sfruttare in modo rapido, efficiente e sicuro la potenza dell’IA generativa e delle applicazioni IA/ML, soprattutto per i casi d’uso che non possono essere eseguiti nel cloud pubblico a causa di problemi di sovranità dei dati, governance e privacy. Ogni giorno emergono nuovi casi d’uso e le aziende cercano di sfruttare l’IA generativa per migliorare il servizio clienti, la produttività degli sviluppatori, l’efficienza operativa e altro ancora.

Dalla trascrizione automatica di documenti interni alla ricerca ad alta velocità di contenuti multimediali e all’analisi automatizzata, molte aziende vedono nell’IA un’opportunità, ma sono preoccupate dalla perdita di proprietà intellettuale, dalla conformità e dalla privacy. Inoltre, le aziende che cercano di creare uno stack IA spesso faticano a capire come supportare al meglio gli amministratori del machine learning e i data scientist. Inoltre, la prospettiva di ingenti costi di investimento per l’IA fa sì che le aziende siano in fase di stallo relativamente alla loro strategia di IA e ML.

La soluzione Nutanix GPT-in-a-Box offre ai clienti un’infrastruttura IA pronta all’uso, controllata dal cliente sia in ambiente edge che nel datacenter e che permette loro di impostare ed eseguire modelli di IA e GPT mantenendo il controllo sui dati.
Nutanix offre una gamma completa di soluzioni di sicurezza e protezione dei dati ideali per la protezione dei dati dell’intelligenza artificiale.

  1. L’avanzata piattaforma Nutanix Cloud Infrastructure, con le soluzioni Nutanix Files Storage e Objects Storage, l’hypervisor Nutanix AHV e Kubernetes, e l’accelerazione della GPU NVIDIA, che può essere facilmente scalata.
  2. I servizi Nutanix per aiutare i clienti a dimensionare correttamente il proprio cluster e implementare uno stack con gli avanzati framework open source di deep learning e MLOps, un server di inferenza e una scelta di modelli linguistici ampi (LLM) come Llama2, Falcon e MPT.
  3. Possibilità per data scientist e amministratori ML di utilizzare immediatamente questi modelli con la propria scelta di applicazioni, interfacce utenti avanzate o CLI standard.
  4. La piattaforma può essere utilizzata anche per eseguire altri modelli GPT, nonché ottimizzare tali modelli sfruttando i dati interni, ospitati nei servizi Nutanix Files o Objects Storage inclusi.

La soluzione Nutanix GPT-In-a-Box si basa sulla scalabilità full stack, sulle prestazioni, sulla resilienza e sulla facilità d’uso per cui è nota piattaforma Nutanix Cloud. L’esperienza di Nutanix in termini di infrastruttura scalabile nei casi d’uso relativi a cloud pubblico, datacenter e edge offre l’ambiente ideale per mettere a punto ed eseguire le applicazioni di intelligenza artificiale mantenendo il controllo sui dati. Infatti, in un recente sondaggio, il 78% dei clienti Nutanix ha dichiarato che probabilmente eseguirà i propri carichi di lavoro IA/ML sulla Nutanix Cloud Platform.

L’esperienza di Nutanix e il suo coinvolgimento nella comunità IA open source offre ai clienti una solida base su cui impostare la propria strategia IA. Tra i principali contributi: partecipazione al comitato consultivo di MLCommons (standard IA); co-fondazione e leadership tecnica nella definizione di ML Storage Benchmarks e Medicine Benchmarks; co-presidenza dei gruppi di lavoro Kubeflow (MLOps) Training e AutoML presso la Cloud Native Computing Foundation (CNCF).