Hewlett Packard Enterprise (HPE) har slått seg sammen med Nvidia for å tilby det de hevder som en integrert “nøkkelferdig” løsning for organisasjoner som ønsker å ta i bruk generativ kunstig intelligens (GenAI), men blir satt ut av kompleksiteten ved å utvikle og administrere slike arbeidsmengder.
Kalt Nvidia AI Computing av HPE, produkt- og tjenesteporteføljen omfatter samutviklede AI-applikasjoner og vil se at begge selskapene sammen presenterer og leverer løsninger til kunder. De vil gjøre det sammen med kanalpartnere som inkluderer Deloitte, Infosys og Wipro.
Også: AIs sysselsettingseffekt: 86 % av arbeiderne frykter jobbtap, men her er det noen gode nyheter
Utvidelsen av HPE-Nvidia-partnerskapet, som har strukket seg over flere tiår, ble kunngjort under HPEs president og administrerende direktør Antonio Neri's keynote på HPE Discover 2024, som ble holdt på Sphere i Las Vegas denne uken. Han fikk selskap på scenen av Nvidias grunnlegger og administrerende direktør Jensen Huang.
Neri bemerket at GenAI har betydelig transformativ kraft, men kompleksiteten til fragmentert AI-teknologi kommer med for mange risikoer som hindrer store -skala bedriftsadopsjon. Å skynde seg inn for å adoptere kan være kostbart, spesielt for et selskaps mest prissatte eiendel – dataene, sa han.
Huang la til at det er tre nøkkelkomponenter i AI, nemlig store språkmodeller (LLM), dataressursene for å behandle disse modellene og dataene. Derfor vil bedrifter trenge en datastabel, en modellstabel og en datastabel. Hver av disse er komplisert å distribuere og administrere, sa han.
HPE-Nvidia-partnerskapet har jobbet for å produktisere disse modellene, ved å benytte Nvidias AI Enterprise-programvareplattform inkludert Nvidia NIM-inferensmikrotjenester og HPE AI Essentials-programvare, som gir kurerte AI og datagrunnlagsverktøy sammen med et sentralisert kontrollpanel.
Den "nøkkelferdige" løsningen vil tillate organisasjoner som ikke har tid eller ekspertise til å samle alle kapasitetene, inkludert opplæringsmodeller, til å fokusere ressursene sine i stedet på å utvikle nye AI-brukssaker, sa Neri.
Nøkkelen til dette er HPE Private Cloud AI, sa han, som tilbyr en integrert AI-stack som omfatter Nvidia Spectrum-X Ethernet-nettverk, HPE GreenLake for fillagring og HPE ProLiant-servere optimalisert for å støtte Nvidias L40S, H100 NVL Tensor Core GPUer og GH200 NVL2-plattform.
Også: Siste AI-treningsreferanser viser at Nvidia ikke har noen konkurranse
AI krever en hybrid sky av design for å levere GenAI effektivt og gjennom hele AI-livssyklusen, sa Neri, som gjenspeiler det han sa i mars på Nvidia GTC. “Fra trening og innstilling av modeller på stedet, i et samlokaliseringsanlegg eller den offentlige skyen, til inferencing på kanten, er AI en hybrid sky-arbeidsmengde,” sa han.
Med det integrerte HPE-Nvidia-tilbudet presenterer Neri at brukere kan settes opp på AI-distribusjonen på bare tre klikk og 24 sekunder.
Huang sa: “GenAI og akselerert databehandling gir næring til en grunnleggende transformasjon ettersom hver industri kjemper for å bli med i den industrielle revolusjonen. Aldri før har Nvidia og HPE integrert teknologiene våre så dypt – ved å kombinere hele Nvidia AI-datamaskinstabelen sammen med HPEs private skyteknologi."
Fjerne kompleksiteten og koble fra
Den felles løsningen samler teknologier og team som ikke nødvendigvis er integrert i organisasjoner, sa Joseph Yang, HPEs daglige leder for HPC og AI i Asia-Pacific og India.
AI-team (i selskaper som har dem) kjører vanligvis uavhengig av IT-teamene og rapporterer kanskje ikke engang til IT, sa Yang i et intervju med ZDNET på sidelinjen til HPE Discover. De vet hvordan de bygger og trener AI-modeller, mens IT-team er kjent med skyarkitekturer som er vert for generelle arbeidsbelastninger og kanskje ikke forstår AI-infrastrukturer.
Også: Generativ AI' Den største utfordringen er å vise avkastningen – her er hvorfor
Det er en frakobling mellom de to, sa han, og la merke til at AI og skyinfrastrukturer er tydelig forskjellige. Skyarbeidsbelastninger, for eksempel, har en tendens til å være små, med én server som kan være vert for flere virtuelle maskiner. Til sammenligning er arbeidsbelastningen for AI-inferencing store, og å kjøre AI-modeller krever betydelig større infrastruktur, noe som gjør disse arkitekturene kompliserte å administrere.
IT-team møter også økende press fra ledelsen til å ta i bruk AI, noe som øker presset og kompleksiteten ved å distribuere GenAI, sa Yang.
Han la til at organisasjoner må bestemme hvilken arkitektur de trenger for å komme videre med sine AI-planer, ettersom deres eksisterende maskinvareinfrastruktur er et sammensurium av servere som kan være foreldet. Og fordi de kanskje ikke har investert i en privat sky eller serverfarm for å kjøre AI-arbeidsbelastninger, står de overfor begrensninger på hva de kan gjøre siden deres eksisterende miljø ikke er skalerbart.
“Bedrifter vil trenge den riktige datainfrastrukturen og -kapasiteten som gjør dem i stand til å akselerere innovasjon og samtidig minimere kompleksiteten og risikoen forbundet med GenAI,”" sa Yang. "Nvidia AI Computing by HPE-porteføljen vil gi bedrifter mulighet til å akselerere tid til verdi med GenAI for å drive nye muligheter og vekst."
Også: AI-ferdigheter eller AI-forbedrede ferdigheter? Hva arbeidsgivere trenger kan avhenge av deg
Neri bemerket videre at den private sky-distribusjonen også vil ta opp bekymringer organisasjoner kan ha angående datasikkerhet og suverenitet.
Han la til at HPE overholder alle lokale forskrifter og samsvarskrav, så AI-prinsipper og -policyer vil bli brukt i henhold til lokale markedsbehov.
I følge HPE gir det private sky-AI-tilbudet støtte for inferens, finjustering og RAG (gjenfinning-augmented generation) AI-arbeidsbelastninger som benytter seg av proprietære data, samt kontroller for datavern, sikkerhet og samsvar. Den tilbyr også sky-ITOps og AIOps-funksjoner.
Drift av HPE GreenLake skytjenester, vil det private sky AI-tilbudet tillate bedrifter å automatisere og orkestrere endepunkter, arbeidsbelastninger og data på tvers av hybridmiljøer. < /p>
Også: Hvordan mine 4 favoritt-AI-verktøy hjelper meg å få gjort mer på jobben
HPE Private Cloud AI er planlagt for generell tilgjengelighet til høsten, sammen med HPE ProLiant DL380a Gen12-server med Nvidia H200 NVL Tensor Core GPUer og HPE ProLiant DL384 Gen12-server med dobbel Nvidia GH200 NVL2.
HPE Cray XD670-server med Nvidia H200 NVL er planlagt for generell tilgjengelighet om sommeren.
>
Eileen Yu rapporterte for ZDNET fra HPE Discover 2024 i Las Vegas, på invitasjon fra Hewlett Packard Enterprise.