Hvordan Red Hat omfavner AI for å gjøre livet enklere for systemadministratorer

0
24
6swidth Jay Yuno/Getty Images

Jeg vil være så glad når hver teknologi- eller forretningspressemelding ikke lenger begynner, “Nå med AI!” Mesteparten av tiden er det bare leppeservice. Og så er det Red Hat, som integrerer AI på tvers av produktlinjen. Dette inkluderer Red Hat Enterprise Linux AI (RHEL AI); Red Hat OpenShift AI; og Red Hat Ansible Automation. Her er hva hver enkelt gjør og hvordan de passer sammen.

Red Hat jobbet med AI i god tid før dette rush av kunngjøringer. Red Hats første seriøse AI-arbeid var med Red Hat Lightspeed, en generativ AI-tjeneste med en automasjonsspesifikk grunnmodell. Lightspeed, som bruker naturlig språkbehandling (NLP) for å gjøre meldinger om til kode, dukket først opp i Ansible DevOps-programmet, der det bidro til å forenkle komplekse systemadministrasjonsjobber. Spesielt ble den designet for å avmystifisere etableringen av Ansible Playbooks.

Også: IBM åpner kildekode for sine Granite AI-modeller – og de mener alvor

RHEL AI er Red Hats grunnleggende AI-plattform. For øyeblikket er det bare en forhåndsvisning av utviklere, RHEL AI er designet for å strømlinjeforme utvikling, testing og distribusjon av generativ AI-modell. Denne nye plattformen kombinerer IBM Researchs åpen kildekode-lisensierte Granite large language model (LLM), de LAB-metodikkbaserte InstructLab-justeringsverktøyene og en samarbeidstilnærming til modellutvikling via InstructLab-prosjektet.

IBM Research var banebrytende med LAB-metodikken, som bruker syntetisk datagenerering og flerfaseinnstilling for å justere AI/ML-modeller uten kostbar manuell innsats. LAB-tilnærmingen, foredlet gjennom InstructLab-fellesskapet, gjør det mulig for utviklere å bygge og bidra til LLM-er akkurat som de ville gjort til ethvert åpen kildekode-prosjekt.

Med lanseringen av InstructLab har IBM gitt ut utvalgte Granite English språk- og kodemodeller under en Apache-lisens, og gir transparente datasett for opplæring og samfunnsbidrag. Granite 7B engelskspråklig modell er nå integrert i InstructLab, der brukere i samarbeid kan forbedre sine evner.

RHEL AI er ment å forenkle bedriftsomfattende bruk ved å tilby et fullt optimert, oppstartbart RHEL-bilde for serverdistribusjoner på tvers av hybride skymiljøer. Disse optimaliserte oppstartbare modellens kjøretidsforekomster fungerer med Granite-modeller og InstructLab-verktøypakker. De inkluderer optimaliserte Pytorch runtime-biblioteker og GPU-akseleratorer for AMD Instinct MI300X, Intel og NVIDIA GPUer og NeMo-rammeverk.

RHEL AI er også integrert i OpenShift AI, Red Hats plattform for maskinlæringsoperasjoner (MLOps), noe som muliggjør storskala modellimplementering i distribuerte klynger.

Også: Linux Foundation og teknologi. giganter samarbeider om åpen kildekode generative AI-bedriftsverktøy

Det er den ene siden av RHEL AI. En annen er at den vil bruke Lightspeed for å hjelpe deg med å distribuere, administrere og vedlikeholde RHEL-forekomstene dine. For eksempel, på Red Hat Summit, demonstrerte Red Hat hvordan den kunne se etter  Common Vulnerability and Exploit (CVE) sikkerhetsoppdateringer, og du kan deretter fortelle systemet om å gå videre og implementere oppdateringen. 

Neste opp: OpenShift AI, som inkluderer RHEL AI, gjør det mulig for bedrifter å skalere arbeidsflyter og administrere modeller via Kubernetes-drevne MLOps. IBMs watsonx.ai enterprise studio-brukere vil dra nytte av denne integrasjonen ved å få tilgang til forbedret modellstyring og prissetting.

I likhet med RHEL AI inkluderer denne nye AI-vennlige versjonen av OpenShift — Red Hat Kubernetes distro — Lightspeed for å gjøre OpenShift enklere å bruke. Den vil for eksempel anbefale hvordan du distribuerer nye applikasjoner, når du skal bruke autoskalering og passende størrelser for skyforekomster. Videre vil den overvåke søknaden din; etter at appen har vært oppe og kjørt en stund, vil Lightspeed automatiskskalere appens ressurser ned hvis kapasitetskravene er lavere enn forventet.

Kort sagt, sa Ashesh Badani, Red Hats senior VP og Chief Product Officer, “Red Hat Lightspeed legger produksjonsklar AI i hendene på brukerne som kan levere mest mulig innovasjon raskere: IT-organisasjonen.” /p>

Også: Hvorfor åpen kildekode generative AI-modeller fortsatt er et skritt bak GPT-4

Til slutt, i Ansible, har Red Hat lagt til  "policy som kode" til sin bag av triks. Hvorfor? Sathish Balakrishnan, Ansibles VP og daglig leder, forklarte at etter hvert som AI skalerer egenskapene til individuelle systemer utover det vi kan administrere, har utfordringen med å vedlikeholde IT-infrastrukturen blitt stadig større. 

Fra der Balakrishnan sitter, er “AI den siste fasen av automasjonsadopsjonsreisen. I sammenheng med bedrifts-IT-operasjoner betyr AI maskiner som automatiserer prosesser, kobler sammen infrastruktur og verktøy for å gjøre dem mer effektive, og tar beslutninger for å forbedre motstandskraften og redusere kostnadene."

Ved å bruke AI til å automatisere policy som Code, ser Red Hat at den nye Ansibile effektivt håndhever internt og eksternt mandat retningslinjer ved starten av et nytt IT-prosjekt og deretter administrerer driften i stor skala. 

Hvis det slår deg at det er en enkelt tema her som forener alle programmene, du har rett. Red Hat bruker AI for å gjøre livet enklere for systemets administrasjoner. Ja, du vil kunne bygge AI-programmer på RHEL og OpenShift, men i nær fremtid handler Red Hat AI om å integrere hele Red Hat-programvarefamilien i en enkel å administrere, smart programvarestabel for alle sine kunder.