Apple bygger et høysikkerhets OS for å drive sine AI-datasentre – her er det vi vet så langt

0
15
privat-cloud-computer Apple

Under forrige ukes introduksjon av Apple Intelligence — Apples initiativ for kunstig intelligens - kunngjorde programvareingeniørsjef Craig Federighi at selskapet vil kjøre noen generative AI-modeller i et sikkert nettskymiljø når modellene krever ekstra hestekrefter.

Tjenesten kalles Private Cloud Compute (PCC), og vil bli gjenstand for gransking av eksterne sikkerhetseksperter. Federighi sa: “Akkurat som din iPhone kan uavhengige eksperter inspisere koden som kjører på disse serverne for å bekrefte dette personvernløftet.” Poenget: Å bekrefte visse personvernløfter fra Apple, inkludert at brukerdata aldri vil bli lagret på PCC-servere, men vil bli slettet fra minnet når en forespørsel er oppfylt. 

Også : Her er hvordan Apple holder de skybehandlede AI-dataene dine trygge (og hvorfor det er viktig)

Federighi gikk ikke i detalj om hvordan PCC-serverne vil bli inspisert eller revidert av sikkerhet forskere, men et påfølgende blogginnlegg fra Apples tekniske team sier at PCC-serverne vil kjøre en distinkt versjon av selskapets operativsystemprogramvare som forskere vil få lov til å inspisere. 

“Når vi lanserer Private Cloud Compute, vil vi ta det ekstraordinære skrittet å gjøre programvarebilder av hver produksjonsbygg av PCC offentlig tilgjengelig for sikkerhetsundersøkelser”," sier et innlegg fra Apple Security Engineering and Architecture og samarbeidende team. 

Artikkelen fortsetter med å si at Apple “med jevne mellomrom også vil publisere et undersett av den sikkerhetskritiske PCC-kildekoden, [og] i en første for enhver Apple-plattform vil PCC-bilder inkludere sepOS-fastvaren og iBoot bootloader i klartekst, noe som gjør det enklere enn noen gang for forskere å studere disse kritiske komponentene."

Apple understreker at enhetene deres "vil være villige til å sende data kun til PCC-noder som kryptografisk kan attestere å kjøre offentlig oppført programvare" som et middel for å sikre personvern og sikkerhetsgarantier. 

wwdc24-keynote-privacy-promise-jpeg.png

Apple gir forskjellige løfter om sikkerheten og sikkerhet ved bruk av Private Cloud Compute for å behandle noen AI-oppgaver.

Apple

Det ble gitt lite detaljer om serverprogramvarens natur, bortsett fra det faktum at det er en avledning av iOS og MacOS-operativsystemer. 

Serverne vil kjøre på Apples egne databrikker, analogt med iPhone og iPad, og Mac, og “Vi paret denne maskinvaren med et nytt operativsystem: en herdet undergruppe av grunnlaget for iOS og macOS skreddersydd for å støtte store språk modell (LLM) inferensarbeidsbelastninger mens de presenterer en ekstremt smal angrepsoverflate. Dette lar oss dra nytte av iOS-sikkerhetsteknologier som kodesignering og sandboxing."

Også: Apples AI-ekstravaganza utelatt 2 viktige fremskritt – kanskje neste gang?

Apples iOS og macOS er basert på en kombinasjon av åpen kildekode-teknologier som Darwin-operativsystemet, utviklet hos Apple på 1990-tallet, og freeBSD, og ​​lukket kildekode-systemprogramvare utviklet hos Apple.

Det er usikkert når utviklere får en titt på den nye programvaren.

I blogginnlegget sier Apple-forskere at de vil gi sikkerhetsforskere en «første titt" på programvaren "snart." Et notat på Apples utviklernettsted sier at Apple Intelligence vil være tilgjengelig “i en kommende beta” uten å nevne noe spesifikt om PCC-timing. 

ZDNETs Maria Diaz spekulerer i at iOS 18 betas vil bli tilgjengelig i juli, selv om Apples nettsted sier i en fotnote at “Apple Intelligence” vil være tilgjengelig i beta på iPhone 15 Pro, iPhone 15 Pro Max og iPad og Mac med M1 og nyere, med Siri og enhetsspråk satt til amerikansk engelsk, som en del av iOS 18, iPadOS 18 og macOS Sequoia denne høsten.&quot ;