Åpenhet er sårt mangelfull på grunn av økende AI-interesse

0
13
Personer width= Andriy Onufriyenko/Getty Images

Det mangler fortsatt åpenhet rundt hvordan grunnmodeller trenes, og dette gapet kan føre til økende spenning med brukerne ettersom flere organisasjoner ser etter å ta i bruk kunstig intelligens (AI). 

I Asia-Stillehavet, unntatt Kina , anslås utgiftene til kunstig intelligens å vokse med 28,9 % fra 25,5 milliarder dollar i 2022 til 90,7 milliarder dollar innen 2027, ifølge IDC. Forskningsfirmaet estimerte at hoveddelen av disse utgiftene, på 81 %, vil bli rettet mot prediktive og fortolkende AI-applikasjoner. 

Dessuten: Fem måter å bruke AI på en ansvarlig måte

Så selv om det er mye hype rundt generativ AI, vil AI-segmentet stå for bare 19 % av regionens AI-utgifter, bemerket Chris Marshall, visepresident for data, analyse, AI, bærekraft og industriforskning ved IDC Asia-Pacific. 

Undersøkelsen fremhever et marked som trenger en bredere tilnærming til AI som spenner over generativ AI, sa Marshall, som talte på Intel AI Summit som ble holdt i Singapore denne uken. 

Imidlertid tror 84 % av Asia-Stillehavsorganisasjonene at å bruke generative AI-modeller vil gi et betydelig konkurransefortrinn for virksomheten deres, bemerket IDC. Ved å gjøre det håper disse foretakene å oppnå gevinster i driftseffektivitet og ansattes produktivitet, forbedre kundetilfredsheten og utvikle nye forretningsmodeller, la forskningsfirmaet til. 

Også: 

xA0;De beste AI-chatbotene: ChatGPT og andre bemerkelsesverdige alternativer

IDC forventer også at flertallet av organisasjonene i regionen øker IT-utgiftene dette året, med 75 % av bedriftsdataene som forventes å bli generert og behandlet i kanten innen 2025, utenfor tradisjonelle datasentre og skyen. < /p>

“For virkelig å bringe AI overalt, må teknologiene som brukes gi tilgjengelighet, fleksibilitet og åpenhet til enkeltpersoner, bransjer og samfunnet forøvrig”," sa Alexis Crowell, Intels Asia-Pacific Japan CTO. “Som vi er vitne til økende vekst i AI-investeringer, vil de neste årene være avgjørende for markeder for å bygge ut grunnlaget for AI-modenhet på en ansvarlig og gjennomtenkt måte.”

Bransjeaktører og myndigheter har ofte utpekt viktigheten av å bygge tillit og åpenhet i AI, og for forbrukere å vite at AI-systemer er “rettferdige, forklarbare og trygge”. Imidlertid ser det ut til at denne åpenheten fortsatt mangler i noen viktige aspekter. 

Da ZDNET spurte om det for øyeblikket var tilstrekkelig åpenhet rundt hvordan åpne store språkmodeller (LLM) og grunnleggende modeller ble trent, sa Crowell: “Nei, ikke nok.”

Også:&# xA0;Dagens AI-boom vil forsterke sosiale problemer hvis vi ikke handler nå

Hun pekte på en studie utført av forskere fra Stanford University, MIT og Princeton som vurderte gjennomsiktigheten til 10 store grunnmodeller, der den toppscorende plattformen bare klarte en poengsum på 54 %. “Det er et sviktende merke”," sa hun under en mediebriefing på toppmøtet. 

Den gjennomsnittlige poengsummen kom på bare 37 %, ifølge studien, som vurderte modellene basert på 100 indikatorer inkludert prosesser involvert i bygging modellen, for eksempel informasjon om treningsdata, modellens arkitektur og risikoer, og retningslinjer som styrer bruken. Toppscoreren med 54 % var Meta's Llama 2, etterfulgt av BigScience's Bloomz på 53%, og OpenAI's GPT-4 på 48%.  

“Ingen store grunnmodellutviklere er i nærheten av å gi tilstrekkelig åpenhet, noe som avslører en grunnleggende mangel på åpenhet i AI-industrien,”" forskerne bemerket. 

Åpenhet er nødvendig

Crowell uttrykte håp om at denne situasjonen kan endre seg med tilgjengeligheten av benchmarks og organisasjoner som overvåker denne utviklingen. Hun la til at søksmål, som de som ble reist av New York Times mot OpenAI og Microsoft, kan bidra til å bringe ytterligere juridisk klarhet. 

Spesielt bør det være styringsrammer som ligner på datahåndteringslovgivning, inkludert Europas GDPR (General Data Protection Regulation), slik at brukerne vet hvordan dataene deres brukes, bemerket hun. 

Bedrifter må også ta kjøpsbeslutninger basert på hvordan dataene deres fanges opp og hvor de går, sa hun og la til at økende spenning fra brukere som krever mer åpenhet, kan føre til bransjetiltak. 

Som det er, stoler ikke 54 % av AI-brukere på dataene som brukes til å trene AI-systemer, avslørte en fersk Salesforce-undersøkelse, som spurte nesten 6000 kunnskapsarbeidere i ni markeder, inkludert Singapore, India, Australia, Storbritannia, USA og Tyskland.

Også: AI og avanserte applikasjoner belaster dagens teknologiske infrastruktur

I motsetning til vanlig oppfatning, trenger ikke nøyaktighet gå på bekostning av åpenhet, sa Crowell, og siterte en forskningsrapport ledet av Boston Consulting Group. 

Rapporten så på hvor svart – og white-box AI-modeller utført på nesten 100 referanseklassifiseringsdatasett, inkludert prissetting, medisinsk diagnose, konkursprediksjon og kjøpsatferd. For nesten 70 % av datasettene ga svart-boks- og hvitboks-modeller tilsvarende nøyaktige resultater.

"Med andre ord, oftere enn ikke, var det ingen avveining mellom nøyaktighet og forklarbarhet," sa rapporten. “En mer forklarlig modell kan brukes uten å ofre nøyaktigheten.”

Å få full åpenhet er imidlertid fortsatt utfordrende, sa Marshall, som bemerket at diskusjonene rundt AI-forklarbarhet en gang var travle, men siden hadde stilnet. fordi det er et vanskelig problem å ta tak i. 

Også: 5 måter å forberede seg på virkningen av generativ AI på IT-profesjonen

Organisasjoner bak store stiftelsesmodeller er kanskje ikke villige til å komme med informasjon om opplæringsdataene sine på grunn av bekymringer om å bli saksøkt, sa Laurence Liew, direktør for AI-innovasjon for offentlig organ, AI Singapore (AISG). 

Han la til at å være selektiv med hensyn til treningsdata også ville påvirke nøyaktighetsratene for AI. 

Liew forklarte at AISG valgte å ikke bruke visse datasett på grunn av potensielle problemer med å bruke alle offentlig tilgjengelige med sine eget LLM-initiativ, SEA-LION (Southeast Asian Languages ​​in One Network). 

Som et resultat er ikke åpen kildekode-arkitekturen så nøyaktig som noen store LLM-er på markedet i dag, sa han. "Det er en fin balanse," bemerket han, og la til at å oppnå en høy nøyaktighetsgrad ville bety å ta i bruk en åpen tilnærming til å bruke alle tilgjengelige data. Å velge den "etiske" bane og ikke å berøre visse datasett da vil bety en lavere nøyaktighetsgrad enn de som oppnås av kommersielle aktører, sa han. 

Men mens Singapore har valgt en høy etisk bar med SEA-LION, utfordres den fortsatt ofte av brukere som krever at flere datasett skal benyttes for å forbedre LLMs nøyaktighet, sa Liew. 

En gruppe forfattere og utgivere i Singapore uttrykte forrige måned bekymringer om muligheten deres kan bli brukt til å trene SEA-LION. Blant klagene deres er den tilsynelatende mangelen på forpliktelse til å “betale rettferdig kompensasjon” til bruk for alle skrifter. De bemerket også behovet for klarhet og eksplisitt anerkjennelse av at landets lover om immaterielle rettigheter og opphavsrett, og eksisterende kontraktsmessige ordninger, vil bli opprettholdt ved opprettelse og opplæring av LLM-er. 

Å være åpen om åpenhet kilde

Slik anerkjennelse bør også utvides til åpen kildekode-rammeverk som AI-applikasjoner kan utvikles på, ifølge Red Hat-sjef Matt Hicks.

Modeller er trent opp fra store mengder data levert av personer med opphavsrett, og å bruke disse AI-systemene på en ansvarlig måte betyr å overholde lisensene de er bygget med, sa Hicks, under en virtuell mediebriefing denne uken på baksiden av Red Hat Summit 2024.< /p>

Også: Vil du jobbe med kunstig intelligens? Slik svinger du karrieren din i 5 trinn

Dette er relevant for modeller med åpen kildekode som kan ha ulike lisensieringsvarianter, inkludert copyleft-lisenser som GPL og tillatende lisenser som Apache.&#xA0 ;

Han understreket viktigheten av åpenhet og å ta ansvar for å forstå datamodellene og håndteringen av utdataene modellene genererer. For både sikkerheten og sikkerheten til AI-arkitekturer er det nødvendig å sikre at modellene er beskyttet mot ondsinnet utnyttelse. 

Red Hat ønsker å hjelpe sine kunder med slik innsats gjennom en rekke verktøy , inkludert Red Hat Enterprise Linux AI (RHEL AI), som den avduket på toppmøtet. Produktet består av fire komponenter, inkludert Open Granite-språk- og kodemodeller fra InstructLab-fellesskapet, som støttes og skadesløses av Red Hat. 

Tilnærmingen adresserer utfordringer organisasjoner ofte møter i sin AI-distribusjon, inkludert administrere applikasjonen og modellens livssyklus, sa open source-leverandøren. 

"[RHEL AI] oppretter en grunnleggende modellplattform for å bringe åpen kildekode-lisensierte GenAI-modeller inn i bedriften," det sto. “Med InstructLab-justeringsverktøy, Granite-modeller og RHEL AI, har Red Hat som mål å bruke fordelene med ekte åpen kildekode-prosjekter – fritt tilgjengelige og gjenbrukbare, transparente og åpne for bidrag – til GenAI i et forsøk på å fjerne disse hindringene ."