Det er enighet om at generativ kunstig intelligens (AI)-verktøy kan hjelpe folk med å spare tid og øke produktiviteten. Men selv om disse teknologiene gjør det enkelt å kjøre kode eller produsere rapporter raskt, kan backend-arbeidet for å bygge og opprettholde store språkmodeller (LLMs) trenge mer menneskelig arbeidskraft enn innsatsen som er spart på forhånd. I tillegg trenger mange oppgaver ikke nødvendigvis ildkraften til AI når standard automatisering vil gjøre det.
Det er ordet fra Peter Cappelli, ledelsesprofessor ved University of Pennsylvania Wharton School, som talte på et nylig MIT-arrangement. På en kumulativ basis kan generative AI og LLM-er skape mer arbeid for folk enn å lette oppgaver. LLM-er er kompliserte å implementere, og “det viser seg at det er mange ting som generativ AI kan gjøre som vi egentlig ikke trenger å gjøre”," sa Cappelli.
Også: Rote-automatisering var slik i fjor: AI presser mer intelligens inn i programvareutvikling
Mens AI er hyped som en spillendrende teknologi, er “projeksjoner fra teknologisiden ofte spektakulært feil”," påpekte han. "Faktisk har de fleste teknologiprognosene om arbeid vært feil over tid." Han sa at den nært forestående bølgen av førerløse lastebiler og biler, spådd i 2018, er et eksempel på rosenrøde anslag som ennå ikke har gått i oppfyllelse.
Brede visjoner om teknologidrevet transformasjon blir ofte snublet i de grove detaljene. Tilhengere av autonome kjøretøy fremmet hva “førerløse lastebiler kunne gjøre, i stedet for hva som må gjøres, og det som kreves for å rydde forskrifter – forsikringsspørsmålene, programvareproblemene og alle disse problemene.” I tillegg la Cappelli til: “Hvis du ser på det faktiske arbeidet deres, gjør lastebilsjåfører mange andre ting enn bare å kjøre lastebiler, selv på langdistansetransport.”
En lignende analogi kan trekkes til bruk av generativ AI for programvareutvikling og virksomhet. Programmerere “bruker mesteparten av tiden sin på å gjøre ting som ikke har noe med dataprogrammering å gjøre”," han sa. “De snakker med folk, de forhandler budsjetter og alt den slags. Selv på programmeringssiden er ikke alt dette faktisk programmering."
Også: Smidig utvikling kan låse opp kraften til generativ AI – her er hvordan
De teknologiske mulighetene for innovasjon er spennende, men utrullingen har en tendens til å bli bremset av realiteter på bakken. Når det gjelder generativ AI, kan eventuelle arbeidsbesparende og produktivitetsfordeler oppveies av mengden backend-arbeid som trengs for å bygge og opprettholde LLM-er og algoritmer.
Både generativ og operativ AI "genererer nytt arbeid" påpekte Cappelli. "Folk må administrere databaser, de må organisere materiell, de må løse disse problemene med duellrapporter, gyldighet og den slags ting. Det kommer til å generere mange nye oppgaver, noen må gjøre dem."
Også: Generativ AI er teknologien IT føler mest press for å utnytte
Han sa at operativ AI som har vært på plass en stund fortsatt er et arbeid som pågår. "Maskinlæring med tall har vært markant underbrukt. En del av dette har vært spørsmål om databasebehandling. Det krever mye innsats bare å sette sammen dataene slik at du kan analysere dem. Data er ofte i forskjellige siloer i forskjellige organisasjoner, som er politisk vanskelige og bare teknisk vanskelige å sette sammen."
Cappelli siterer flere problemer i bevegelsen mot generativ AI og LLM som må overvinnes:
Å løse et problem/mulighet med generative AI/LLM-er kan være overkill - "Det er mange ting som store språkmodeller kan gjøre som sannsynligvis ikke trenger å gjøres," uttalte han. For eksempel blir bedriftskorrespondanse sett på som en brukssak, men det meste gjøres allerede gjennom skjemabrev og utenat automatisering. Legg til det faktum at “et standardbrev allerede er godkjent av advokater, og alt skrevet av store språkmodeller må sannsynligvis bli sett av en advokat.” Og det kommer ikke til å være noen form for tidsbesparelse." Det vil bli dyrere å erstatte roteautomatisering med AI - "Det er ikke slik klart at store språkmodeller kommer til å være like billige som de er nå," Cappelli advarte. "Når flere bruker dem, må datamaskinplassen økes, strømbehovet alene er stort. Noen må betale for det." Det trengs folk for å validere generative AI-utdata - Generative AI-rapporter eller utdata kan være greit for relativt enkle ting som e-post. Men for mer komplekse rapportering eller foretak, må det være bekreftelse på at alt er nøyaktig. “Hvis du skal bruke det til noe viktig, bør du være sikker på at det er riktig. Og hvordan skal du vite om det stemmer? Vel, det hjelper å ha en ekspert; noen som uavhengig kan validere og vet noe om emnet. Å se etter hallusinasjoner eller sære utfall, og at det er oppdatert. Noen sier at du kan bruke andre store språkmodeller for å vurdere det, men det er mer et pålitelighetsproblem enn et validitetsproblem. Vi må sjekke det på en eller annen måte, og dette er ikke nødvendigvis enkelt eller billig å gjøre."Generativ AI vil drukne oss i for mye og noen ganger motstridende informasjon– “Fordi det er ganske enkelt å generere rapporter og utdata, kommer du til å få flere svar”," sa Cappelli. En LLM kan også levere forskjellige svar på samme spørsmål. "Dette er et pålitelighetsproblem – hva ville du gjort med rapporten? Du genererer en som får divisjonen din til å se bedre ut, og du gir den til sjefen." I tillegg advarte han: “Selv de som bygger disse modellene kan ikke fortelle deg disse svarene på noen entydig måte. Kommer vi til å drukne folk med å bedømme forskjellene i disse resultatene?" Folk foretrekker fortsatt å ta avgjørelser basert på magefølelser eller personlige preferanser - Dette problemet vil være vanskelig for maskiner å overvinne. Organisasjoner kan investere store summer i å bygge og administrere LLM-er for roller, for eksempel å velge jobbkandidater. Men studie etter studie viser at folk har en tendens til å ansette folk de liker, kontra hva analysene konkluderer med, sa Cappelli. "Maskinlæring kan allerede gjøre det for oss. Hvis du bygde modellen, ville du oppdaget at linjelederne dine som allerede tar avgjørelsene ikke vil bruke den. Et annet eksempel på “hvis du bygger det, vil de ikke nødvendigvis komme.”"
Cappelli foreslo at den mest nyttige generative AI-applikasjonen på kort sikt er å sile gjennom datalagre og levere analyser for å støtte beslutningsprosesser. "Vi vasker data akkurat nå som vi ikke har klart å analysere oss selv," han sa. “Det kommer til å bli mye bedre til å gjøre det enn vi er,” han sa. Sammen med databaseadministrasjon må «noen» bekymre seg for rekkverk og problemer med dataforurensning."