
En stadig mer populær trend innen generativ kunstig intelligens er å gi AI-modeller "agent" funksjoner, muligheten til å benytte eksterne programmer som databaser, eller en nettleser med direkte søkefunksjonalitet.
OpenAI populariserte forestillingen om AI-agenter i november da den introduserte sin “Assistent”; API, ment å gjøre det enklere for utviklere å kalle spesifikke funksjoner for sine applikasjoner. Torsdag la OpenAI-konkurrenten Anthropic bud på utviklere' fokus ved å gjøre generelt tilgjengelig det det kaller Tool Use for Claude, som er designet “for å automatisere oppgaver, tilpasse anbefalinger og strømlinjeforme dataanalyse ved å integrere AI med eksterne verktøy og tjenester.”
Også: Anthropic lanserer en gratis Claude iOS-app og Team, sin første bedriftsplan
Anthropic debuterte Tool Use, også kjent som funksjonskall, med introduksjonen av sin Claude 3 familie av modeller i mars. Det er allerede et ganske omfattende sett med instruksjoner for utviklere for hvordan man bruker API i betaversjonen.
Dagens kunngjøring tar Tool Use ut av beta og er tilgjengelig gjennom Anthropics egen Anthropic Messages API, Amazon Bedrock-tjenesten og Googles Vertex AI.
Her er hvordan verktøybruk skal fungere. Du skriver inn en melding til Claude, for eksempel “Hva er været i New York.” Claude tolker oppfordringen om å produsere et API-kall til en app som utfører funksjonen, for eksempel en vær-app som returnerer værdata. Utdataene fra den appen sendes deretter tilbake til Claude som en melding, og modellen formulerer det deretter til et naturlig språksvar for deg.
Eksempel på et shell-script som forsyner Claude med en verktøydefinisjon og gir en brukerforespørsel som vil bli tolket av Claude om å velge verktøyet.
Anthropic
Hvilken app skal kalles, og hvordan man sender parametere, for eksempel bynavnet, er enten et JSON- eller et Python-kall som LLM kan formulere.
Anthropic understreker at appen som gjør jobben, for eksempel en vær-app, ikke er levert av Anthropic – den er levert av utvikleren. LLM har ikke direkte tilgang til appen, men sender bare forespørselen til appen og mottar deretter de resulterende dataene. Utviklere kan enten tvinge Claude til å bruke et bestemt verktøy, eller la LLM velge et verktøy ved å tolke ledeteksten.
Også: Hvordan LangChain snur GenAI til en genuint nyttig assistent
De tre forskjellige versjonene av Claude, kalt Haiku, Sonnet og Opus, har forskjellige grader av sofistikert hvordan de danner verktøyforespørsler, forklarer Anthropic:
Opus er i stand til å håndtere de mest samtidige verktøyene og er flinkere til å fange opp manglende argumenter sammenlignet med andre modeller. Det er mer sannsynlig å be om avklaring i tvetydige tilfeller der et argument ikke er eksplisitt gitt eller når et verktøy kanskje ikke er nødvendig for å fullføre brukerforespørselen. Haiku prøver som standard å bruke verktøy oftere (selv om det ikke er relevant for spørringen) og vil utlede manglende parametere hvis de ikke er eksplisitt gitt.
Den grunnleggende konstruksjonen kan utvides til mange paradigmer , for eksempel databasespørringer for “gjenfinningsutvidet generering”," eller RAG, en vanlig tilnærming til å jorde generativ AI i en kjent god datakilde.
Anthropic inneholdt flere klienter som har brukt Tool Use. Nettbasert læringsassistent StudyFetch brukte Tool Use for å tilby studentene ting som å navigere i kursmateriell via Claude. En oppstart kalt Hebbia brukte teknologien til å gjøre ting som å trekke ut metadata fra lange dokumenter og automatisere "flertrinns arbeidsflyter" for kunder innen finanstjenester.