Hva er AI? Her er alt du trenger å vite om kunstig intelligens

0
130

 Nick Heath

Av Nick Heath | 23. juli 2021 – 20:21 GMT (21:21 BST) | Tema: Administrere AI og ML i Enterprise

Komme i gang med kunstig intelligens og maskinlæring Se nå

Hva er kunstig intelligens (AI)?

Det kommer an på hvem du spør.

Tilbake på 1950-tallet beskrev feltets fedre, Minsky og McCarthy, kunstig intelligens som enhver oppgave utført av en maskin som tidligere ville blitt ansett for å kreve menneskelig intelligens.

Det er åpenbart en ganske bred definisjon, det er grunnen til at du noen ganger vil se argumenter for om noe virkelig er AI eller ikke.

Moderne definisjoner av hva det vil si å skape intelligens er mer spesifikke. Francois Chollet, en AI-forsker hos Google og skaper av maskinlæringsprogramvarebiblioteket Keras, har sagt at intelligens er knyttet til et systems evne til å tilpasse seg og improvisere i et nytt miljø, å generalisere kunnskapen og bruke den på ukjente scenarier.

“Intelligens er effektiviteten som du tilegner deg nye ferdigheter ved oppgaver du ikke tidligere forberedte deg på,” sa han.

“Intelligens er ikke ferdighet i seg selv; det er ikke det du kan gjøre ; det er hvor godt og hvor effektivt du kan lære nye ting. “

Det er en definisjon der moderne AI-drevne systemer, for eksempel virtuelle assistenter, vil bli karakterisert som å ha demonstrert 'smal AI', evnen til å generalisere treningen når de utfører et begrenset sett med oppgaver, for eksempel talegjenkjenning eller datasyn.

Vanligvis demonstrerer AI-systemer i det minste noen av følgende atferd knyttet til menneskelig intelligens: planlegging, læring, resonnement, problemløsning, kunnskapsrepresentasjon, oppfatning, bevegelse og manipulasjon, og i mindre grad, sosial intelligens og kreativitet.

Hva bruker AI?

AI er allestedsnærværende i dag, pleide å anbefale hva du bør kjøpe neste på nettet, for å forstå hva du sier til virtuelle assistenter, som Amazonas Alexa og Apples Siri, for å gjenkjenne hvem og hva som er på et bilde, spot spam eller spot spam detect credit kortsvindel.

Hva er de forskjellige typene AI?

På et veldig høyt nivå kan kunstig intelligens deles i to brede typer:

Smal AI

Smal AI er det vi ser rundt oss på datamaskiner i dag – intelligente systemer som har blitt lært eller har lært å utføre spesifikke oppgaver uten å være eksplisitt programmert hvordan man gjør det.

Denne typen maskinintelligens. er tydelig i tale- og språkgjenkjenningen til Siri virtuelle assistent på Apple iPhone, i visjonsgjenkjenningssystemene på selvkjørende biler, eller i anbefalingsmotorer som foreslår produkter du kanskje liker, basert på det du kjøpte tidligere. I motsetning til mennesker kan disse systemene bare lære eller bli lært hvordan man gjør definerte oppgaver, og det er derfor de kalles smal AI.

Generell AI

Generell AI er veldig forskjellig og er den typen tilpasningsdyktig intellekt som finnes hos mennesker, en fleksibel form for intelligens som kan lære å utføre vidt forskjellige oppgaver, alt fra hårklipp til å bygge regneark eller resonnere om et bredt utvalg av emner basert på sin akkumulerte erfaring.

Dette er den slags AI som oftest sees i filmer, som HAL i 2001 eller Skynet i The Terminator, men som ikke eksisterer i dag – og AI-eksperter er veldig splittet over hvor snart det vil bli en realitet.

Hva kan smal AI gjøre?

Det er et stort antall nye applikasjoner for smal AI:

Tolker videofeeder fra droner som utfører visuelle inspeksjoner av infrastruktur som oljerør. Organiserer personlige og forretningskalendere. Svar på enkle kundeserviceforespørsler. Koordinering med andre intelligente systemer for å utføre oppgaver som å bestille hotell på et passende tidspunkt og sted. Hjelper radiologer med å oppdage potensielle svulster i røntgenstråler. Flagge upassende innhold på nettet, oppdage slitasje i heiser fra data samlet av IoT-enheter. Genere en 3D-modell av verden fra satellittbilder … listen fortsetter og fortsetter. < p>Nye applikasjoner av disse læringssystemene dukker opp hele tiden. Grafikkortdesigner Nvidia avslørte nylig et AI-basert system Maxine, som lar folk foreta videosamtaler av god kvalitet, nesten uavhengig av hastigheten på internettforbindelsen. Systemet reduserer båndbredden som trengs for slike samtaler med en faktor på 10 ved ikke å overføre hele videostrømmen over internett, og i stedet for å animere et lite antall statiske bilder av den som ringer på en måte som er utformet for å gjengi innringernes ansiktsuttrykk og bevegelser i i sanntid og å skille seg fra videoen.

Imidlertid, så mye ubenyttet potensial som disse systemene har, overgår ambisjoner om teknologien virkeligheten. Et eksempel på dette er selvkjørende biler, som i seg selv støttes av AI-drevne systemer som datasyn. Elbilselskapet Tesla henger et stykke bak konsernsjef Elon Musks opprinnelige tidslinje for bilens Autopilot-system som blir oppgradert til “full selvkjøring” fra systemets mer begrensede assistanse-kjøreegenskaper, med Full Self-Driving-alternativet som nylig ble rullet ut til en utvalgt gruppe ekspertdrivere som en del av et beta-testprogram.

Hva kan generell AI gjøre?

En undersøkelse utført blant fire ekspertgrupper i 2012/13 av AI-forskere Vincent C Müller og filosof Nick Bostrom rapporterte en 50% sjanse for at kunstig generell intelligens (AGI) ville bli utviklet mellom 2040 og 2050, og økte til 90% innen 2075. gruppen gikk enda lenger og forutsa at såkalt 'superintelligens' – som Bostrom definerer som “ethvert intellekt som i stor grad overstiger menneskers kognitive ytelse i praktisk talt alle interessedomener” – var forventet omtrent 30 år etter oppnåelsen av AGI.

Nyere vurderinger fra AI-eksperter er imidlertid mer forsiktige. Pionerer innen moderne AI-forskning som Geoffrey Hinton, Demis Hassabis og Yann LeCun sier at samfunnet ikke er i nærheten av å utvikle AGI. Gitt skepsisen til ledende lys innen moderne AI og den svært forskjellige naturen til moderne smale AI-systemer enn AGI, er det kanskje lite grunnlag for frykt for at en generell kunstig intelligens vil forstyrre samfunnet i nær fremtid.

< p>Når det er sagt, mener noen AI-eksperter at slike fremskrivninger er veldig optimistiske gitt vår begrensede forståelse av den menneskelige hjerne og mener at AGI fremdeles er århundrer unna.

Hva er de siste landemerkene i utviklingen av AI?

 watson-1.jpg IBM

Mens moderne smal AI kan være begrenset til å utføre spesifikke oppgaver, innenfor deres spesialiteter, er disse systemene noen ganger i stand til overmenneskelig ytelse , i noen tilfeller til og med demonstrerende overlegen kreativitet, et trekk holdt ofte opp som menneskelig.

Det har vært for mange gjennombrudd til å sette sammen en endelig liste, men noen høydepunkter inkluderer:

I 2009 viste Google at den selvkjørende Toyota Prius kunne gjennomføre mer enn 10 reiser på 100 miles hver, og sette samfunnet på en vei mot førerløse biler. I 2011 kom datasystemet IBM Watson overskrifter over hele verden da det vant det amerikanske quizshowet Jeopardy! , slo to av de beste spillerne showet noensinne hadde produsert. For å vinne showet brukte Watson prosessering og analyse av naturlige språk på store databaser som behandles for å svare på menneskelige spørsmål, ofte i en brøkdel av et sekund. I 2012 innvarslet et annet gjennombrudd AIs potensial til å takle en rekke nye oppgaver. tidligere ansett som for komplisert for enhver maskin. Det året triumferte AlexNet-systemet avgjørende i ImageNet Large Scale Visual Recognition Challenge. AlexNets nøyaktighet var slik at den halverte feilraten sammenlignet med konkurrerende systemer i billedgjenkjenningskonkurransen.

AlexNets ytelse demonstrerte kraften til læringssystemer basert på nevrale nettverk, en modell for maskinlæring som hadde eksistert i flere tiår, men som til slutt realiserte potensialet på grunn av forbedringer av arkitektur og sprang i parallell prosesseringskraft muliggjort av Moores lov. Kraften til maskinlæringssystemer til å utføre datasyn truffet også overskriftene det året, med Google som trente et system for å gjenkjenne en internettfavoritt: bilder av katter.

Den neste demonstrasjonen av effekten av maskinlæringssystemer som fanget publikums oppmerksomhet, var triumfen i 2016 av Google DeepMind AlphaGo AI over en menneskelig stormester i Go, et eldgammelt kinesisk spill hvis kompleksitet stubbet datamaskiner i flere tiår. Go har omtrent 200 bevegelser per tur sammenlignet med rundt 20 i sjakk. I løpet av et Go-spill er det så mange mulige trekk som søker gjennom hver av dem på forhånd for å identifisere det beste spillet er for kostbart fra et beregningssynspunkt. I stedet ble AlphaGo opplært i å spille spillet ved å ta trekk spilt av menneskelige eksperter i 30 millioner Go-spill og mate dem inn i dyplærende nevrale nettverk.

Trening av disse dype læringsnettverkene kan ta veldig lang tid, noe som krever at store mengder data blir inntatt og iterert etter hvert som systemet gradvis forbedrer modellen for å oppnå det beste resultatet.

Imidlertid, nylig, Google forbedret treningsprosessen med AlphaGo Zero, et system som spilte “helt tilfeldige” spill mot seg selv og deretter lærte av det. Google DeepMind-sjef Demis Hassabis har også avduket en ny versjon av AlphaGo Zero som har mestret spillene sjakk og shogi.

Og AI fortsetter å springe forbi nye milepæler: et system trent av OpenAI har beseiret verdens toppspillere i en-til-en-kamper i det online flerspillerspillet Dota 2.

Samme år, OpenAI skapte AI-agenter som oppfant sitt eget språk for å samarbeide og oppnå målet sitt mer effektivt, etterfulgt av Facebook-opplæringsagenter for å forhandle og lyve.

2020 var året da et AI-system tilsynelatende fikk muligheten til å skrive og snakke som et menneske om nesten alle temaer du kunne tenke deg.

Det aktuelle systemet, kjent som Generative Pre-training Transformer 3 eller Kort fortalt GPT-3, er et nevralt nettverk trent på milliarder av engelskspråklige artikler tilgjengelig på det åpne nettet.

Fra kort tid etter at den ble gjort tilgjengelig for testing av den ideelle organisasjonen OpenAI, virket internett på GPT-3s evne til å generere artikler om nesten alle emner som ble gitt til den, artikler som ved første øyekast ofte var vanskelig å skille seg fra de som er skrevet av et menneske. På samme måte fulgte imponerende resultater på andre områder, med sin evne til å overbevise svar på spørsmål om et bredt spekter av emner og til og med passere for en nybegynner JavaScript-koder.

Men mens mange GPT-3-genererte artikler hadde en luft av verisimilitude, ytterligere testing fant at setningene som ble generert ofte ikke passerte mønstre, og ga overfladisk plausible, men forvirrede uttalelser, samt noen ganger direkte tull.

Det er fortsatt betydelig interesse for å bruke modellens naturlige språkforståelse når det gjelder grunnlaget for fremtidige tjenester. Det er tilgjengelig for utvalgte utviklere å bygge inn programvare via OpenAIs beta-API. Det vil også bli innlemmet i fremtidige tjenester tilgjengelig via Microsofts Azure cloud-plattform.

Det kanskje mest slående eksemplet på AIs potensial kom sent i 2020 da Googles oppmerksomhetsbaserte nevrale nettverk AlphaFold 2 viste et resultat noen har kalt verdig en Nobelpris for kjemi.

Systemets evne til å se på et proteins byggesteiner, kjent som aminosyrer, og utlede at proteinets 3D-struktur kan ha en sterk innvirkning på hastigheten med hvilken sykdommer blir forstått, og medisiner utvikles. I Critical Assessment of protein Structure Prediction contest, bestemte AlphaFold 2 3D-strukturen til et protein med en nøyaktig rivaliserende krystallografi, gullstandarden for overbevisende modellering av proteiner.

I motsetning til krystallografi, som det tar måneder å gi resultater, kan AlphaFold 2 modellere proteiner på få timer. Med 3D-strukturen til proteiner som spiller en så viktig rolle i menneskelig biologi og sykdom, har en slik hastighet blitt varslet som et milepæl gjennombrudd for medisinsk vitenskap, for ikke å nevne potensielle anvendelser i andre områder der enzymer brukes i bioteknologi.

Hva er maskinlæring?

Praktisk talt alle de prestasjonene som er nevnt så langt, stammer fra maskinlæring, en delmengde av AI som står for de aller fleste prestasjoner i feltet de siste årene. Når folk snakker om AI i dag, snakker de generelt om maskinlæring.

Foreløpig nyter noe av en gjenoppblomstring, i enkle termer, er maskinlæring hvor et datasystem lærer å utføre en oppgave i stedet for å bli programmert hvordan du gjør det. Denne beskrivelsen av maskinlæring dateres helt tilbake til 1959 da den ble laget av Arthur Samuel, en pioner innen feltet som utviklet et av verdens første selvlæringssystemer, Samuel Checkers-playing Program.

For å lære blir disse systemene matet med enorme mengder data, som de deretter bruker for å lære å utføre en bestemt oppgave, for eksempel å forstå tale eller bildetekst på et fotografi. Kvaliteten og størrelsen på dette datasettet er viktig for å bygge et system som kan utføre sin oppgave nøyaktig. Hvis du for eksempel bygde et maskinlæringssystem for å forutsi boligpriser, bør opplæringsdataene inneholde mer enn bare eiendomsstørrelsen, men andre viktige faktorer som antall soverom eller størrelsen på hagen.

Hva er nevrale nettverk?

Nøkkelen til suksess med maskinlæring er nevrale nettverk. Disse matematiske modellene er i stand til å tilpasse interne parametere for å endre hva de sender ut. Et nevralt nettverk mates datasett som lærer det hva det skal spytte ut når det blir presentert visse data under trening. Konkret kan nettverket mates gråtonebilder av tallene mellom null og 9, sammen med en streng med binære sifre – nuller og en – som indikerer hvilket tall som vises i hvert gråtonebilde. Nettverket vil deretter bli trent, og justere sine interne parametere til det klassifiserer antallet som vises i hvert bilde med høy grad av nøyaktighet. Dette opplærte nevrale nettverket kan deretter brukes til å klassifisere andre gråtonebilder av tall mellom null og 9. Et slikt nettverk ble brukt i en seminalpapir som viser anvendelsen av nevrale nettverk publisert av Yann LeCun i 1989 og har blitt brukt av US Postal Service. for å gjenkjenne håndskrevne postnummer.

Strukturen og funksjonen til nevrale nettverk er veldig løst basert på forbindelsene mellom nevroner i hjernen. Nevrale nettverk består av sammenkoblede lag av algoritmer som mater data inn i hverandre. De kan trenes i å utføre spesifikke oppgaver ved å endre viktigheten som tillegges data når de går mellom disse lagene. Under opplæringen av disse nevrale nettverkene vil vektene som er knyttet til data når de passerer mellom lagene, fortsette å bli variert til produksjonen fra nevrale nettverk er veldig nær det som er ønsket. På det tidspunktet vil nettverket ha 'lært' hvordan man skal utføre en bestemt oppgave. Den ønskede utgangen kan være alt fra riktig merking av frukt i et bilde til å forutsi når en heis kan mislykkes basert på sensordataene.

En delmengde av maskinlæring er dyp læring, der nevrale nettverk utvides til viltvoksende nettverk med et stort antall store lag som blir trent med store mengder data. Disse dype nevrale nettverkene har drevet dagens sprang fremover i datamaskiners evne til å utføre oppgaver som talegjenkjenning og datasyn.

Det finnes forskjellige typer nevrale nettverk med forskjellige styrker og svakheter. Recurrent Neural Networks (RNN) er en type nevrale nett som er spesielt godt egnet for Natural Language Processing (NLP) – å forstå betydningen av tekst – og talegjenkjenning, mens konvolusjonelle nevrale nettverk har sine røtter i bildegjenkjenning og har bruksområder så forskjellige som anbefalingssystemer og NLP. Utformingen av nevrale nettverk utvikler seg også, med forskere som foredler en mer effektiv form for dypt nevralt nettverk kalt langt korttidsminne eller LSTM – en type RNN-arkitektur som brukes til oppgaver som NLP og for forutsigelser på aksjemarkedet – slik at den kan operere raskt nok til å brukes i on-demand-systemer som Google Translate.

 ai-ml-neural-network.jpg

Strukturen og opplæringen av dype nevrale nettverk.

Bilde: Nuance

Hva er andre typer AI?

Et annet område for AI-forskning er evolusjonær beregning.

Den låner fra Darwins teori om naturlig utvalg. Det ser genetiske algoritmer gjennomgå tilfeldige mutasjoner og kombinasjoner mellom generasjoner i et forsøk på å utvikle den optimale løsningen på et gitt problem.

Denne tilnærmingen har til og med blitt brukt til å utforme AI-modeller, og effektivt bruke AI for å bidra til å bygge AI. Denne bruken av evolusjonære algoritmer for å optimalisere nevrale nettverk kalles nevroevolusjon. Det kan ha en viktig rolle å spille for å hjelpe til med å designe effektiv AI når bruken av intelligente systemer blir mer utbredt, spesielt ettersom etterspørselen etter dataforskere ofte overgår tilbudet. Teknikken ble presentert av Uber AI Labs, som ga ut artikler om bruk av genetiske algoritmer for å trene dype nevrale nettverk for forsterkning av læringsproblemer.

Til slutt er det ekspertsystemer , der datamaskiner er programmert med regler som tillater dem å ta en rekke beslutninger basert på et stort antall innganger, slik at maskinen kan etterligne atferden til en menneskelig ekspert i et bestemt domene. Et eksempel på disse kunnskapsbaserte systemene kan for eksempel være et autopilotsystem som flyr med et fly.

Hva gir drivstoff til gjenoppblomstringen i AI?

Som skissert ovenfor har de største gjennombruddene for AI-forskning de siste årene vært innen maskinlæring, særlig innen dyp læring.

Dette har delvis blitt drevet av enkel tilgjengelighet av data, men enda mer av en eksplosjon i parallell datakraft, i løpet av hvilken tid bruken av klynger av grafikkbehandlingsenheter (GPUer) for å trene maskinlæringssystemer har blitt mer utbredt.

Ikke bare tilbyr disse klyngene langt kraftigere systemer for opplæring av maskinlæringsmodeller, men de er nå allment tilgjengelige som skytjenester over internett. Over tid har de store teknologibedriftene, som Google, Microsoft og Tesla, gått over til å bruke spesialiserte sjetonger skreddersydd for både løpende, og nylig, opplæring, maskinlæringsmodeller.

Et eksempel på en av disse egendefinerte sjetongene er Googles Tensor Processing Unit (TPU), hvor den siste versjonen akselererer hastigheten som nyttige maskinlæringsmodeller bygget med Googles TensorFlow-programvarebibliotek kan utlede informasjon fra data, samt hastigheten de kan være med trent.

Disse brikkene brukes til å trene opp modeller for DeepMind og Google Brain og modellene som ligger til grunn for Google Translate og bildegjenkjenning i Google Foto og tjenester som gjør det mulig for publikum å bygge maskinlæringsmodeller ved hjelp av Googles TensorFlow Research Cloud. Den tredje generasjonen av disse sjetongene ble avduket på Googles I/O-konferanse i mai 2018 og har siden blitt pakket inn i maskinlærende kraftverk kalt pods som kan utføre mer enn hundre tusen billioner flytpunktsoperasjoner per sekund (100 petaflops). Disse pågående TPU-oppgraderingene har gjort det mulig for Google å forbedre sine tjenester bygget på maskinlæringsmodeller, for eksempel halvere tiden det tar å trene modeller som brukes i Google Translate.

Hva er elementene i maskinlæring?

Som nevnt er maskinlæring en delmengde av AI og er vanligvis delt inn i to hovedkategorier: veiledet og ikke-tilsynet læring.

Veiledet læring

En vanlig teknikk for undervisning i AI-systemer er å trene dem ved hjelp av mange merkede eksempler. Disse maskinlæringssystemene mates med enorme mengder data, som er kommentert for å markere funksjonene av interesse. Dette kan være bilder som er merket for å indikere om de inneholder en hund eller skriftlige setninger som har fotnoter for å indikere om ordet “bass” er relatert til musikk eller en fisk. Etter opplæring kan systemet deretter bruke disse etikettene på nye data, for eksempel på en hund i et bilde som nettopp er lastet opp.

Denne prosessen med å lære en maskin som eksempel kalles overvåket læring. Merking av disse eksemplene utføres ofte av arbeidere på nettet som er ansatt gjennom plattformer som Amazon Mechanical Turk.

Opplæring av disse systemene krever vanligvis enorme mengder data, og noen systemer trenger å skure millioner av eksempler for å lære hvordan du kan utføre en oppgave effektivt – selv om dette i økende grad er mulig i en tid med big data og utbredt datautvinning. Treningsdatasett er enorme og vokser i størrelse – Googles Open Images Dataset har omtrent ni millioner bilder, mens det merkede videoudepot YouTube-8M lenker til syv millioner merkede videoer. ImageNet, en av de tidlige databasene av denne typen, har mer enn 14 millioner kategoriserte bilder. Den ble samlet over to år og ble satt sammen av nesten 50000 mennesker – hvorav de fleste ble rekruttert gjennom Amazon Mechanical Turk – som sjekket, sorterte og merket nesten en milliard kandidatbilder.

Å ha tilgang til store merkede datasett kan også være mindre viktig enn tilgang til store datamengder i det lange løp.

De siste årene har Generative Adversarial Networks (GANs) blitt brukt i maskinlæringssystemer som bare krever en liten mengde merkede data sammen med en stor mengde umerkede data, som, som navnet antyder, krever mindre manuelt arbeid for å forberede./p>

Denne tilnærmingen kan tillate økt bruk av semi-overvåket læring, der systemer kan lære å utføre oppgaver ved å bruke en langt mindre mengde merkede data enn det som er nødvendig for opplæringssystemer som bruker veiledet læring i dag.

Uovervåket læring

I motsetning til dette bruker ikke-overvåket læring en annen tilnærming, der algoritmer prøver å identifisere mønstre i data, og ser etter likheter som kan brukes til å kategorisere disse dataene.

Et eksempel kan være å klynge sammen frukt som veier like mye, eller biler med lignende motorstørrelse.

Algoritmen er ikke satt opp på forhånd for å plukke ut bestemte typer data; det ser bare etter data som likhetene kan gruppere, for eksempel Google Nyheter som grupperer historier om lignende emner hver dag.

Forsterkningslæring

En rå analogi for forsterkningslæring er å belønne et kjæledyr med en godbit når det utfører et triks. I forsterkningslæring prøver systemet å maksimere en belønning basert på inndataene, og i utgangspunktet gå gjennom en prøve- og feilprosess til det når best mulig resultat.

Et eksempel på forsterkningslæring er Google DeepMinds Deep Q-nettverk, som har blitt brukt til best menneskelig ytelse i en rekke klassiske videospill. Systemet mates piksler fra hvert spill og bestemmer forskjellig informasjon, for eksempel avstanden mellom objekter på skjermen.

Ved å se på poengsummen som oppnås i hvert spill, bygger systemet en modell for hvilken handling som vil maksimere poengsummen under forskjellige omstendigheter, for eksempel i tilfelle av videospillet Breakout, der padlen skal flyttes til for å fange ballen.

Tilnærmingen brukes også i robotikkforskning, der forsterkningslæring kan bidra til å lære autonome roboter den optimale måten å oppføre seg i virkelige miljøer.

 ai-ml-gartner- -cycle.jpg

Mange AI-relaterte teknologier nærmer seg, eller har allerede nådd, “toppen av oppblåste forventninger” i Gartners Hype Cycle, med det tilbakeslagsdrevne “desillusjonstråget” som ligger på vent.

Bilde: Gartner/Kommentarer: ZDNet

Hvilke er de ledende firmaene innen AI?

Med AI som spiller en stadig større rolle i moderne programvare og tjenester, kjemper hvert større teknologifirma for å utvikle robust maskinlæringsteknologi for bruk internt og for å selge til publikum via skytjenester.

Hver regelmessig skaper overskrifter for å bryte ny bakke innen AI-forskning, selv om det sannsynligvis er Google med sine DeepMind AI AlphaFold- og AlphaGo-systemer som sannsynligvis har hatt størst innvirkning på offentlighetens bevissthet om AI.

Hvilke AI-tjenester er tilgjengelige?

Alle de store skyplattformene – Amazon Web Services, Microsoft Azure og Google Cloud Platform – gir tilgang til GPU-arrays for opplæring og kjøring av maskinlæringsmodeller, med Google også klar til å la brukerne bruke Tensor Processing Units – tilpasset sjetonger hvis design er optimalisert for opplæring og kjøring av maskinlæringsmodeller.

All nødvendig tilknyttet infrastruktur og tjenester er tilgjengelig fra de tre store, de skybaserte datalagrene, som har den enorme mengden data som trengs for å trene maskinlæringsmodeller, tjenester for å transformere data for å forberede dem for analyse, visualiseringsverktøy for å vise resultatene tydelig og programvare som forenkler byggingen av modeller.

Disse skyplattformene forenkler til og med etableringen av tilpassede maskinlæringsmodeller, med Google som tilbyr en tjeneste som automatiserer opprettelsen av AI-modeller, kalt Cloud AutoML. Denne dra-og-slipp-tjenesten bygger tilpassede bildegjenkjenningsmodeller og krever at brukeren ikke har maskinlæringsekspertise.

Skibaserte maskinlæringstjenester utvikler seg kontinuerlig. Amazon tilbyr nå en rekke AWS-tilbud designet for å effektivisere prosessen med å trene opp maskinlæringsmodeller og lanserte nylig Amazon SageMaker Clarify, et verktøy for å hjelpe organisasjoner med å utjevne skjevheter og ubalanser i treningsdata som kan føre til skjev spådommer av den trente modellen. .

For de firmaene som ikke vil bygge sin egen maskin = læringsmodeller, men i stedet ønsker å konsumere AI-drevne on-demand-tjenester, for eksempel tale-, visjon- og språkgjenkjenning, skiller Microsoft Azure seg ut for bredden av tjenester på tilbud, tett fulgt av Google Cloud Platform og deretter AWS. I mellomtiden prøver IBM, sammen med sine mer generelle tilbud på forespørsel, også å selge sektor-spesifikke AI-tjenester rettet mot alt fra helsevesen til detaljhandel, gruppere disse tilbudene under sin IBM Watson-paraply, og har investert 2 milliarder dollar i å kjøpe The Weather Kanal for å låse opp en rekke data for å utvide AI-tjenestene.

Hvilke av de store teknologibedriftene vinner AI-løpet?

 amazon-echo-plus-2.jpg Bilde: Jason Cipriani/ZDNet

Internt bruker hver teknologigigant og andre som Facebook AI for å hjelpe til med å drive utallige offentlige tjenester: å vise søkeresultater, tilby anbefalinger, gjenkjenne mennesker og ting på bilder, oversettelse på forespørsel, oppdage spam – listen er omfattende.

Men en av de mest synlige manifestasjonene av denne AI-krigen har vært fremveksten av virtuelle assistenter, som Apples Siri, Amazons Alexa, Google Assistant og Microsoft Cortana.

Stoler sterkt på stemmegjenkjenning og prosessering på naturlig språk og trenger et enormt korpus å trekke på for å svare på spørsmål, går det enormt mye teknologi i å utvikle disse assistentene.

Men mens Apples Siri kanskje først har kommet til å bli kjent , det er Google og Amazon hvis assistenter siden har overhalet Apple i AI-rommet – Google Assistant med sin evne til å svare på et bredt spekter av spørsmål og Amazons Alexa med det enorme antallet “Ferdigheter” som tredjepartsutviklere har opprettet for å legge til til dets evner.

Over tid får disse assistentene evner som gjør dem mer responsive og bedre i stand til å håndtere de spørsmålene folk stiller i vanlige samtaler. For eksempel tilbyr Google Assistant nå en funksjon som heter Continued Conversation, der en bruker kan stille oppfølgingsspørsmål til sitt første spørsmål, for eksempel 'Hvordan er været i dag?', Etterfulgt av 'Hva med i morgen?' og systemet forstår at oppfølgingsspørsmålet også er relatert til været.

Disse assistentene og tilknyttede tjenester kan også håndtere langt mer enn bare tale, med den siste inkarnasjonen av Google Lens som kan oversette tekst til bilder og la deg søke etter klær eller møbler ved hjelp av bilder.

Til tross for å være innebygd i Windows 10, har Cortana hatt en spesielt tøff tid for sent, med Amazons Alexa nå tilgjengelig gratis på Windows 10-PCer. Samtidig fornyet Microsoft Cortanas rolle i operativsystemet for å fokusere mer på produktivitetsoppgaver, for eksempel å administrere brukerens tidsplan, i stedet for mer forbrukerfokuserte funksjoner som finnes i andre assistenter, for eksempel å spille musikk.

Hvilke land er ledende innen AI?

Det ville være en stor feil å tro at de amerikanske teknologigigantene har AI-området sydd opp. Kinesiske firmaer Alibaba, Baidu og Lenovo investerer stort i AI innen felt som spenner fra e-handel til autonom kjøring. Som land forfølger Kina en tretrinns plan for å gjøre AI til en kjerneindustri for landet, en som vil være verdt 150 milliarder yuan ($ 22 milliarder dollar) innen utgangen av 2020 for å bli verdens ledende AI-makt innen 2030.

Baidu har investert i å utvikle selvkjørende biler, drevet av sin dyplæringsalgoritme, Baidu AutoBrain. Etter flere år med tester, med Apollo-selvkjørende bil som har samlet mer enn tre millioner miles kjøring i tester, fraktet den over 100 000 passasjerer i 27 byer over hele verden.

Baidu lanserte en flåte på 40 Apollo Go Robotaxis i Beijing i år. Selskapets grunnlegger har spådd at selvkjørende kjøretøy vil være vanlig i Kinas byer innen fem år.

Kombinasjonen av svake personvernlover, enorme investeringer, samordnet datainnsamling og big data-analyse fra store firmaer som Baidu, Alibaba og Tencent, betyr at noen analytikere mener at Kina vil ha en fordel i forhold til USA når det gjelder fremtidig AI-forskning , med en analytiker som beskriver sjansene for at Kina tar ledelsen over USA som 500 til 1 i Kinas favør.

 baidu-autonom-car.jpg

Baidus selvkjørende bil, en modifisert BMW 3-serie.

Bilde: Baidu

Hvordan kan jeg komme i gang med AI?

Mens du kan kjøpe en moderat kraftig Nvidia GPU for PC-en din – et sted rundt Nvidia GeForce RTX 2060 eller raskere – og begynne å trene en maskinlæringsmodell, er sannsynligvis den enkleste måten å eksperimentere med AI-relaterte tjenester via skyen.

Alle de store teknologibedriftene tilbyr ulike AI-tjenester, fra infrastruktur for å bygge og trene dine egne maskinlæringsmodeller til webtjenester som gir deg tilgang til AI-drevne verktøy som tale, språk, visjon og følelsesgjenkjenning på forespørsel.

Hvordan vil AI forandre verden?

Roboter og førerløse biler

Ønsket om at roboter skal kunne handle autonomt og forstå og navigere i verden rundt dem betyr at det er en naturlig overlapping mellom robotikk og AI. Mens AI bare er en av teknologiene som brukes i robotikk, hjelper AI roboter med å flytte inn i nye områder som selvkjørende biler, leveringsroboter og hjelper roboter å lære seg nye ferdigheter. I begynnelsen av 2020 avslørte General Motors og Honda Cruise Origin, en elektrisk drevet førerløs bil, og Waymo, den selvkjørende gruppen i Googles foreldre Alphabet, åpnet nylig sin robotaxi-tjeneste for allmennheten i Phoenix, Arizona, og tilbyr en tjeneste som dekker et område på 50 kvadratkilometer i byen.

Falske nyheter

Vi er på randen av å ha nevrale nettverk som kan lage fotorealistiske bilder eller replikere noens stemme på en perfekt måte. Med det kommer potensialet for enormt forstyrrende sosial endring, for eksempel ikke lenger å kunne stole på video- eller lydopptak som ekte. Bekymringer begynner også å bli reist om hvordan slike teknologier vil bli brukt til å forkaste folks bilder, med verktøy som allerede er laget for å overføre overbevisende kjente ansikter til voksenfilmer.

Tale- og språkgjenkjenning

Maskinlæringssystemer har hjulpet datamaskiner å gjenkjenne hva folk sier med en nøyaktighet på nesten 95%. Microsofts kunstige intelligens og forskergruppe rapporterte også at de hadde utviklet et system som transkriberer talt engelsk så nøyaktig som menneskelige transkriberere.

Med forskere som forfølger et mål om 99% nøyaktighet, forvent å snakke med datamaskiner for å bli stadig vanligere sammen med mer tradisjonelle former for interaksjon mellom menneske og maskin.

I mellomtiden forårsaket OpenAIs språkforutsigelsesmodell GPT-3 nylig oppstyr med evnen til å lage artikler som kan passere som skrevet av et menneske.

Ansiktsgjenkjenning og overvåking

De siste årene har nøyaktigheten til ansiktsgjenkjenningssystemer hoppet frem, til det punktet hvor den kinesiske teknologigiganten Baidu sier at den kan matche ansikter med 99% nøyaktighet, forutsatt at ansiktet er klart nok på videoen. Mens politistyrker i vestlige land generelt bare har prøvd ut ved hjelp av ansiktsgjenkjenningssystemer ved store arrangementer, i Kina, monterer myndighetene et landsdekkende program for å koble CCTV over hele landet til ansiktsgjenkjenning og til å bruke AI-systemer for å spore mistenkte og mistenkelig oppførsel, og har også utvidet bruken av ansiktsgjenkjenningsbriller av politiet.

Selv om personvernregler varierer globalt, er det sannsynlig at denne mer påtrengende bruken av AI-teknologi – inkludert AI som kan gjenkjenne følelser – gradvis vil bli mer utbredt. Imidlertid har et økende tilbakeslag og spørsmål om rettferdighet i ansiktsgjenkjenningssystemer ført til at Amazon, IBM og Microsoft har stoppet salget av disse systemene til politimyndighetene midlertidig eller stoppet.

Healthcare

AI kan til slutt ha en dramatisk innvirkning på helsevesenet, og hjelper radiologer å plukke ut svulster i røntgenstråler, hjelpe forskere i å oppdage genetiske sekvenser relatert til sykdommer og identifisere molekyler som kan føre til mer effektive medisiner. Det siste gjennombruddet fra Googles AlphaFold 2 maskinlæringssystem forventes å redusere tiden det tar under et viktig skritt når du utvikler nye medisiner fra måneder til timer.

Det har vært studier av AI-relatert teknologi på sykehus over hele verden. Disse inkluderer IBMs verktøy for klinisk beslutningstjeneste Watson, som onkologer trener ved Memorial Sloan Kettering Cancer Center, og bruk av Google DeepMind-systemer av Storbritannias nasjonale helsetjeneste, der det vil bidra til å oppdage unormale øyne og effektivisere prosessen med å screening pasienter for hode og hode. nakkekreft.

Forsterke diskriminering og skjevhet

En økende bekymring er måten maskinlæringssystemer kan kodifisere menneskelige skjevheter og samfunnsforskjeller som gjenspeiles i deres treningsdata. Denne frykten er blitt bekreftet av flere eksempler på hvordan mangel på variasjon i dataene som brukes til å trene slike systemer har negative virkninger i virkeligheten.

I 2018 fant en MIT- og Microsoft-forskningspapir at ansiktsgjenkjenningssystemer solgt av store teknologibedrifter led av feilrater som var betydelig høyere når de identifiserte mennesker med mørkere hud, et problem som tilskrives opplæringsdatasett hovedsakelig av hvite menn.

En annen studie et år senere fremhevet at Amazons Rekognition ansiktsgjenkjenningssystem hadde problemer med å identifisere kjønnet til individer med mørkere hud, en belastning som ble utfordret av Amazon-ledere, og fikk en av forskerne til å ta opp punktene som ble reist i Amazon-tilbakevending.

Siden studiene ble publisert, har mange av de store teknologibedriftene, i det minste midlertidig, sluttet å selge ansiktsgjenkjenningssystemer til politiavdelinger.

Et annet eksempel på utilstrekkelig varierte treningsdata som skjevte resultater, fikk overskrifter i 2018 da Amazon skrotet et rekrutteringsverktøy for maskinlæring som identifiserte mannlige søkere som å foretrekke. I dag pågår det forskning om måter å oppveie forstyrrelser i selvlæringssystemer.

AI og global oppvarming

Etter hvert som størrelsen på maskinlæringsmodeller og datasettene som brukes til å trene dem vokser, øker karbonavtrykket til de store beregningsklyngene som former og kjører disse modellene. Miljøpåvirkningen ved å drive og kjøle ned disse databehandlingsbrukene var gjenstand for et papir fra World Economic Forum i 2018. Et estimat fra 2019 var at kraften som kreves av maskinlæringssystemer dobler hver 3,4 måned.

Spørsmålet om den enorme mengden energi som trengs for å trene kraftige maskinlæringsmodeller ble nylig satt i fokus med lanseringen av språkforutsigelsesmodellen GPT-3, et viltvoksende nevrale nettverk med rundt 175 milliarder parametere.

Mens ressursene som trengs for å trene slike modeller kan være enorme, og stort sett bare tilgjengelige for store selskaper, er energien som trengs for å kjøre disse modellene en gang trent betydelig mindre. Etter hvert som etterspørselen etter tjenester basert på disse modellene vokser, blir strømforbruket og den resulterende miljøpåvirkningen igjen et problem.

Et argument er at miljøpåvirkningen av opplæring og å kjøre større modeller må veies opp mot den potensielle maskinlæringen, må ha en betydelig positiv innvirkning. 2.

Vil AI drepe oss alle?

Igjen, det kommer an på hvem du spør. Etter hvert som AI-drevne systemer har vokst mer i stand, har advarsler om ulemper blitt mer alvorlige.

Tesla og SpaceX-sjef Elon Musk har hevdet at AI er en “grunnleggende risiko for eksistensen av menneskelig sivilisasjon”. Som en del av sitt press for sterkere regulatorisk tilsyn og mer ansvarlig forskning for å redusere ulempene ved AI, satte han opp OpenAI, et non-profit kunstig intelligensforskningsselskap som har som mål å fremme og utvikle vennlig AI som vil komme samfunnet som helhet til gode. Tilsvarende advarte fysikeren Stephen Hawking advarte om at når en tilstrekkelig avansert AI er opprettet, vil den raskt gå videre til det punktet der den overgår menneskelige evner. Et fenomen er kjent som enestående og kan utgjøre en eksistensiell trussel mot menneskeheten.

Likevel virker forestillingen om at menneskeheten er på randen av en AI-eksplosjon som vil dverge vårt intellekt latterlig for noen AI-forskere.

Chris Bishop, Microsofts forskningsdirektør i Cambridge, England, understreker hvor forskjellig den smale intelligens av AI i dag er fra menneskets generelle intelligens og sier at når folk bekymrer seg for “Terminator og fremveksten av maskinene og så videre? Fullstendig tull, ja. I beste fall er slike diskusjoner tiår unna.”

< h2> Vil en AI stjele jobben din?

 14-amazon-kiva.png Amazon

Muligheten for kunstig intelligente systemer som erstatter mye av moderne manuell arbeidskraft er kanskje en mer troverdig nær fremtid mulighet.

Mens AI ikke vil erstatte alle jobber, ser det ut til at AI vil endre arbeidets natur, med det eneste spørsmålet om hvor raskt og dyptgående automatisering vil endre arbeidsplassen.

Det er knapt et felt av menneskelig innsats som AI ikke har potensial til å påvirke. Som AI-ekspert Andrew Ng uttrykker det: “mange mennesker gjør rutinemessige, repeterende jobber. Dessverre er teknologi spesielt god til å automatisere rutinemessig, repeterende arbeid”, og sier at han ser en “betydelig risiko for teknologisk arbeidsledighet i løpet av de neste tiårene”.

Beviset for hvilke jobber som vil bli erstattet begynner å dukke opp. Det er nå 27 Amazon Go-butikker og kassererfrie supermarkeder der kundene bare tar varer fra hyllene og går ut i USA. Hva dette betyr for de mer enn tre millioner menneskene i USA som jobber som kasserer, gjenstår å se. Amazon er igjen ledende i å bruke roboter for å forbedre effektiviteten inne i lagrene. Disse robotene fører produkthyller til menneskelige plukkere som velger varer som skal sendes ut. Amazon har mer enn 200 000 roboter i sine oppfyllingssentre, med planer om å legge til flere. Men Amazon understreker også at ettersom antall roboter har vokst, har antallet menneskelige arbeidere i disse lagrene også økt. Imidlertid jobber Amazon og små robotikkfirmaer med å automatisere de gjenværende manuelle jobbene på lageret, så det er ikke gitt at manuelt og robotarbeid vil fortsette å vokse hånd i hånd.

Helt autonome selvkjørende biler er ikke en realitet ennå, men av noen spådommer er den selvkjørende lastebilindustrien alene klar til å ta over 1,7 millioner jobber i det neste tiåret, selv uten å vurdere virkningen på bud- og drosjesjåfører./p>

Likevel krever noen av de enkleste jobbene å automatisere ikke engang robotikk. For øyeblikket er det millioner av mennesker som jobber med administrasjon, skriver inn og kopierer data mellom systemer, jager og bestiller avtaler for selskaper ettersom programvare blir bedre til automatisk å oppdatere systemer og flagge viktig informasjon, slik at behovet for administratorer vil falle.

Som med alle teknologiske skift, vil nye arbeidsplasser bli opprettet for å erstatte de tapte. Det som er usikkert er imidlertid om disse nye rollene vil bli opprettet raskt nok til å tilby sysselsetting til de fordrevne, og om de nylig arbeidsledige vil ha de nødvendige ferdighetene eller temperamentet for å fylle disse nye rollene.

Ikke alle er pessimister. For noen er AI en teknologi som vil øke i stedet for å erstatte arbeidere. Ikke bare det, men de hevder at det vil være et kommersielt imperativ å ikke erstatte folk direkte, som en AI-assistert arbeidstaker – tenk en menneskelig concierge med et AR-headset som forteller dem nøyaktig hva en klient vil ha før de ber om det – vil være mer produktiv eller effektiv enn en AI som arbeider alene.

Det er et bredt spekter av meninger om hvor raskt kunstig intelligente systemer vil overgå menneskelige evner blant AI-eksperter.

Oxford University's Future of Humanity Institute ba flere hundre maskinlæringseksperter om å forutsi AI-muligheter de neste tiårene.

Merkbare datoer inkluderte AI-essays som kunne passere for å bli skrevet av et menneske innen 2026, og lastebilførere gjort overflødig innen 2027, AI overgår menneskelige evner innen detaljhandel innen 2031, skriver en bestselger innen 2049, og gjør kirurgens arbeid innen 2053.

De anslår at det var en relativt stor sjanse for at AI slår mennesker på alle oppgaver innen 45 år og automatiserer alle menneskelige jobber innen 120 år.

Se mer :

Forklarbar AI: Fra toppen av oppblåste forventninger til fallgruvene ved å tolke maskinlæringsmodeller . AI bias deteksjon (aka – skjebnen til vår datadrevne verden) . Problemet med kunstig intelligens: hvorfor vi trenger nye lover for å stoppe algoritmer som ødelegger livene våre . >Stor støtte for å sammenkoble leger med AI-assistentteknologi . Hva er neste for AI: Gary Marcus snakker om reisen mot robust kunstig intelligens . Det kan være riktig tid for å profesjonalisere praksis for kunstig intelligens. . Dette er en AI, hva er nødssituasjonen din? . Avl neuromorfe nettverk for moro skyld og profitt: Den nye reproduktive vitenskapen . Komme dit: Strukturerte data , semantikk, robotikk og fremtiden for AI . Adobe lanserer AI-verktøy for å spore omnichannel, få øye på anomalier raskere .

IBM legger til Watson-verktøy for leseforståelse, FAQ-ekstraksjon .

Relatert dekning

Hvordan ML og AI vil transformere forretningsintelligens og analyse
Maskinlæring og fremskritt innen kunstig intelligens på fem områder vil lette dataklargjøring, oppdagelse, analyse, prediksjon og datadrevet beslutningstaking.

Rapport: Kunstig intelligens skaper arbeidsplasser, genererer økonomiske gevinster
En ny studie fra Deloitte viser at tidlig bruk av kognitive teknologier er positive til deres nåværende og fremtidige roller.

AI og jobber: Der mennesker er bedre enn algoritmer, og omvendt
Det er lett å bli fanget opp i spådommer om undergang og dysterhet om kunstig intelligens som utslettes. millioner av jobber. Her er en reality check.

Hvordan kunstig intelligens frigjør en ny type nettkriminalitet (TechRepublic)
I stedet for å gjemme seg bak en maske for å rane en bank, gjemmer kriminelle seg nå bak kunstig intelligens for å gjøre sitt angrep. Imidlertid kan finansinstitusjoner også bruke AI for å bekjempe disse forbrytelsene.

Elon Musk: Kunstig intelligens kan utløse tredje verdenskrig (CNET)
Seriesjefen kjemper allerede morgendagens science fiction-kamper, og han er fortsatt mer bekymret for drapsmannen roboter enn noe annet.

Relaterte emner:

Cloud Digital Transformation CXO Internet of Things Innovation Enterprise Software  Nick Heath

Av Nick Heath | 23. juli 2021 – 20:21 GMT (21:21 BST) | Tema: Administrere AI og ML i Enterprise