Hvad er AI? Her er alt hvad du behøver at vide om kunstig intelligens

0
162

 Nick Heath

Af Nick Heath | 23. juli 2021 – 20:21 GMT (21:21 BST) | Emne: Håndtering af AI og ML i virksomheden

Kom godt i gang med kunstig intelligens og maskinindlæring Se nu

Hvad er kunstig intelligens (AI)?

Det afhænger af, hvem du spørger.

Tilbage i 1950'erne beskrev feltets fædre, Minsky og McCarthy, kunstig intelligens som enhver opgave, der blev udført af en maskine, der tidligere ville have været anset for at kræve menneskelig intelligens.

Det er naturligvis en ret bred definition, Derfor vil du nogle gange se argumenter for, om noget virkelig er AI eller ej.

Moderne definitioner af, hvad det betyder at skabe intelligens er mere specifikke. Francois Chollet, en AI-forsker hos Google og skaberen af ​​maskinlæringssoftwarebiblioteket Keras, har sagt, at intelligens er bundet til et systems evne til at tilpasse sig og improvisere i et nyt miljø, at generalisere sin viden og anvende den på ukendte scenarier.

“Intelligens er den effektivitet, som du tilegner dig nye færdigheder til opgaver, du ikke tidligere har forberedt dig på,” sagde han.

“Intelligens er ikke selve færdigheder; det er ikke hvad du kan gøre ; det er hvor godt og hvor effektivt du kan lære nye ting. “

Det er en definition, hvorunder moderne AI-drevne systemer, såsom virtuelle assistenter, vil blive karakteriseret som at have demonstreret 'smal AI', evnen til at generalisere deres træning, når de udfører et begrænset sæt opgaver, såsom talegenkendelse eller computersyn.

Typisk demonstrerer AI-systemer i det mindste nogle af følgende adfærd forbundet med menneskelig intelligens: planlægning, indlæring, ræsonnement, problemløsning, vidensrepræsentation, opfattelse, bevægelse og manipulation og i mindre grad social intelligens og kreativitet.

Hvad bruger AI?

AI er allestedsnærværende i dag, bruges til at anbefale, hvad du skal købe næste online, for at forstå, hvad du siger til virtuelle assistenter, såsom Amazons Alexa og Apples Siri, for at genkende, hvem og hvad der er på et foto, spot spam eller spot spam-registreringskredit kortsvindel.

Hvad er de forskellige typer AI?

På et meget højt niveau kan kunstig intelligens opdeles i to brede typer:

Smal AI

Smal AI er det, vi ser overalt omkring os på computere i dag – intelligente systemer, der er blevet undervist eller har lært, hvordan man udfører specifikke opgaver uden at være eksplicit programmeret, hvordan man gør det.

Denne type maskine intelligens er tydeligt i tale- og sproggenkendelsen af ​​den Siri-virtuelle assistent på Apple iPhone, i visiongenkendelsessystemerne på selvkørende biler eller i de anbefalingsmotorer, der foreslår produkter, du måske kan lide, baseret på det, du tidligere har købt. I modsætning til mennesker kan disse systemer kun lære eller lære hvordan man udfører definerede opgaver, hvorfor de kaldes smal AI.

Generel AI

Generel AI er meget forskellig og er den type tilpasningsdygtigt intellekt, der findes hos mennesker, en fleksibel form for intelligens, der er i stand til at lære at udføre meget forskellige opgaver, alt fra haircutting til opbygning af regneark eller ræsonnement om en bred vifte af emner baseret på dens akkumulerede erfaring.

Dette er den slags AI, der mere almindeligt ses i film, som HAL i 2001 eller Skynet i The Terminator, men som ikke findes i dag – og AI-eksperter er voldsomt delte over, hvor hurtigt det bliver en realitet.

Hvad kan smal AI gøre?

Der er et stort antal nye applikationer til smal AI:

Tolke videofeeds fra droner, der udfører visuel inspektion af infrastruktur såsom olierør.Organisering af personlige og forretningskalendere.Respons på enkle kundeserviceforespørgsler.Koordinering med andre intelligente systemer til at udføre opgaver som at booke et hotel på et passende tidspunkt og sted. Hjælp radiologer med at få øje på potentielle tumorer i røntgenstråler. Flagning af upassende indhold online, afsløring af slid i elevatorer fra data indsamlet af IoT-enheder. Generering af en 3D-model af verden fra satellitbilleder … listen fortsætter og fortsætter. < p>Nye anvendelser af disse læringssystemer dukker op hele tiden. Grafikkortdesigner Nvidia afslørede for nylig et AI-baseret system Maxine, som giver folk mulighed for at foretage videoopkald af god kvalitet næsten uanset hastigheden på deres internetforbindelse. Systemet reducerer den nødvendige båndbredde til sådanne opkald med en faktor 10 ved ikke at overføre den fulde videostream over internettet og i stedet for at animere et lille antal statiske billeder af den, der ringer op på en måde designet til at gengive de opkaldendes ansigtsudtryk og bevægelser i i realtid og ikke kan skelnes fra videoen.

Men så meget uudnyttet potentiale som disse systemer har, undertiden overgår ambitioner for teknologien virkeligheden. Et eksempel er selvkørende biler, som i sig selv understøttes af AI-drevne systemer såsom computersyn. Elbilselskabet Tesla hænger et stykke bag CEO Elon Musks oprindelige tidslinje for bilens Autopilot-system, der opgraderes til “fuld selvkørsel” fra systemets mere begrænsede assisterede kørselsfunktioner, med funktionen Fuld selvkørsel først for nylig rullet ud til en udvalgt gruppe af ekspertdrivere som en del af et beta-testprogram.

Hvad kan General AI gøre?

En undersøgelse udført blandt fire ekspertgrupper i 2012/13 af AI-forskere Vincent C Müller og filosof Nick Bostrom rapporterede en 50% chance for, at kunstig generel intelligens (AGI) ville blive udviklet mellem 2040 og 2050 og steg til 90% inden 2075. gruppen gik endnu længere og forudsagde, at såkaldt 'superintelligens' – som Bostrom definerer som “ethvert intellekt, der i høj grad overstiger menneskers kognitive ydeevne i stort set alle interessedomæner” – var forventet omkring 30 år efter opnåelsen af ​​AGI.

De seneste vurderinger fra AI-eksperter er dog mere forsigtige. Pionerer inden for moderne AI-forskning som Geoffrey Hinton, Demis Hassabis og Yann LeCun siger, at samfundet ikke er i nærheden af ​​at udvikle AGI. I betragtning af skepsis med at lede lys inden for moderne AI og den meget forskellige karakter af moderne smalle AI-systemer end AGI, er der måske lidt grund til at frygte, at en generel kunstig intelligens vil forstyrre samfundet i den nærmeste fremtid.

< p>Når det er sagt, mener nogle AI-eksperter, at sådanne fremskrivninger er vildt optimistiske i betragtning af vores begrænsede forståelse af den menneskelige hjerne og mener, at AGI stadig er århundreder væk.

Hvad er de seneste vartegn i udviklingen af ​​AI?

 watson-1.jpg IBM

Mens moderne smal AI kan være begrænset til at udføre specifikke opgaver inden for deres specialiteter, er disse systemer undertiden i stand til overmenneskelig ydeevne , i nogle tilfælde endda demonstrerende overlegen kreativitet, er et træk ofte holdt op som iboende menneskeligt.

Der har været for mange gennembrud til at sammensætte en endelig liste, men nogle højdepunkter inkluderer:

I 2009 viste Google, at sin selvkørende Toyota Prius kunne gennemføre mere end 10 rejser på 100 miles hver, hvilket satte samfundet på en vej mod førerløse køretøjer. I 2011 skabte computersystemet IBM Watson overskrifter over hele verden, da det vandt det amerikanske quiz-show Jeopardy! , slå to af de bedste spillere, showet nogensinde havde produceret. For at vinde showet brugte Watson naturlig sprogbehandling og -analyser i store arkiver af data, der behandles for at besvare spørgsmål fra mennesker, ofte i en brøkdel af et sekund. I 2012 indvarslede et andet gennembrud AI's potentiale til at tackle en lang række nye opgaver tidligere betragtet som for kompliceret til enhver maskine. Det år sejrede AlexNet-systemet afgørende i ImageNet Large Scale Visual Recognition Challenge. AlexNets nøjagtighed var sådan, at den halverede fejlprocenten sammenlignet med konkurrerende systemer i billedgenkendelseskonkurrencen.

AlexNets ydeevne demonstrerede styrken ved læringssystemer baseret på neurale netværk, en model til maskinlæring, der havde eksisteret i årtier, men som endelig realiserede sit potentiale på grund af forbedringer af arkitektur og spring i parallel processorkraft muliggjort af Moores lov. Dygtigheden af ​​maskinlæringssystemer til at udføre computersyn ramte også overskrifterne det år, hvor Google uddannede et system til at genkende en internetfavorit: billeder af katte.

Den næste demonstration af effektiviteten af ​​maskinlæringssystemer, der fangede offentlighedens opmærksomhed, var triumfen fra Google DeepMind AlphaGo AI i 2016 over en menneskelig stormester i Go, et gammelt kinesisk spil, hvis kompleksitet stumpede computere i årtier. Go har ca. 200 træk pr. Tur sammenlignet med ca. 20 i skak. I løbet af et spil Go er der så mange mulige træk, der på forhånd søger gennem hver af dem for at identificere, at det bedste spil er for dyrt set fra et beregningsmæssigt synspunkt. I stedet blev AlphaGo trænet i, hvordan man spiller spillet ved at tage bevægelser, der spilles af menneskelige eksperter i 30 millioner Go-spil og fodre dem i dyblærende neurale netværk.

Uddannelse af disse dyb læringsnetværk kan tage meget lang tid, hvilket kræver, at enorme mængder data indtages og gentages, efterhånden som systemet gradvist forbedrer sin model for at opnå det bedste resultat.

Men for nylig har Google forbedrede træningsprocessen med AlphaGo Zero, et system der spillede “helt tilfældige” spil mod sig selv og derefter lærte af det. Google DeepMind-administrerende direktør Demis Hassabis har også afsløret en ny version af AlphaGo Zero, der har mestret skak- og shogispilene.

Og AI springer fortsat forbi nye milepæle: et system, der er trænet af OpenAI, har besejret verdens topspillere i en-mod-en-kamp i det online multiplayer-spil Dota 2.

Samme år, OpenAI skabte AI-agenter, der opfandt deres eget sprog for at samarbejde og nå deres mål mere effektivt, efterfulgt af Facebook-træningsagenter til at forhandle og lyve.

2020 var året, hvor et AI-system tilsyneladende fik evnen til at skrive og tale som et menneske om næsten ethvert emne, man kunne tænke på.

Det pågældende system, kendt som Generative Pre-training Transformer 3 eller GPT-3 for kort er et neuralt netværk, der er trænet i milliarder af engelsksprogede artikler, der er tilgængelige på det åbne web.

Fra kort tid efter, at det blev stillet til rådighed for test af den non-profit-organisation OpenAI, gik internettet overvældet af GPT-3s evne til at generere artikler om næsten ethvert emne, der blev tilført det, artikler der ved første øjekast ofte var svære at skelne fra dem, der er skrevet af et menneske. Tilsvarende fulgte imponerende resultater på andre områder med dets evne til overbevisende at besvare spørgsmål om en bred vifte af emner og endda videregive til en nybegynder JavaScript-koder.

Men mens mange GPT-3-genererede artikler havde en luft af verisimilitude, yderligere test fandt, at de genererede sætninger ofte ikke passerede mønstre, hvilket giver overfladisk plausible, men forvirrede udsagn såvel som undertiden direkte vrøvl.

Der er stadig betydelig interesse i at bruge modelens naturlige sprogforståelse med hensyn til grundlaget for fremtidige tjenester. Det er tilgængeligt for at vælge udviklere til at bygge ind i software via OpenAIs beta API. Det vil også blive inkorporeret i fremtidige tjenester, der er tilgængelige via Microsofts Azure cloud-platform.

Måske kom det mest slående eksempel på AI's potentiale sent i 2020, da Googles opmærksomhedsbaserede neurale netværk AlphaFold 2 viste et resultat, som nogle har kaldt værdig en Nobelpris for kemi.

Systemets evne til at se på et proteins byggesten, kendt som aminosyrer, og udlede, at proteins 3D-struktur dybt kan påvirke den hastighed, hvormed sygdomme forstås, og medicin udvikles. I den kritiske vurdering af proteinstrukturforudsigelseskonkurrencen, bestemte AlphaFold 2 3D-strukturen af ​​et protein med en nøjagtigt rivaliserende krystallografi, guldstandarden for overbevisende modellering af proteiner.I modsætning til krystallografi, der tager måneder at returnere resultater, kan AlphaFold 2 modellere proteiner på få timer. Med 3D-strukturen af ​​proteiner, der spiller en så vigtig rolle i human biologi og sygdom, er en sådan fremskyndelse blevet indvarslet som et milepæl gennembrud inden for medicinsk videnskab, for ikke at nævne potentielle anvendelser i andre områder, hvor enzymer anvendes i bioteknologi.

Hvad er maskinindlæring?

Praktisk talt alle de hidtil nævnte resultater stammer fra maskinindlæring, en delmængde af AI, der tegner sig for langt de fleste resultater inden for området i de senere år. Når folk taler om AI i dag, taler de generelt om maskinlæring.

I øjeblikket nyder noget af en genopblussen i enkle vendinger, maskinindlæring er, hvor et computersystem lærer, hvordan man udfører en opgave i stedet for at blive programmeret, hvordan man gør det. Denne beskrivelse af maskinindlæring går helt tilbage til 1959, da den blev opfundet af Arthur Samuel, en pioner inden for området, der udviklede et af verdens første selvlæringssystemer, Samuel Checkers-spilleprogrammet.

For at lære får disse systemer store mængder data, som de derefter bruger til at lære at udføre en bestemt opgave, såsom at forstå tale eller billedtekst til et fotografi. Kvaliteten og størrelsen af ​​dette datasæt er vigtig for at opbygge et system, der er i stand til at udføre sin udpegede opgave nøjagtigt. For eksempel, hvis du byggede et maskinlæringssystem til at forudsige huspriser, skulle træningsdataene omfatte mere end blot ejendommens størrelse, men andre vigtige faktorer såsom antallet af soveværelser eller havenes størrelse.

Hvad er neurale netværk?

Nøglen til succes med maskinindlæring er neurale netværk. Disse matematiske modeller er i stand til at tilpasse interne parametre for at ændre, hvad de sender. Et neuralt netværk tilføres datasæt, der lærer det, hvad det skal spytte, når det præsenteres med bestemte data under træning. Konkret kan netværket tilføres gråtonebilleder af tallene mellem nul og 9 sammen med en række binære cifre – nuller og ener – der angiver hvilket nummer der vises i hvert gråtonebillede. Netværket vil derefter blive trænet og justere dets interne parametre, indtil det klassificerer antallet vist i hvert billede med en høj grad af nøjagtighed. Dette uddannede neurale netværk kunne derefter bruges til at klassificere andre gråtonebilleder af tal mellem nul og 9. Et sådant netværk blev brugt i en sædvanlig papir, der viser anvendelsen af ​​neurale netværk udgivet af Yann LeCun i 1989 og er blevet brugt af US Postal Service til at genkende håndskrevne postnumre.

Strukturen og funktionen af ​​neurale netværk er meget løst baseret på forbindelserne mellem neuroner i hjernen. Neurale netværk består af sammenkoblede lag af algoritmer, der føder data ind i hinanden. De kan trænes i at udføre specifikke opgaver ved at ændre den betydning, der tillægges data, når de passerer mellem disse lag. Under træningen af ​​disse neurale netværk vil vægtene, der er knyttet til data, når de passerer mellem lag, fortsat blive varieret, indtil output fra det neurale netværk er meget tæt på det, der ønskes. På det tidspunkt vil netværket have 'lært', hvordan man udfører en bestemt opgave. Det ønskede output kan være alt fra korrekt mærkning af frugt i et billede til forudsigelse af, hvornår en elevator muligvis mislykkes baseret på dens sensordata.

En delmængde af maskinindlæring er dyb læring, hvor neurale netværk udvides til spredte netværk med et stort antal store lag, der trænes ved hjælp af enorme mængder data. Disse dybe neurale netværk har drevet det nuværende spring fremad i computernes evne til at udføre opgaver som talegenkendelse og computersyn.

Der er forskellige typer neurale netværk med forskellige styrker og svagheder. Recurrent Neural Networks (RNN) er en type neuralt net, der er særligt velegnet til Natural Language Processing (NLP) – forståelse af betydningen af ​​tekst – og talegenkendelse, mens nedbrydningsneurale netværk har deres rødder i billedgenkendelse og har anvendelser så forskellige som anbefalsystemer og NLP. Designet af neurale netværk udvikler sig også, idet forskere raffinerer en mere effektiv form for dybt neuralt netværk kaldet langvarig hukommelse eller LSTM – en type RNN-arkitektur, der bruges til opgaver som NLP og til aktiemarkedsprognoser – så den kan fungerer hurtigt nok til at blive brugt i on-demand-systemer som Google Translate.

 ai-ml-neural-network.jpg

Struktur og træning af dybe neurale netværk.

Billede: Nuance

Hvad er andre typer AI?

Et andet område med AI-forskning er evolutionær beregning.

Den låner fra Darwins teori om naturlig udvælgelse. Det ser genetiske algoritmer gennemgå tilfældige mutationer og kombinationer mellem generationer i et forsøg på at udvikle den optimale løsning på et givet problem.

Denne tilgang er endda blevet brugt til at hjælpe med at designe AI-modeller og effektivt bruge AI til at opbygge AI. Denne brug af evolutionære algoritmer til at optimere neurale netværk kaldes neuroevolution. Det kunne have en vigtig rolle at spille i at hjælpe med at designe effektiv AI, da brugen af ​​intelligente systemer bliver mere udbredt, især da efterspørgslen efter dataforskere ofte overstiger udbuddet. Teknikken blev fremvist af Uber AI Labs, der udgav papirer om brug af genetiske algoritmer til at træne dybe neurale netværk til forstærkning af indlæringsproblemer.

Endelig er der ekspertsystemer , hvor computere er programmeret med regler, der giver dem mulighed for at tage en række beslutninger baseret på et stort antal input, så maskinen kan efterligne en menneskelig eksperts adfærd i et specifikt domæne. Et eksempel på disse videnbaserede systemer kan f.eks. Være et autopilotsystem, der flyver et fly.

Hvad fremmer genopblussen i AI?

Som beskrevet ovenfor har de største gennembrud for AI-forskning i de senere år været inden for maskinlæring, især inden for dyb læring.

Dette er drevet dels af den lette tilgængelighed af data, men endnu mere af en eksplosion i parallel computerkraft, i hvilket tidsrum brugen af ​​klynger af grafikbehandlingsenheder (GPU'er) til at træne maskinlæringssystemer er blevet mere udbredt.

Ikke kun tilbyder disse klynger langt mere kraftfulde systemer til træning af maskinlæringsmodeller, men de er nu bredt tilgængelige som skytjenester over internettet. Over tid er de store teknologivirksomheder, som Google, Microsoft og Tesla, gået over til at bruge specialchips, der er skræddersyet til både løbende og for nylig træning, maskinlæringsmodeller.

Et eksempel på en af disse brugerdefinerede chips er Googles Tensor Processing Unit (TPU), hvis seneste version fremskynder hastigheden, hvormed nyttige maskinlæringsmodeller, der er bygget ved hjælp af Googles TensorFlow-softwarebibliotek, kan udlede information fra data samt den hastighed, hvormed de kan være trænet.

Disse chips bruges til at træne modeller til DeepMind og Google Brain og de modeller, der understøtter Google Translate og billedgenkendelsen i Google Fotos og tjenester, der gør det muligt for offentligheden at oprette maskinlæringsmodeller ved hjælp af Googles TensorFlow Research Cloud. Den tredje generation af disse chips blev afsløret på Googles I/O-konference i maj 2018 og er siden blevet pakket i maskinlærende kraftcentre kaldet bælg, der kan udføre mere end hundrede tusind billioner flydende punktoperationer pr. Sekund (100 petaflops). Disse løbende TPU-opgraderinger har gjort det muligt for Google at forbedre sine tjenester, der er bygget oven på maskinindlæringsmodeller, for eksempel ved at halvere den tid, det tager at træne modeller, der bruges i Google Translate.

Hvad er elementerne i maskinindlæring?

Som nævnt er maskinlæring en delmængde af AI og er generelt opdelt i to hovedkategorier: overvåget og ikke-overvåget læring.

Supervised learning

En almindelig teknik til undervisning i AI-systemer er ved at træne dem ved hjælp af mange mærkede eksempler. Disse maskinlæringssystemer tilføres enorme mængder data, som er blevet kommenteret for at fremhæve de interessante funktioner. Disse kan være fotos, der er mærket for at angive, om de indeholder en hund eller skriftlige sætninger, der har fodnoter for at indikere, om ordet 'bas' vedrører musik eller en fisk. Efter træning kan systemet derefter anvende disse etiketter på nye data, for eksempel på en hund i et foto, der lige er uploadet.

Denne proces med at undervise en maskine som et eksempel kaldes overvåget læring. Mærkning af disse eksempler udføres almindeligvis af online arbejdstagere, der er ansat via platforme som Amazon Mechanical Turk.

Uddannelse af disse systemer kræver typisk enorme mængder data, hvor nogle systemer skal gennemsøge millioner af eksempler for at lære, hvordan man effektivt udfører en opgave – skønt dette i stigende grad er muligt i en tidsalder med big data og udbredt datamining. Træningsdatasæt er enorme og vokser i størrelse – Googles Open Images Dataset har omkring ni millioner billeder, mens dets mærkede videoudregistrering YouTube-8M linker til syv millioner mærket videoer. ImageNet, en af ​​de tidlige databaser af denne art, har mere end 14 millioner kategoriserede billeder. Den blev samlet over to år og blev sammensat af næsten 50 000 mennesker – hvoraf de fleste blev rekrutteret gennem Amazon Mechanical Turk – som kontrollerede, sorterede og mærket næsten en milliard kandidatbilleder.

At have adgang til store mærkede datasæt kan også vise sig at være mindre vigtig end adgang til store mængder computerkraft i det lange løb.

I de senere år er Generative Adversarial Networks (GAN'er) blevet brugt i maskinlæringssystemer, der kun kræver en lille mængde mærket data sammen med en stor mængde umærket data, hvilket, som navnet antyder, kræver mindre manuelt arbejde at forberede./p>

Denne fremgangsmåde kan muliggøre øget brug af semi-overvåget læring, hvor systemer kan lære at udføre opgaver ved hjælp af en langt mindre mængde mærkede data, end det er nødvendigt for træningssystemer, der bruger overvåget læring i dag.

Uovervåget læring

I modsætning hertil bruger ikke-overvåget læring en anden tilgang, hvor algoritmer forsøger at identificere mønstre i data og søger ligheder, der kan bruges til at kategorisere disse data.

Et eksempel kan være at samle frugter, der vejer en tilsvarende mængde, eller biler med samme motorstørrelse.

Algoritmen er ikke opsat på forhånd for at udvælge bestemte typer data; det ser simpelthen efter data, som dets ligheder kan gruppere, for eksempel Google Nyheder, der grupperer historier om lignende emner hver dag.

Forstærkningslæring

En rå analogi til forstærkning læring belønner et kæledyr med en godbid, når det udfører et trick. I forstærkningslæring forsøger systemet at maksimere en belønning baseret på dets inputdata, grundlæggende gennemgår en proces med prøving og fejl, indtil det når det bedst mulige resultat.

Et eksempel på forstærkningslæring er Google DeepMinds Deep Q-netværk, som er blevet brugt til den bedste menneskelige ydeevne i en række klassiske videospil. Systemet tilføres pixels fra hvert spil og bestemmer forskellige oplysninger, såsom afstanden mellem objekter på skærmen.

Ved også at se på den opnåede score i hvert spil, bygger systemet en model for, hvilken handling der vil maksimere scoren under forskellige omstændigheder, for eksempel i tilfælde af videospillet Breakout, hvor padlen skal flyttes til for at opfange bolden.

Tilgangen bruges også i robotforskning, hvor forstærkningslæring kan hjælpe med at lære autonome robotter den optimale måde at opføre sig i virkelige miljøer.

 ai-ml-gartner- -cycle.jpg

Mange AI-relaterede teknologier nærmer sig eller er allerede nået, “toppen af ​​oppustede forventninger” i Gartners Hype-cyklus, hvor det tilbageslagsdrevne “desillusionerende trug” ligger på lur.

Billede: Gartner/Annotations: ZDNet

Hvilke er de førende virksomheder inden for AI?

Da AI spiller en stadig større rolle i moderne software og tjenester, kæmper hvert større techfirma for at udvikle robust maskinlæringsteknologi til brug internt og for at sælge til offentligheden via cloudtjenester.

Hver regelmæssigt skaber overskrifter for at bryde ny grund inden for AI-forskning, selvom det sandsynligvis er Google med sine DeepMind AI AlphaFold- og AlphaGo-systemer, der sandsynligvis har haft den største indflydelse på offentlighedens bevidsthed om AI.

Hvilke AI-tjenester er tilgængelige?

Alle de store skyplatforme – Amazon Web Services, Microsoft Azure og Google Cloud Platform – giver adgang til GPU-arrays til træning og kørsel af maskinlæringsmodeller, hvor Google også er klar til at lade brugerne bruge sine Tensor Processing Units – tilpasset chips, hvis design er optimeret til træning og kørsel af maskinlæringsmodeller.

Alle de nødvendige tilknyttede infrastrukturer og tjenester er tilgængelige fra de tre store, de skybaserede datalagre, der er i stand til at indeholde den enorme mængde data, der er nødvendige for at træne maskinlæringsmodeller, tjenester til at transformere data til at forberede dem til analyse, visualiseringsværktøjer for at vise resultaterne tydeligt og software, der forenkler opbygningen af ​​modeller.

Disse cloudplatforme forenkler endda oprettelsen af ​​brugerdefinerede maskinlæringsmodeller, hvor Google tilbyder en service, der automatiserer oprettelsen af ​​AI-modeller, kaldes Cloud AutoML. Denne træk-og-slip-tjeneste bygger tilpassede billedgenkendelsesmodeller og kræver, at brugeren ikke har nogen maskinlæringsekspertise.

Cloudbaserede maskinindlæringstjenester udvikler sig konstant. Amazon tilbyder nu et væld af AWS-tilbud designet til at strømline processen med at træne op i maskinlæringsmodeller og lancerede for nylig Amazon SageMaker Clarify, et værktøj til at hjælpe organisationer med at udrydde forstyrrelser og ubalancer i træningsdata, der kunne føre til skæve forudsigelser af den uddannede model .

For de virksomheder, der ikke ønsker at bygge deres egen maskine = læringsmodeller, men i stedet ønsker at forbruge AI-drevne on-demand-tjenester såsom stemme-, vision- og sproggenkendelse, skiller Microsoft Azure sig ud fra bredden af ​​tjenester på tilbud, tæt efterfulgt af Google Cloud Platform og derefter AWS. I mellemtiden forsøger IBM sammen med sine mere generelle on-demand-tilbud også at sælge sektorspecifikke AI-tjenester rettet mod alt fra sundhedspleje til detailhandel, gruppere disse tilbud under sin IBM Watson-paraply og have investeret $ 2 mia. I at købe The Weather Kanal til at låse op for en række data for at udvide sine AI-tjenester.

Hvilke af de store teknologivirksomheder vinder AI-løbet?

 amazon-echo-plus-2.jpg Billede: Jason Cipriani/ZDNet

Internt bruger hver teknologigigant og andre, såsom Facebook, AI til at hjælpe med at drive utallige offentlige tjenester: betjener søgeresultater, tilbyder anbefalinger, genkender mennesker og ting på fotos, on-demand oversættelse, spotting spam – listen er omfattende. >

Men en af ​​de mest synlige manifestationer af denne AI-krig har været stigningen i virtuelle assistenter, såsom Apples Siri, Amazons Alexa, Google Assistent og Microsoft Cortana.

Stoler stærkt på stemmegenkendelse og behandling af naturlige sprog og har brug for et enormt korpus til at trække på for at besvare forespørgsler, en stor mængde teknologi går i at udvikle disse assistenter.

Men mens Apples Siri måske først er kommet til fremtrædende plads , det er Google og Amazon, hvis assistenter siden har overhalet Apple i AI-rummet – Google Assistant med dets evne til at besvare en bred vifte af forespørgsler og Amazons Alexa med det enorme antal 'Færdigheder', som tredjepartsudviklere har oprettet for at tilføje til dets evner.

Over tid får disse assistenter evner, der gør dem mere lydhøre og bedre i stand til at håndtere de typer spørgsmål, folk stiller i regelmæssige samtaler. For eksempel tilbyder Google Assistant nu en funktion kaldet Fortsat samtale, hvor en bruger kan stille opfølgningsspørgsmål til deres oprindelige forespørgsel, såsom 'Hvordan er vejret i dag?' Efterfulgt af 'Hvad med i morgen?' og systemet forstår, at opfølgningsspørgsmålet også vedrører vejret.

Disse assistenter og tilknyttede tjenester kan også håndtere langt mere end bare tale, med den seneste inkarnation af Google Lens, der er i stand til at oversætte tekst til billeder og giver dig mulighed for at søge efter tøj eller møbler ved hjælp af fotos.

På trods af at være indbygget i Windows 10 har Cortana haft en særlig hård tid for sent, med Amazons Alexa nu tilgængelig gratis på Windows 10-pc'er. Samtidig moderniserede Microsoft Cortanas rolle i operativsystemet for at fokusere mere på produktivitetsopgaver, såsom styring af brugerens tidsplan, snarere end mere forbrugerfokuserede funktioner, der findes i andre assistenter, såsom afspilning af musik.

Hvilke lande er førende inden for AI?

Det ville være en stor fejl at tro, at de amerikanske teknologigiganter har syet inden for AI. Kinesiske firmaer Alibaba, Baidu og Lenovo investerer meget i AI inden for områder, der spænder fra e-handel til autonom kørsel. Som land forfølger Kina en tretrinsplan for at gøre AI til en kerneindustri for landet, en, der vil være 150 milliarder yuan ($ 22 mia.) I slutningen af ​​2020 for at blive verdens førende AI-magt inden 2030.

Baidu har investeret i at udvikle selvkørende biler, drevet af sin dyb læringsalgoritme, Baidu AutoBrain. Efter adskillige års test, med sin Apollo selvkørende bil, der har samlet mere end tre millioner miles kørsel i test, transporterede den over 100.000 passagerer i 27 byer verden over.

Baidu lancerede en flåde på 40 Apollo Go Robotaxis i Beijing i år. Virksomhedens grundlægger har forudsagt, at selvkørende køretøjer vil være almindelige i Kinas byer inden for fem år.

Kombinationen af ​​svage love om privatlivets fred, enorme investeringer, samordnet dataindsamling og big data-analyse fra store virksomheder som Baidu, Alibaba og Tencent, betyder, at nogle analytikere mener, at Kina vil have en fordel i forhold til USA, når det kommer til fremtidig AI-forskning , med en analytiker, der beskriver chancerne for, at Kina tager føringen over USA som 500 til 1 i Kinas favør.

 baidu-autonom-car.jpg

Baidus selvkørende bil, en modificeret BMW 3-serie.

Billede: Baidu

Hvordan kan jeg komme i gang med AI?

Mens du kunne købe en moderat kraftig Nvidia GPU til din pc – et eller andet sted omkring Nvidia GeForce RTX 2060 eller hurtigere – og begynde at træne en maskinlæringsmodel, er sandsynligvis den nemmeste måde at eksperimentere med AI-relaterede tjenester på via skyen.

Alle de store teknologivirksomheder tilbyder forskellige AI-tjenester, lige fra infrastrukturen til at opbygge og træne dine egne maskinlæringsmodeller til webtjenester, der giver dig adgang til AI-drevne værktøjer såsom tale, sprog, vision og følelsesgenkendelse on-demand.

Hvordan vil AI ændre verden?

Robotter og førerløse biler

Ønsket om, at robotter skal kunne handle autonomt og forstå og navigere rundt i verdenen betyder, at der er en naturlig overlapning mellem robotik og AI. Mens AI kun er en af ​​de teknologier, der anvendes i robotik, hjælper AI robotter med at bevæge sig ind i nye områder såsom selvkørende biler, leveringsrobotter og hjælper robotter med at lære nye færdigheder. I starten af ​​2020 afslørede General Motors og Honda Cruise Origin, en el-drevet førerløs bil, og Waymo, den selvkørende gruppe i Googles forældre Alphabet, åbnede for nylig sin robotaxi-service for offentligheden i Phoenix, Arizona, der tilbyder en tjeneste, der dækker et område på 50 kvadratkilometer i byen.

Falske nyheder

Vi er på randen af ​​at have neurale netværk, der kan skabe fotorealistiske billeder eller replikere andres stemme på en perfekt tone. Dermed kommer potentialet for enormt forstyrrende social forandring, såsom ikke længere at kunne stole på video- eller lydoptagelser som ægte. Bekymringer begynder også at blive rejst over, hvordan sådanne teknologier vil blive brugt til at forkaste folks billeder, med værktøjer, der allerede er skabt til at splitte berømte ansigter i voksenfilm overbevisende.

Tale- og sproggenkendelse

Machine-learning-systemer har hjulpet computere med at genkende, hvad folk siger med en nøjagtighed på næsten 95%. Microsofts Artificial Intelligence and Research-gruppe rapporterede også, at de havde udviklet et system, der transskriberer talt engelsk så nøjagtigt som menneskelige transkriberere.

Med forskere, der forfølger et mål om 99% nøjagtighed, forventer at tale til computere bliver mere almindelige sammen med mere traditionelle former for interaktion mellem menneske og maskine.

I mellemtiden forårsagede OpenAIs sprogforudsigelsesmodel GPT-3 for nylig en opstandelse med sin evne til at skabe artikler, der kunne passere som skrevet af et menneske.

Ansigtsgenkendelse og overvågning

I de senere år er nøjagtigheden af ​​ansigtsgenkendelsessystemer sprunget frem til det punkt, hvor den kinesiske tech-gigant Baidu siger, at den kan matche ansigter med 99% nøjagtighed, forudsat at ansigtet er klart nok på videoen. Mens politistyrker i vestlige lande generelt kun har prøvet ved hjælp af ansigtsgenkendelsessystemer ved store begivenheder, opretter myndighederne i Kina et landsdækkende program for at forbinde CCTV over hele landet til ansigtsgenkendelse og bruge AI-systemer til at spore mistænkte og mistænkelig opførsel, og har også udvidet politiets brug af ansigtsgenkendelsesbriller.

Selv om privatlivsbestemmelserne varierer globalt, er det sandsynligvis denne mere påtrængende brug af AI-teknologi – inklusive AI, der kan genkende følelser – gradvist bliver mere udbredt. En voksende tilbageslag og spørgsmål om retfærdighed i ansigtsgenkendelsessystemer har imidlertid ført til, at Amazon, IBM og Microsoft har sat pause eller standset salget af disse systemer til retshåndhævelse.

Healthcare

AI kunne i sidste ende have en dramatisk indvirkning på sundhedsvæsenet ved at hjælpe radiologer med at udvælge tumorer i røntgenstråler, hjælpe forskere med at få øje på genetiske sekvenser relateret til sygdomme og identificere molekyler, der kunne føre til mere effektive lægemidler. Det nylige gennembrud med Googles AlphaFold 2-maskinlæringssystem forventes at reducere den tid, der er taget under et nøgletrin, når der udvikles nye lægemidler fra måneder til timer.

Der har været forsøg med AI-relateret teknologi på hospitaler over hele verden. Disse inkluderer IBMs Watson kliniske beslutningsstøtteværktøj, som onkologer træner ved Memorial Sloan Kettering Cancer Center, og brugen af ​​Google DeepMind-systemer fra Storbritanniens National Health Service, hvor det vil hjælpe med at få øje på abnormiteter i øjet og strømline processen med screening af patienter for hoved og kræft i nakken.

Styrkelse af forskelsbehandling og bias

En voksende bekymring er den måde, som maskinlæringssystemer kan kodificere de menneskelige skævheder og samfundsmæssige uligheder, der afspejles i deres træningsdata. Denne frygt er blevet understøttet af flere eksempler på, hvordan manglende variation i de data, der bruges til at træne sådanne systemer, har negative virkninger i den virkelige verden.

I 2018 fandt en MIT- og Microsoft-researchpapir, at ansigtsgenkendelsessystemer, der blev solgt af store teknologivirksomheder, led af fejlprocent, der var signifikant højere, når man identificerede mennesker med mørkere hud, et problem, der tilskrives træningsdatasæt, der hovedsageligt blev sammensat af hvide mænd.

En anden undersøgelse et år senere fremhævede, at Amazons Rekognition ansigtsgenkendelsessystem havde problemer med at identificere køn hos personer med mørkere hud, en afgift, der blev udfordret af Amazon-ledere, hvilket fik en af ​​forskerne til at tage fat på de punkter, der blev rejst i Amazon-tilbagevendelsen.

Siden undersøgelserne blev offentliggjort, er mange af de store teknologivirksomheder i det mindste midlertidigt ophørt med at sælge ansigtsgenkendelsessystemer til politiet.

Et andet eksempel på utilstrækkeligt varierede træningsdata, der skævede resultater, skabte overskrifter i 2018, da Amazon skrottede et rekrutteringsværktøj til maskinlæring, der identificerede mandlige ansøgere som foretrukne. I dag forskes der løbende i måder at kompensere for skævheder i selvlæringssystemer.

AI og global opvarmning

Efterhånden som størrelsen på maskinlæringsmodeller og datasættene, der bruges til at træne dem, vokser, vokser også CO2-fodaftryk fra de store computerklynger, der former og kører disse modeller. Miljøpåvirkningen ved at drive og afkøle disse beregningsbedrifter var genstand for et papir fra World Economic Forum i 2018. Et skøn fra 2019 var, at den krævede effekt af maskinlæringssystemer fordobles hver 3,4 måned.

Spørgsmålet om den enorme mængde energi, der er nødvendig for at træne kraftfulde maskinlæringsmodeller, blev for nylig bragt i fokus ved frigivelsen af ​​sprogforudsigelsesmodellen GPT-3, et vidtstrakt neuralt netværk med omkring 175 milliarder parametre.

Mens de nødvendige ressourcer til at træne sådanne modeller kan være enorme og stort set kun tilgængelige for større virksomheder, er den energi, der er nødvendig for at køre disse modeller, en gang trænet betydeligt mindre. Efterhånden som efterspørgslen efter tjenester baseret på disse modeller vokser, bliver strømforbruget og den deraf følgende miljøpåvirkning igen et problem.

Et argument er, at miljøpåvirkningen af ​​træning og kørsel af større modeller skal afvejes mod den potentielle maskinindlæring, skal have en betydelig positiv indflydelse, for eksempel jo hurtigere fremskridt inden for sundhedsvæsenet, der ser sandsynligt ud efter gennembruddet fra Google DeepMind's AlphaFold 2.

Vil AI dræbe os alle?

Igen afhænger det af, hvem du spørger. Da AI-drevne systemer er vokset mere i stand, er advarsler om ulemperne blevet mere dystre.

Tesla og SpaceX CEO Elon Musk har hævdet, at AI er en “grundlæggende risiko for eksistensen af ​​menneskelig civilisation”. Som en del af hans skub om stærkere reguleringstilsyn og mere ansvarlig forskning i afbødning af ulemperne ved AI oprettede han OpenAI, et nonprofit-forskningsfirma for kunstig intelligens, der har til formål at fremme og udvikle venlig AI, der vil gavne samfundet som helhed. Tilsvarende advarede den anerkendte fysiker Stephen Hawking om, at når der oprettes en tilstrækkelig avanceret AI, vil den hurtigt komme videre til det punkt, hvor den langt overgår menneskelige evner. Et fænomen er kendt som en singularitet og kan udgøre en eksistentiel trussel mod menneskeheden.

Men forestillingen om, at menneskeheden er på randen af ​​en AI-eksplosion, der vil dværge vores intellekt, virker latterlig for nogle AI-forskere.

Chris Bishop, Microsofts forskningsdirektør i Cambridge, England, understreger, hvor forskellig den smalle intelligens af AI i dag er fra menneskets generelle intelligens og siger, at når folk bekymrer sig om “Terminator og fremkomsten af ​​maskinerne og så videre? Helt vrøvl, ja. I bedste fald er sådanne diskussioner årtier væk.”

< h2> Vil en AI stjæle dit job?

 14-amazon-kiva.png Amazon

Muligheden for kunstigt intelligente systemer, der erstatter meget af moderne manuel arbejdskraft, er måske en mere troværdig nær fremtid mulighed.

Mens AI ikke erstatter alle job, synes det at være sikkert, at AI vil ændre arten af ​​arbejdet, med det eneste spørgsmål, hvor hurtigt og hvor dybtgående automatisering vil ændre arbejdspladsen.

Der er knap et felt af menneskelig bestræbelse på, at AI ikke har potentialet til at påvirke. Som AI-ekspert Andrew Ng udtrykker det: “mange mennesker udfører rutinemæssige, gentagne job. Desværre er teknologi særlig god til at automatisere rutinemæssigt, gentagende arbejde” og siger, at han ser en “betydelig risiko for teknologisk arbejdsløshed i løbet af de næste par årtier”.

Beviset for, hvilke job der skal erstattes, begynder at dukke op. Der er nu 27 Amazon Go-butikker og kasserfrie supermarkeder, hvor kunderne bare tager varer fra hylderne og går ud i USA. Hvad det betyder for de mere end tre millioner mennesker i USA, der arbejder som kasserer, skal stadig ses. Amazon er igen førende i brugen af ​​robotter til at forbedre effektiviteten inden for sine lagre. Disse robotter bærer hylder af produkter til menneskelige plukkere, der vælger varer, der skal sendes ud. Amazon har mere end 200 000 bots i sine opfyldelsescentre med planer om at tilføje flere. Men Amazon understreger også, at da antallet af bots er vokset, er antallet af menneskelige arbejdere i disse lagre også vokset. Imidlertid arbejder Amazon og små robotteknologier med at automatisere de resterende manuelle job på lageret, så det er ikke givet, at manuelt og robotarbejde fortsætter med at vokse hånd i hånd.

Fuldt autonome selvkørende køretøjer er endnu ikke en realitet, men efter nogle forudsigelser er den selvkørende lastbilindustri alene klar til at overtage 1,7 millioner job i det næste årti, selv uden at overveje virkningen på kurerer og taxachauffører./p>

Alligevel kræver nogle af de nemmeste opgaver at automatisere ikke engang robotik. På nuværende tidspunkt er der millioner af mennesker, der arbejder med administration, indtaster og kopierer data mellem systemer, jagter og booker aftaler for virksomheder, da software bliver bedre til automatisk at opdatere systemer og markere vigtige oplysninger, så behovet for administratorer falder.

Som med hvert teknologisk skift, vil der blive skabt nye job til erstatning for de mistede. Det, der er usikkert, er dog, om disse nye roller vil blive skabt hurtigt nok til at tilbyde beskæftigelse til de fordrevne, og om de nyarbejdsløse vil have de nødvendige færdigheder eller temperament til at udfylde disse nye roller.

Ikke alle er pessimister. For nogle er AI en teknologi, der forstærker snarere end erstatter arbejdstagere. Ikke kun det, men de hævder, at der vil være et kommercielt imperativ for ikke at erstatte folk direkte, som en AI-assisteret arbejdstager – tænk en menneskelig concierge med et AR-headset, der fortæller dem præcis, hvad en klient ønsker, før de beder om det – vil være mere produktiv eller effektiv end en AI, der arbejder alene.

Der er en bred vifte af meninger om, hvor hurtigt kunstigt intelligente systemer vil overgå menneskelige muligheder blandt AI-eksperter.

Oxford Universitys Future of Humanity Institute bad flere hundrede maskinindlæringseksperter om at forudsige AI-kapaciteter i de kommende årtier.

Bemærkelsesværdige datoer inkluderede AI-essays, der kunne passere for at blive skrevet af et menneske i 2026, hvor lastbilchauffører var gjort overflødig inden 2027, AI overgår menneskelige muligheder inden for detailhandel inden 2031, skriver en bestseller inden 2049 og udfører kirurgens arbejde inden 2053.

De vurderede, at der var en relativt stor chance for, at AI slår mennesker ved alle opgaver inden for 45 år og automatiserer alle menneskelige job inden for 120 år.

Se mere :

Forklarelig AI: Fra toppen af ​​oppustede forventninger til faldgruberne ved fortolkning af maskinindlæringsmodeller . AI-bias-detektion (aka – skæbnen i vores datadrevne verden) . Problemet med AI: Hvorfor vi har brug for nye love for at stoppe algoritmer, der ødelægger vores liv Human møder AI: Intel Labs-team skubber på grænserne for interaktion mellem menneske og maskine med dyb læring . Stor opbakning til parring af læger med AI-hjælpteknologi . Hvad er det næste for AI: Gary Marcus taler om rejsen mod robust kunstig intelligens . Det kan være tid til at professionalisere kunstig intelligens. . Dette er en AI, hvad er din nødsituation? . Opdræt af neuromorfe netværk til sjov og profit: Den nye reproduktive videnskab . Kom dertil: Strukturerede data , semantik, robotik og fremtiden for AI . Adobe lancerer AI-værktøjer til at spore omnichannel, få øje på anomalier hurtigere .

IBM tilføjer Watson-værktøjer til læseforståelse, FAQ-udpakning .

Relateret dækning

Hvordan ML og AI vil transformere business intelligence og analytics
Maskinindlæring og fremskridt med kunstig intelligens inden for fem områder vil lette dataforberedelse, opdagelse, analyse, forudsigelse og datadrevet beslutningstagning.

Rapport: Kunstig intelligens skaber arbejdspladser, der skaber økonomiske gevinster
En ny undersøgelse fra Deloitte viser, at tidlige adoptere af kognitive teknologier er positive til deres nuværende og fremtidige roller.

AI og job: Hvor mennesker er bedre end algoritmer, og omvendt
Det er let at blive fanget i forudsigelserne om undergang og dysterhed om udslettelse af kunstig intelligens millioner af job. Her er en reality check.

Hvordan kunstig intelligens frigør en ny type cyberkriminalitet (TechRepublic)
I stedet for at gemme sig bag en maske for at rane en bank, skjuler kriminelle sig nu bag kunstig intelligens for at gøre deres angreb. Finansielle institutioner kan dog også bruge AI til at bekæmpe disse forbrydelser.

Elon Musk: Kunstig intelligens kan udløse tredje verdenskrig (CNET)
Den serielle administrerende direktør kæmper allerede morgendagens science fiction-kampe, og han er stadig mere bekymret over morderen robotter end noget andet.

Relaterede emner:

Cloud Digital Transformation CXO Internet of Things Innovation Enterprise Software  Nick Heath

Af Nick Heath | 23. juli 2021 – 20:21 GMT (21:21 BST) | Emne: Håndtering af AI og ML i virksomheden