Hva er kunstig generell intelligens?

0
14
høydevoksende hjernekonsept= Yuichiro Chino/Getty Images

Hva er kunstig generell intelligens?

Begrepet kunstig generell intelligens har blitt brukt i nesten tre tiår innen informatikk. Det brukes vanligvis for å referere til et datasystem som kan løse problemer like godt som, eller bedre enn, et menneske. 

Begrepet er bredt og vagt, og det har derfor fått forskjellige betydninger. Med suksessen de siste årene med  generative AI-programmer (Gen AI), og store språkmodeller som GPT-4, har noen eksperter forsøkt å definere AGI som å ha evnen til å overgå de snevre problemløsningsmulighetene av individuelle generative AI-modeller.

Imidlertid er observatører delt i hva AGI bør være i stand til, noe som er tydeliggjort i en undersøkelse av konseptet publisert av forskere ved Google' s DeepMind-enhet. 

Som hovedforfatter Meredith Ringel Morris og team forteller, begrenser noen tenkere AGI til “kognitiv”; oppgaver, som betyr ikke-fysiske mål, slik at et AGI-program for eksempel ikke må kunne bevege seg som en person gjennom den fysiske verden. Den definisjonen ville utelatt robotikk fra ligningen. 

Også: 81 % av arbeiderne som bruker kunstig intelligens er mer produktive. Slik implementerer du det

Andre argumenterer for en "legemliggjort" AGI som kan håndtere ekte fysiske oppgaver. For eksempel har Apples medgründer Steve Wozniak satt som en av nøkkeltestene for datamaskinintelligens bokstavelig talt å lage en kopp kaffe. “Når vil en datamaskin noen gang komme til det nivået,” spurte han i 2010. Den utfordringen er ikke oppnåelig ennå med dagens AI-drevne robotsystemer.

En annen inndeling er hvor mye AGI skal etterligne prosessene i den menneskelige hjernen. Før begrepet AGI dukket opp, argumenterte filosofen John Searle berømt for noe som ligner på AGI – det han kalte “sterk AI”. Etter Searles syn bør et sterkt AI-program ikke bare utføre oppgaver som en person gjør, det bør gjenskape den menneskelige tankeprosessen. 

"Den riktig programmerte datamaskinen er virkelig et sinn, " skrev Searle, “i den forstand at datamaskiner gitt de riktige programmene bokstavelig talt kan sies å forstå og ha andre kognitive tilstander.”" 

Andre hevder at sinnstilstander, bevissthet, følelse og tankeprosesser er irrelevante hvis en datamaskin kan produsere menneskelignende oppførsel, målt i tester som Alan Turings berømte “imitasjonsspill”.

For eksempel definerer OpenAIs grunnleggende charter AGI som “svært autonome systemer som utkonkurrerer mennesker på mest økonomisk verdifullt arbeid”," uten referanse til en maskin som har tankeprosesser som etterligner menneskers.

Når vil kunstig generell intelligens bli oppfunnet?

Bortsett fra presise definisjoner, er de fleste i AI enige om at AGI ennå ikke eksisterer. Forventningene til når det kan eksistere varierer mye, fra ganske snart til aldri. 

DeepMind-forfatterne understreker at det er nivåer av AGI, akkurat som det er nivåer av autonom kjøring, når man navigerer på veien stiger gradvis fra cruise control til ingen ved rattet. 

“Mye ettersom innføringen av et standard sett med nivåer for kjøreautomatisering muliggjorde klare diskusjoner om politikk og fremgang knyttet til autonome kjøretøy, antar vi at det er verdi i å definere “nivåer for AGI”," skriver de.

På denne måten argumenterer forfatterne for at dagens Gen AI-er som ChatGPT representerer “fremvoksende AGI”, med evner “lik et ufaglært menneske”. 

Fra fremvoksende AGI stiger nivåene identifisert av DeepMind-teamet gjennom “kompetent AGI”, “ekspert AGI”, “virtuos AGI” og “kunstig superintelligens” eller, “ASI”, går fra evner som tilsvarer en beskjedent dyktig voksen til evner som overgår 100 % av mennesker.

Også: Vil arbeidsgivere AI-ferdigheter eller AI- forbedrede ferdigheter?

Menge observatører har imidlertid ikke stolt på graderte definisjoner, men antar i stedet et vippepunkt, eller terskel, der datamaskinintelligens blir kvalitativt lik eller til og med overlegen menneskelige evner.&#xA0 ;

En slik talsmann for en hard pause er Ray Kurzweil, Googles ingeniørdirektør. I sin nylige bok The Singularity is Nearer gjentok Kurzweil sitt syn på at AGI vil ankomme i 2029. Kurzweil definerte AGI som “AI som kan utføre enhver kognitiv oppgave et utdannet menneske kan.” Innen 2029, hevdet han, en “robust” versjonen av Turing-testen vil bli bestått av AGI. 

Kurzweil advarte om at noen evner til intelligens på menneskelig nivå vil ta lengre tid. "Det er fortsatt et åpent spørsmål hvilke ferdigheter som til slutt vil vise seg å være vanskeligst for AI å mestre," skrev han. 

"Det kan for eksempel vise seg at i 2034 kan AI komponere Grammy-vinnende sanger, men ikke skrive Oscar-vinnende manus, og kan løse tusenårsprisoppgaver i matematikk men ikke generere dyp ny filosofisk innsikt."

Noen har foreslått AGIs ankomst enda tidligere. En tidligere OpenAI-ansatt, Leopold Aschenbrenner, har skrevet at AGI er “påfallende mulig” kommer i 2027, basert på ekstrapolering av fremskrittene gjort av OpenAIs GPT-modeller. Disse modellene, hevdet han, er nå like i evne til problemløsning som en “smart”; menneskelig videregående student. 

"Innen 2025/26 vil disse maskinene overgå høyskolekandidater," spådde Aschenbrenner. "Ved slutten av tiåret vil de være smartere enn deg eller jeg; vi vil ha superintelligens, i ordets rette betydning."

Også: Hva er en Chief AI Officer, og hvordan blir du det?< /p>

AI-kritiker Gary Marcus hevdet at ingen av de nåværende banene i AI, inkludert store språkmodeller, vil føre til AGI. "LLM-er er ikke AGI, og vil (på egen hånd) aldri bli det," Marcus skrev i juni 2024, “skalering alene kom aldri til å være nok.” 

Andre steder har Marcus erklært  gjeldende "fundamentmodeller," slik som GPT-4, for å være “mer som salongtriks enn ekte intelligens. De fungerer imponerende bra noen ganger, men mislykkes også ofte, på måter som er uberegnelige, usystematiske og til og med rett og slett tåpelige."

I en nylig Substack påpekte Marcus det han ser på som den feilaktige tilnærmingen av dagens Gen AI ved å rette oppmerksomheten mot kommentarer fra OpenAIs CTO, Mira Murati. Murati er sitert på en nylig konferanse for å si at AI-modeller under utvikling internt hos OpenAI er “ikke så langt fremme” av det som eksisterer for øyeblikket.

En annen observatør som er like skeptisk til fremkomsten av AGI er Meta Properties' sjefforsker, Yann LeCun. I et intervju med ZDNET i 2022 erklærte LeCun at de fleste av dagens AI-tilnærminger aldri vil føre til ekte intelligens , slik han ser det.

"Vi ser mange påstander om hva vi bør gjøre for å presse frem mot AI på menneskelig nivå," sa LeCun. "Og det er ideer som jeg tror er feilrettet."

“Vi er ikke så langt at våre intelligente maskiner har like mye sunn fornuft som en katt,” observerte LeCun. "Så hvorfor starter vi ikke der?"

Hva kan en kunstig generell intelligens gjøre?

Gitt de mange definisjonene av AGI og divisjoner, er det også mange spådommer om hvordan AGI vil være hvis og når den kommer eller opprettes.

I undersøkelsen deres var Google DeepMind-forskerne enige i definisjoner av AGI som ikke innebærer etterligning av menneskelige tankeprosesser. I motsetning til Searles sterke AI, som sa at AGI ville ha tanker som en menneskelig hjerne, argumenterte DeepMind-forskerne for evner, de praktiske prestasjonene eller resultatene til AGI.  

"Dette fokuset på kapasiteter innebærer at AGI-systemer ikke nødvendigvis trenger å tenke eller forstå på en menneskelignende måte (siden dette fokuserer på prosesser)," skrev Ringel Morris og team. 

"Tilsvarende er det ikke en nødvendig forløper for AGI at systemer har egenskaper som bevissthet (subjektiv bevissthet)."

Fokuset på kapasiteter gjenspeiles av Kurzweil i boken hans. Kurzweil la vekt på at AGI burde replikere evnene til den menneskelige hjernen, selv om den ikke trenger å følge de samme prosessene som hjernen.

Også: Mester AI uten tekniske ferdigheter? Hvorfor komplekse systemer krever mangfoldig læring

For eksempel vil AGI demonstrere en kreativ evne som ligner på den menneskelige neocortex, den yngste delen av den menneskelige hjernen, hevdet Kurzweil. Neocortex er ansvarlig for kognitive funksjoner på høyere nivå, som analogisk resonnement, og en evne til å operere i flere domener, som språk og bilder.

Spesielt ser Kurzweil på toppen av AI som en replikering av varierende nivåer av abstraksjon som finnes i neocortex. 

“I likhet med kunstige nevrale nettverk som kjører på silisiummaskinvare, bruker nevrale nettverk i hjernen hierarkiske lag som skiller rådatainnganger (sensoriske signaler, i det menneskelige tilfellet) og utganger (for mennesker, oppførsel)," skrev Kurzweil. "Denne strukturen tillater progressive abstraksjonsnivåer, som kulminerer i de subtile formene for erkjennelse som vi gjenkjenner som mennesker."

Kurzweil beskriver også flere "mangler" i dagens AI som antagelig kan løses av AGI: “kontekstuelt minne, sunn fornuft og sosial interaksjon.” 

For eksempel, et program som kan forstå alle temaene som kommer opp i samtalen – en veldig lang kontekst, med andre ord – vil også ha evnen, hevder Kurzweil, til å “skrive en roman med et konsistent og logisk plott ."

For å lukke hullene i dagens Gen AI, mener Kurzweil at den imponerende språkevnen til dagens store språkmodeller må forbedres betydelig. “I dag fungerer AIs fortsatt begrensede evne til å effektivt forstå språk som en flaskehals for dens generelle kunnskap,”" erklærte han. 

Også: Utover programmering: AI skaper en ny generasjon jobbroller

I motsetning til Kurzweils positive påstander, har kritiker Marcus til tider beskrevet AGI i form av hva han mener de nåværende tilnærmingene aldri vil oppnå. 

"I 2029 , AI vil ikke kunne se en film og fortelle deg nøyaktig hva som skjer […] Hvem er karakterene? Hva er deres konflikter og motivasjoner? osv."

Marcus har imidlertid også tilbudt positive definisjoner av AGI. I 2022, for eksempel, skrev han på X, “Personlig bruker jeg det som en stenografi for enhver intelligens (det kan være mange) som er fleksibel og generell, med oppfinnsomhet og pålitelighet som kan sammenlignes med (eller utover) menneskelig intelligens."

Marcus' vektlegging av "fleksibilitet" innebærer at AGI ikke bare skal oppnå mange av oppgavene til den gjennomsnittlige personen, men bør også være i stand til å tilegne seg nye oppgaveløsningsevner, en slags "meta" evne. Mange observatører, inkludert Kurzweil, er enige om at læringsaspektet ved en generell intelligens er et nøkkelelement i en AGI.

Likevel rammer andre forskere AGI-diskusjonen i form av tradisjonelle menneskelige prosesser, omtrent som Searle gjorde. NYU filosofiprofessor David Chalmers, for eksempel, har reist spørsmålet om bevissthet som et grunnleggende spørsmål i AI-utvikling.

Chalmers hevder at det kan være “større enn 20 % sannsynlighet”. at vi kan ha bevissthet i noen av disse systemene [stor språkmodell] om et tiår eller to."

Hvordan vil du skape en kunstig generell intelligens?

Å lage AGI faller grovt sett inn i to leire: å holde seg til gjeldende tilnærminger til AI og utvide dem til større skala, eller slå ut i nye retninger som ikke har vært så omfattende utforsket. 

Den dominerende formen for kunstig intelligens er “dyp læring” felt innen maskinlæring, hvor nevrale nettverk trenes på store datasett. Gitt fremgangen man ser i denne tilnærmingen, for eksempel utviklingen av OpenAIs språkmodeller fra GPT-1 til GPT-2 til GPT-3 og GPT-4, er det mange som tar til orde for å holde kursen.

Kurzweil , for eksempel, ser AGI som en forlengelse av den siste fremgangen på store språkmodeller, som Googles Gemini. "Å skalere opp slike modeller nærmere og nærmere kompleksiteten til den menneskelige hjernen er nøkkeldriveren for disse trendene," skriver han. 

For Kurzweil er skalering av gjeldende AI som den berømte Moore's Law-regelen for halvledere, hvor brikkene har blitt stadig kraftigere. Moores lov-fremgang, skriver han, er et eksempel på et bredt begrep laget av Kurzweil, “akselererende avkastning”. Fremgangen i Gen AI, hevder Kurzweil, har vist enda raskere vekst enn Moores lov på grunn av smarte algoritmer.  

Programmer som OpenAIs DALL*E, som kan lage et bilde fra bunnen av, er begynnelsen på menneskelignende kreativitet, etter Kurzweils syn. Å beskrive i tekst et bilde som aldri har vært sett før, for eksempel " Et cocktailglass som elsker en serviett," vil be om et originalt bilde fra programmet. 

Også: Generativ AI er teknologien IT føler mest press for å utnytte

< p>Kurzweil ser på slik bildegenerering som et eksempel på “zero-shot learning”, når en trent AI-modell kan produsere utdata som ikke er i treningsdataene. “Zero-shot learning er selve essensen av analogisk tenkning og intelligens i seg selv”," skriver Kurzweil. 

"Denne kreativiteten vil forvandle kreative felt som nylig virket strengt tatt i det menneskelige riket," skriver han.

Men nevrale nett må gå fra spesielle, smale oppgaver som å skrive ut setninger til mye større fleksibilitet, og en kapasitet til å håndtere flere oppgaver. Googles DeepMind-enhet laget et grovt utkast til en så fleksibel AI-modell i 2022, Gato-modellen, som samme år ble fulgt av en annen, mer fleksibel modell, PaLM.

Større og større modeller, hevder Kurzweil, vil til og med oppnå noen av områdene han anser som mangelfulle i Gen AI for øyeblikket, for eksempel “verdensmodellering”, der AI-modellen har en “robust modell av hvordan den virkelige verden fungerer. " Den evnen ville tillate AGI å demonstrere sunn fornuft, fastholder han.

Kurzweil insisterer på at det ikke spiller så stor rolle hvordan en maskin kommer frem til menneskelignende oppførsel, så lenge utdataene er korrekte.' xA0;

"Hvis forskjellige beregningsprosesser fører til at en fremtidig AI gjør banebrytende vitenskapelige oppdagelser eller skriver hjerteskjærende romaner, hvorfor skulle vi bry oss om hvordan de ble generert?" skriver han.

Igjen fremhever forfatterne av DeepMind-undersøkelsen AGI-utvikling som en pågående prosess som vil nå forskjellige nivåer, snarere enn et enkelt vippepunkt som Kurzweil antyder.

Også: 8 måter å redusere ChatGPT-hallusinasjoner på

Andre er skeptiske til den nåværende banen gitt at dagens Gen AI har vært fokusert mest på potensielt nyttige applikasjoner, uavhengig av deres “menneskelignende” applikasjoner. kvalitet.  

Gary Marcus har hevdet at en kombinasjon er nødvendig mellom dagens nevrale nettverksbaserte dyplæring og den andre langvarige tradisjonen innen AI, symbolsk resonnement. En slik hybrid vil være “nevrosymbolsk” resonnement. 

Marcus er ikke alene. En venture-støttet oppstart ved navn Symbolica har nylig dukket opp fra stealth-modus som forkjemper en form for nevro-symbolsk hybrid. Selskapets målsetning antyder at det vil overgå det det ser på som begrensningene til store språkmodeller.

"Alle nåværende moderne store språkmodeller som ChatGPT, Claude og Gemini er basert på på samme kjernearkitektur," sier selskapet. "Som et resultat lider de alle av de samme begrensningene."

Den nevro-symobiske tilnærmingen til Symbolica går til kjernen i debatten mellom “evner” og "prosesser" sitert ovenfor. Det er feil å gjøre unna prosesser, hevder Symbolicas grunnleggere, akkurat som filosofen Searle hevdet. 

"Symbolicas kognitive arkitektur modellerer de multi-skala generative prosessene som brukes av mennesker eksperter," hevder selskapet.

Også: ChatGPT er 'ikke spesielt nyskapende,' og “ingenting revolusjonerende”, sier Metas sjef for AI-forsker

Også skeptisk til status quo er Meta's LeCun. Han gjentok sin skepsis til konvensjonelle Gen AI-tilnærminger i de siste kommentarene. I et innlegg på X trakk LeCun oppmerksomheten til Anthropics Claudes manglende evne til å løse et grunnleggende resonnementproblem. 

< p>I stedet har LeCun argumentert for å avskaffe AI-modeller som er avhengige av måling av sannsynlighetsfordelinger, som inkluderer stort sett alle store språkmodeller og relaterte multimodale modeller.

I stedet presser LeCun på det som kalles energibaserte modeller, som låner konsepter fra statistisk fysikk. Disse modellene, har han hevdet, kan lede veien til “abstrakt prediksjon”, sier LeCun, og åpner for en “unified world model”; for en AI som er i stand til å planlegge flertrinnsoppgaver.

Også: Meta's AI-belysning LeCun utforsker dyplæringens energigrense

Chalmers hevder at det kan være «større enn 20 % sannsynlighet for at vi kan ha bevissthet i noen av disse [store språkmodellene] systemene om et tiår eller to."

Kan en kunstig generell intelligens overliste mennesker?

De fleste teorier om AGI antyder at programmene på et tidspunkt ikke bare vil like, men også overgå menneskets kognitive og problemløsende evner.

Som nevnt tidligere, antyder forfatterne av DeepMind-undersøkelsen at toppen av pyramiden av AGI-nivåer, nivå 5, innebærer en maskin som slår alle mennesker på enhver generell intelligensutfordring. Det er en naturlig konsekvens av økende beregningskraft, og mer og mer data, "opplåsing" evner, som forfatterne uttrykker det. 

Kurzweil ser utsiktene til overmenneskelig ytelse. “Enhver form for ferdighet som genererer klare nok tilbakemeldingsdata kan gjøres om til en dyp læringsmodell som driver AI utover alle mennesker” evner," skriver han.

Også: Den nye Turing-testen: Er du menneske?

Det er imidlertid ikke nødvendigvis tilfelle, hevder Kurzweil, at en overmenneskelig AGI vil ha mestret alt; det kan bare være bra på visse ting. “Det er til og med mulig at AI kan oppnå et overmenneskelig ferdighetsnivå til å programmere seg selv før den mestrer de sunne sosiale finessene i Turing-testen.”

Som et resultat vil “vi også trenge å utvikle mer sofistikerte metoder for å vurdere de komplekse og varierte måtene menneskelig og maskinell intelligens vil være like og annerledes."

Faktisk, de moderne aktivitetene til mennesker, slik som “domscrolling”; sosiale medier-kontoer, setter spørsmålstegn ved de grunnleggende forestillingene om hva som er menneskelignende, noe som betyr at før AGI kommer, er det også mulig menneskelig erkjennelse og intelligens vil bli fundamentalt reevaluert. 

Hva er superintelligens?

Sammen med forskjellige definisjoner av AGI er det også forskjellige forestillinger om hvordan man kan se menneskelig intelligens i sammenheng med AGI. 

DeepMind-forfatterne, som nevnt, ser kulminasjonen av nivåer av AGI i kunstig superintelligens, der maskinen “utkonkurrerer 100 % av mennesker” på tvers av oppgaver. 

Og likevel har forfatterne også utsiktene til at en ASI kan utformes som et komplement til menneskelige evner, forutsatt at det rettes menneske-datamaskin-grensesnittdesign.‚ xA0;

“Rollen til menneske-AI-interaksjonsforskning kan sees på som å sikre at nye AI-systemer er brukbare av og nyttige for mennesker, slik at AI-systemer med hell utvider folks evner (dvs. intelligensforsterkning”). skriver de.

Andre tar begrepet superintelligens for pålydende, som nevnt av tidligere OpenAI-ansatt Aschenbrenner, som sidestiller begrepet med maskiner som overgår mennesker. 

Snarere enn å overliste mennesker, er Kurzweils fokus på å øke menneskelig intelligens — det han kaller “singulariteten”. 

Singulariteten er en forlengelse av neocortex “inn i skyen”, i Kurzweil'apos ;s visning.

“Når mennesker er i stand til å koble neocortices våre direkte til skybaserte beregninger, vil vi frigjøre potensialet for enda mer abstrakte tanker enn våre organiske hjerner for øyeblikket kan støtte på egenhånd,”" skriver han.

Også: Hvordan fungerer ChatGPT egentlig?

En sky-tilkoblet elektronisk enhet vil danne forbindelser med bare en del av den menneskelige neocortex, dens “øvre regioner”, " mens det meste av menneskelig kognitiv aktivitet fortsatt vil være i den menneskelige neocortex.

Denne sammenslåingen kan skje via en rekke forskjellige tilnærminger, inkludert “Neuralink”; implantat som Elon Musk støtter. 

Men Kurzweil forventer en langt mildere sammenslåing: “Til syvende og sist vil datamaskingrensesnittene i hjernen i hovedsak være ikke-invasive—som sannsynligvis vil innebære harmløs nanoskala elektroder satt inn i hjernen gjennom blodet."

Noen skeptikere har hevdet at AGI distraherer fra fordelene AI kan gi for menneskelig funksjon. For eksempel har Stability.ai's grunnlegger og administrerende direktør, Emad Mostaque, fortalt ZDNET: “Vi er på rett sted, etisk når det gjelder å bringe denne teknologien til alle ved å fokusere ikke på AGI for å erstatte mennesker, men hvordan forsterker vi mennesker med små, kvikke modeller." 

Hvordan stopper vi en generell AI fra å bryte sine begrensninger?

Blant de mange etiske hensyn som ligger i AGI er spørsmålet om hvordan man kan forhindre at slike programmer forårsaker skade. Debatten blant forskere handler ikke bare om hvordan man kan forhindre skade, men også hvordan man definerer det.

Forfatterne av DeepMind-undersøkelsen understreker at selv en nivå 5, kunstig superintelligens kanskje ikke faktisk er “autonom.” Den kan ha kognitive evner, men være begrenset i oppgaveutførelsen av sikkerhetsmessige årsaker.

Forfatterne gjør analogien til brukergrensesnittdesign og menneske-datamaskin-grensesnittdesign — det er opp til skaperne av AGI, og samfunnet, å bestemme hvor mye autonomi som gis til slike systemer. 

"Vurder for eksempel fordelene ved brukergrensesnitt for AGI-systemer," skriv Ringel Morris og team. “Øke evner låser opp nye interaksjonsparadigmer, men ikke avgjør dem”[understreke forfatterne]. I stedet vil systemdesignere og sluttbrukere slå seg til ro med en modus for menneskelig-AI-interaksjon."

DeepMind-teamet understreker at om det er skade eller ikke, avhenger ikke bare av funksjonene som er låst opp i AGI, men også av hva slags interaksjon som er utformet i den AGI. Et positivt resultat, som menneskelig superintelligens, kan komme med riktig utforming av menneske-datamaskin-interaksjon.

Andre ser et bredt og dypt potensiale for skade som det ikke finnes noen umiddelbare svar på. < /p>

Kurzweil skriver: “Superintelligent AI innebærer en fundamentalt annen type fare – faktisk den primære faren. Hvis AI er smartere enn sine menneskelige skapere, kan den potensielt finne en vei rundt eventuelle forholdsregler som er iverksatt. Det er ingen generell strategi som definitivt kan overvinne det."

Tilsvarende har Gary Marcus hevdet at det ikke er noen plan for å håndtere noen AGI som skulle oppstå. “Hvis fiaskoen som har vært Gen AI har vært et tegn, er selvregulering en farse,” skrev Marcus i en nylig Substack, “og den amerikanske lovgiveren har nesten ikke gjort noen fremskritt så langt med å tøyle i Silicon Valley. Det er viktig at vi gjør det bedre."