Nåværende modeller for kunstig intelligens (AI) er ikke klare som instrumenter for pengepolitikk, men teknologien kan føre til menneskelig utryddelse hvis regjeringer ikke griper inn med de nødvendige sikkerhetstiltakene, ifølge nye rapporter. Og å gripe inn er akkurat det EU (EU) gjorde forrige uke.
Også: De 3 største risikoene fra generativ AI – og hvordan man håndterer dem< /p>
EU-parlamentet vedtok onsdag EU AI Act, som markerer den første store vidtrekkende AI-lovgivningen som ble etablert globalt. Den europeiske loven tar sikte på å beskytte mot tre nøkkelrisikoer, inkludert “uakseptabel risiko” der regjeringsdrevne sosiale scoringsindekser som de som brukes i Kina er forbudt.
"De nye reglene forbyr visse AI-applikasjoner som truer innbyggerne' rettigheter, inkludert biometriske kategoriseringssystemer basert på sensitive egenskaper og umålrettet skraping av ansiktsbilder fra internett eller CCTV-opptak for å lage ansiktsgjenkjenningsdatabaser," sa EU-parlamentet. “Følelsesgjenkjenning på arbeidsplassen og skolene, sosial scoring, prediktivt politiarbeid (når det kun er basert på profilering av en person eller vurdering av deres egenskaper), og AI som manipulerer menneskelig atferd eller utnytter menneskers sårbarheter vil også være forbudt.”
Søkninger identifisert som “høy risiko”, som for eksempel verktøy for CV-skanning som rangerer jobbsøkere, må overholde spesifikke juridiske krav. Applikasjoner som ikke er oppført som høyrisiko eller eksplisitt utestengt er stort sett uregulert.
Det er noen unntak for rettshåndhevelse, som kan bruke biometriske identifikasjonssystemer i sanntid hvis «strenge sikkerhetstiltak»; er oppfylt, inkludert å begrense bruken av dem i tid og geografisk omfang. Disse systemene kan for eksempel brukes til å lette målrettet søk etter en savnet person eller for å forhindre et terrorangrep.
Operatører av høyrisiko AI-systemer, slik som de innen kritisk infrastruktur, utdanning og viktige private og offentlige tjenester, inkludert helsetjenester og banktjenester, må vurdere og redusere risikoer samt opprettholde brukslogger og åpenhet. Andre forpliktelser disse operatørene må oppfylle inkluderer å sikre menneskelig tilsyn og datanøyaktighet.
Også: Når AI-agenter sprer seg, øker risikoen også, sier forskere
Innbyggerne har også rett til å sende inn klager på AI-systemer og få forklaringer om beslutninger basert på høyrisiko-AI-systemer som påvirker rettighetene deres.
AI-systemer for generelle formål og opplæringsmodellene de er basert på, må overholde visse krav til åpenhet, inkludert å overholde EUs lov om opphavsrett og publisere sammendrag av innhold som brukes til opplæring. Kraftigere modeller som kan utgjøre systemrisiko vil møte ytterligere krav, inkludert å utføre modellevalueringer og rapportering av hendelser.
I tillegg må kunstige eller manipulerte bilder, lyd- og videoinnhold, inkludert deepfakes, være tydelig merket som slikt.
"AI-applikasjoner påvirker hvilken informasjon du ser på nettet ved å forutsi hvilket innhold som engasjerer deg, fanger opp og analyserer data fra ansikter for å håndheve lover eller tilpasse annonser, og brukes til å diagnostisere og behandle kreft," sa EU. “Med andre ord påvirker AI mange deler av livet ditt.”
Også: Ansatte legger inn sensitive data i generative AI-verktøy til tross for risikoen
Medordfører for EUs komité for det indre marked og Italias Brando Benifei sa: “Vi har endelig verdens første bindende lov om kunstig intelligens for å redusere risiko, skape muligheter, bekjempe diskriminering og bringe åpenhet. Uakseptabel AI-praksis vil bli forbudt i Europa og rettighetene til arbeidere og borgere vil bli beskyttet.
Benifei la til at det vil bli opprettet et AI-kontor for å støtte selskaper i å overholde reglene før de trer i kraft.
Regelverket er gjenstand for en sluttkontroll av advokater og en formell godkjenning fra Det europeiske råd. AI-loven trer i kraft 20 dager etter at den er publisert i den offisielle tidsskriften og skal gjelde fullt ut to år etter ikrafttredelsen, med unntak av forbud mot forbudt praksis, som vil gjelde seks måneder etter ikrafttredelsesdatoen. Regler for praksis vil også bli håndhevet ni måneder etter at de første reglene starter, mens generelle AI-regler inkludert styring vil tre i kraft et år senere. Forpliktelser for høyrisikosystemer trer i kraft tre år etter at loven trer i kraft.
Et nytt verktøy er utviklet for å veilede europeiske små og mellomstore bedrifter (SMB) og startups til å forstå hvordan de kan bli påvirket av AI-loven. Nettstedet for EU AI Act bemerket imidlertid at dette verktøyet fortsatt er et “arbeid pågår” og anbefaler organisasjoner å søke juridisk bistand.
Også: AI er superlading samarbeid mellom utviklere og forretningsbrukere
"AI-loven sikrer at europeere kan stole på det AI har å tilby," sa EU. “Mens de fleste AI-systemer utgjør begrenset til ingen risiko og kan bidra til å løse mange samfunnsutfordringer, skaper visse AI-systemer risikoer som vi må håndtere for å unngå uønskede utfall. For eksempel er det ofte ikke mulig å finne ut hvorfor et AI-system har tatt en beslutning eller prediksjon og tatt en bestemt handling. Så det kan bli vanskelig å vurdere om noen har blitt urettmessig vanskeligstilt, for eksempel i et ansettelsesvedtak eller i en søknad om en offentlig ytelsesordning."
Den nye lovgivningen jobber for blant annet å identifisere høyrisikoapplikasjoner og krever en standardvurdering før AI-systemet tas i bruk eller på markedet.
EU håper at AI-loven blir en global standard som General Data Protection Regulation (GDPR).
AI kan føre til menneskelig utryddelse uten menneskelig innblanding
I USA har en ny rapport bedt om statlig intervensjon før AI-systemer utvikler seg til farlige våpen og fører til “katastrofale” hendelser, inkludert menneskelig utryddelse.
Utgitt av Gladstone AI, ble rapporten bestilt og “produsert for gjennomgang” av det amerikanske utenriksdepartementet, men innholdet gjenspeiler ikke synspunktene til det offentlige organet, ifølge forfatterne.
Rapporten bemerket den akselererte fremgangen til avansert kunstig intelligens, som har presentert både muligheter og nye kategorier av «masseødeleggelsesvåpen-lignende»; risikoer. Slike risikoer har i stor grad blitt drevet av konkurranse mellom AI-laboratorier om å bygge de mest avanserte systemene som er i stand til å oppnå menneskelig nivå og overmenneskelig kunstig generell intelligens (AGI).
Også: Er menneskeheten virkelig dømt? Tenk på AIs akilleshæl
Denne utviklingen driver risiko som er global i skala, har dypt teknisk opphav og utvikler seg raskt, sa Gladstone AI. "Som et resultat står beslutningstakere overfor en avtagende mulighet til å innføre teknisk informerte sikkerhetstiltak som kan balansere disse hensynene og sikre at avansert AI utvikles og tas i bruk på en ansvarlig måte," det sto. “Disse sikkerhetstiltakene er avgjørende for å løse de kritiske nasjonale sikkerhetshullene som raskt dukker opp etter hvert som denne teknologien utvikler seg.”Rapporten pekte på store AI-aktører, inkludert Google, OpenAI og Microsoft, som har erkjent de potensielle risikoene, og bemerket at "utsiktene til utilstrekkelig sikkerhet" ved AI-laboratorier økte risikoen for at de “avanserte AI-systemene kunne bli stjålet fra deres amerikanske utviklere og våpen mot amerikanske interesser”.
Disse ledende AI-laboratoriene fremhevet også muligheten for å miste kontrollen over AI-systemene de utvikler seg, noe som kan ha "potensielt ødeleggende konsekvenser" til global sikkerhet, sa Gladstone AI.
Også: Jeg ble fortryllet av en AI-psykolog. Så ble ting litt rart
“Gitt den økende risikoen for nasjonal sikkerhet som utgjøres av raskt ekspanderende AI-evner fra våpentilførsel og tap av kontroll, og spesielt det faktum at den pågående spredningen av disse evnene tjener til å forsterke begge risikoene — er det et klart og presserende behov for USAs regjering til å gripe inn," rapporten notert.
Den ba om en handlingsplan som inkluderer implementering av midlertidige sikkerhetstiltak for å stabilisere avansert AI-utvikling, inkludert eksportkontroll på den tilhørende forsyningskjeden. Den amerikanske regjeringen bør også utvikle grunnleggende regulatorisk tilsyn og styrke sin kapasitet for senere stadier, og bevege seg mot et nasjonalt juridisk regime for ansvarlig AI-bruk, med et nytt reguleringsbyrå satt opp for å ha tilsyn. Dette bør senere utvides til å omfatte multilaterale og internasjonale domener, ifølge rapporten.
Reguleringsbyrået bør ha regelverks- og lisensieringsmyndigheter for å overvåke utvikling og distribusjon av AI, la Gladstone AI til. Et strafferettslig og sivilt ansvarsregime bør også definere ansvaret for AI-induserte skader og bestemme omfanget av skylden for AI-ulykker og våpen på tvers av alle nivåer av AI-forsyningskjeden.
AI er ikke klar for å drive pengepolitikken
Andre steder i Singapore funderte sentralbanken over globale økonomiers kollektive svikt i å forutsi vedvarende inflasjon etter pandemien.
Stilt overfor spørsmål om effektiviteten til eksisterende modeller, ble økonomer spurt om de burde se på fremskritt innen dataanalyse og AI-teknologier for å forbedre sine prognoser og modeller, sa Edward S. Robinson, viseadministrerende direktør for økonomisk politikk og sjeføkonom i Monetary. Authority of Singapore (MAS).
Også: Møt Copilot for Finance, Microsofts nyeste AI-chatbot – her er hvordan du forhåndsviser den
Tradisjonelle big data og maskinlæringsteknikker er allerede mye brukt i sektoren, inkludert sentralbanker som har tatt i bruk disse på forskjellige områder, bemerket Robinson, som talte på 2024 Advanced Workshop for Central Banks som ble holdt tidligere i forrige uke. Disse inkluderer bruk av AI og maskinlæring for finansiell overvåking og makroøkonomisk overvåking, der de for eksempel brukes til å identifisere unormale finansielle transaksjoner.
Nåværende AI-modeller er imidlertid fortsatt ikke klare som instrumenter for pengepolitikken, sa han.
“En nøkkelstyrke ved AI og maskinlæringsmodellering tilnærminger i prediktive oppgaver er deres evne til å la dataene fleksibelt bestemme den funksjonelle formen til modellen,”" han forklarte. Dette gjør at modellene kan fange ikke-lineariteter i økonomisk dynamikk slik at de etterligner vurderingen til menneskelige eksperter.
Nylige fremskritt innen generativ AI (GenAI) tar dette videre, med store språkmodeller ( LLMs) trent på enorme mengder data som kan generere alternative scenarier, sa han. Disse spesifiserer og simulerer grunnleggende økonomiske modeller og overgår menneskelige eksperter på å forutsi inflasjon.
Dessuten: AI-adopsjon og innovasjon vil gi billioner av dollar i økonomisk verdi
Fleksibiliteten til LLM-er er imidlertid en ulempe, sa Robinson. Han la merke til at disse AI-modellene kan være skjøre, og sa at produksjonen deres ofte er følsom for valget av modellens parametere eller spørsmål som brukes.
LLM-ene er også ugjennomsiktige, la han til, noe som gjør det vanskelig å analysere de underliggende driverne for prosessen som modelleres. “Til tross for deres imponerende evner, sliter nåværende LLM-er med logiske gåter og matematiske operasjoner”," han sa. “[Det tyder på] at de ennå ikke er i stand til å gi troverdige forklaringer på sine egne spådommer.”
AI-modeller i dag mangler klarhet i strukturen som gjør at eksisterende modeller kan være nyttige for pengepolitiske beslutningstakere, la han til. Ute av stand til å artikulere hvordan økonomien fungerer eller diskriminere mellom konkurrerende narrativer, kan AI-modeller ennå ikke erstatte strukturelle modeller i sentralbanker, sa han.
Men det er behov for forberedelser for dagen GenAI utvikler seg som en GPT, sa Robinson .