Tech-branchen skal sikre mod “utilsigtede konsekvenser”: Elop

0
117

Nul

Vejen til afbrydelse er brolagt med utilsigtede konsekvenser, Telstra group executive af Teknologi, Innovation og Strategi Stephen Elop har sagt, med tech-branchen har brug for at sikre machine-learning og kunstig intelligens (AI) ansøgninger mod ubevidste fordomme og overtrædelser af sikkerhed og tillid.

At tale under den årlige Telstra Vantage-konferencen i Melbourne på torsdag, Elop sagde omsorg, kreative, og tilsynsmæssige roller vil være den eneste til at overleve den stigende automatisering og AI.

Ifølge Elop — der har tjent som administrerende DIREKTØR i Nokia, før de bliver tilføjet til Telstra holdet sidste år efter telco skabt den nye rolle for innovation hoved at føre sin CTO, chief scientist, software group, og virksomhedens strategi-mens AI maskiner lære af data-input ind i deres systemer, disse data kommer plettet af mennesker med ubevidste fordomme.

“I hjertet af kunstig intelligens er big data, og den viden, der kan udledes af avancerede data analytics … hvordan vi bruger data, og de data, vælger vi at træne vores maskiner kan have en dybtgående resultatet på vores analytics,” Elop.

Som et resultat, dårligt valgte data af menneskelige udviklere — for eksempel, de seneste resultater, at kvinder er mindre tilbøjelige til at blive vist Google-annoncer for højere betalt job, at visse facial anerkendelse software har svært ved at tracking mørkere hudfarver, og at politiet er blevet anbefalet at søge ud af kriminalitet i lav socio-økonomisk kvarterer — har oplevet diskrimination fortsætter gennem AI som et resultat.

“Selv når vi stole på de såkaldte big data og moderne teknologi, den samfundsmæssige historie om forskelsbehandling kan leve videre i vores digitale platforme som en funktion af data på tværs, som systemet har lært, og de algoritmer, der er designet,” forklarede han.

Elop også pegede i retning af en sag, hvor en AI bot bevidst blev flyttet af brugere på internettet: Microsoft Tay ‘ s chatbot på Twitter, som lærte racistisk opførsel fra en bevidst tweets.

Stigningen i AI, og Internet of Things (IoT) derfor skal beskæftige sig både med det, han kaldte “Twitter trolde” og med ubevidste udvikler bias, hvis digitaliseringen af samfundet kommer til at undgå utilsigtede konsekvenser af ikke kun at styrke diskrimination, men også en overskridelse af privatlivets fred og tillid hos alle brugere, Elop.

“Med Telstra at lancere, hvad der er velsagtens den største sammenhængende tingenes internet-netværk i landet, med løftet om alt fra bedre energi management til sikkerhed, effektivitet i marken, til de miner, til autonome kørsel, alle gift med den strøm af store data, der er ingen tvivl om, at tingenes Internet vil have en stor indflydelse på de resultater, vi leverer til vores kunder,” sagde han.

“Krænkelser af privatlivets fred kunne hurtigt blive en utilsigtet konsekvens af alt dette cloud-baserede data.”

Indsamling af data i så massive mængder til brug i maskine-læring og AI enheder er designet til smart homes og intelligente byer har potentiale til at blive misbrugt af dårlige skuespillere, han sagde, især hvis der er data fra flere kilder bliver kombineret.

“Indsamling af data i store mængder fører til alle mulige utilsigtede konsekvenser i det område af privatlivets fred, og de personlige risici multipliceres med big data-ikke kun er det primære data i sig selv, men den nye slutninger, der kan udledes fra kombinationer af big data fra forskellige kilder,” forklarede han.

“For eksempel, moset af data fra den stadig mere populære politiet nummerplade læsere med kriminalitet mønstre i byen-alle mulige interessante oplysninger, der kunne udledes af det.”

Et eksempel på dette er Amazon ‘ s Alexa, som gemmer alle menneskelige interaktion for at lære og blive klogere og mere nyttigt AI-assistent til sin ejer-men den utilsigtede konsekvens kunne være, at denne data bliver misbrugt, foreslog han.

“Denne enhed registrerer og gemmer i skyen alt, hvad jeg har nogensinde sagt, at det med en egentlig optagelse af min stemme, med optagelsen begynder et par sekunder, før jeg selv bede den om at starte med at lytte,” Elop.

“Det er kun et spørgsmål om tid, før disse optagelser vænne sig til en utilsigtet formål.”

Vigtigst af alt, Elop sagde, er, når udviklere ikke at sikre systemer mod den utilsigtede konsekvens af brud på tillid.

Peger på den seneste Equifax brud, Elop sagde, at både overtrædelsen af denne meget personlige oplysninger, og virksomhedens reaktion på arrangementet var en “fundamental krænkelse” af hans privatlivets fred og tillid, og noget, der ikke blot fastsættes efter den kendsgerning.

Folk er også begyndt at sætte spørgsmålstegn ved, hvilke oplysninger de kan tro, tilføjede han, i et andet tegn på samfundets tillid bryder ned, takket være de teknologiske fremskridt.

“Hvad kan man stole på? Har du tillid til, hvad du læser på internettet? Har du tillid til, hvad du læser på internettet, hvis det flugter med dit synspunkt? Har du tillid til, hvad du læser på internettet, hvis det er tweeted af en af verdens førende? Har du tillid til en enhed, hvis der er en pre-programmeret bagdør til enheden? Har du tillid til kameraet i din stue, som kunne være en del af en 650Gbps denial-of-service-angreb, eller nogen kunne bruge det til i al hemmelighed at overvåge dig?” spurgte han.

“Når sikkerhed bryder ned, eller de personer, der er pålagt at anvende sikkerhed fejle i deres roller, eller når den gennemsnitlige borger kan ikke længere fortælle den sandhed fra fiktion, har vi et problem med tillid.

“Den utilsigtede konsekvens, at den manglende sikring af, at vores verden er en opdeling i tillid i samfundet — og tillid er grundlaget for samfundet selv.”

Ifølge Elop, den eneste måde, hvorpå virksomheder kan beskytte mod utilsigtede konsekvenser af brud på tillid og diskrimination er ved at vise, at det primære træk for de tre roller, der nævnte han ville overleve AI: Omsorg, kreativitet og lederskab.

Vigtigst af alt, intentionalitet, skal være ansat af dem, udvikling og implementering af data-indsamling af maskiner og service.

“Vi kan ikke acceptere de mange fordele, som vores bestræbelser på at give vores kunder og vores nederste linjer uden at tage ansvar for den fulde rækkevidde af de deraf følgende konsekvenser,” mente han.

“Ubevidst bias, kan kun overvindes med en bevidst indsats-med intentionalitet. Og, som vi har lært på Telstra, privacy-relaterede risici, der ikke kan behandles fyldestgørende med abstrakte politiske erklæringer og hvidbøger, eller med eksperimenter. Hvert nyt produkt og service med brug af dine data skal vurderes nøje i form af privatlivets fred og utilsigtede konsekvenser.”

Tech industrien skal arbejde hen imod, for at beskytte samfundet, konkluderede han.

“Dem, der er omsorgsfulde, kreative, og tilsynsmæssige … dem er de roller, som vi behøver for at fylde,” sagde han.

“Intentionalitet har behov for pleje; inklusivitet behov kreativitet, og vi er nødt til at føre samfundet gennem farer af utilsigtede konsekvenser.”

Oplysning: Corinne Reichert rejste til Telstra Udsigtspunkt i Melbourne som en gæst af Telstra

Seneste Australske nyheder

Australske regering løfter AU$50 for cybersikkerhed forskningscenter

ASIC offentliggør crowdsourced finansiering regime vejledning

Arbejdskraft fordømmer NBN installation succesrate sidder på 90 procent

NBN forsvarer sit netværk, siger par detailhandel ansøgninger skal over 50Mbps

McDonald ‘ s skydes i gang transformation med Telstra

0