Noll
Vägen till störningar är stenlagd med oavsiktliga konsekvenser, Telstra verkställande av Teknik, Innovation och Strategi Stephen Elop har sagt, med tech-industrin behöver säkra machine-learning och artificiell intelligens (AI) program mot omedvetna fördomar och kränkningar av trygghet och tillit.
På tal under den årliga Telstra Vantage-konferensen i Melbourne på torsdag, Elop sade omtänksam, kreativ, och kravställande roll kommer att vara den enda som kommer att överleva ökningen av automation och AI.
Enligt Elop — som tjänstgjorde som VD för Nokia innan de läggs till Telstra laget förra året efter telco har skapat en ny roll för innovation chef att leda sitt CTO, chief scientist, software group, och företagets strategi — medan AI maskiner lära sig från inmatning av data i sina system, dessa uppgifter kommer fläckas av människor med omedvetna fördomar.
“I hjärtat av artificiell intelligens är big data och insikter som kan härledas från avancerade data analytics … hur vi använder data, och de uppgifter vi väljer att utbilda våra maskiner kan ha en djupgående resultatet på vår analytics,” Elop.
Som ett resultat av illa valda data av mänskliga utvecklare — till exempel, de senaste resultaten att kvinnor är mindre benägna att visas Google-annonser för högre betalda jobb, att vissa facial-recognition software har svårigheter att spåra mörkare hudtoner, och att polisen är rekommenderat att söka ut brottslighet i låga socioekonomiska områdena — har sett diskriminering fortsätter genom AI som följd.
“Även om man förlitar sig på så kallad big data och modern teknik, den samhälleliga historia av diskriminering kan leva vidare i våra digitala plattformar som en funktion av data över som systemet har lärt sig, och de algoritmer som har utformats,” förklarade han.
Elop också pekade mot ett fall där en AI bot var medvetet förskjutits av användare på internet: Microsoft ‘ s Tay chatbot på Twitter, som lärt sig rasistiskt beteende från avsiktlig tweets.
Ökningen av AI och Internet of Things (IoT) måste därför hantera både med vad han kallade “Twitter-troll” och med omedvetna utvecklare fördomar om digitaliseringen av samhället går att undvika oavsiktliga konsekvenserna av att inte bara stärka diskriminering, men också att bryta mot personlig integritet och förtroende hos alla användare, Elop.
“Med Telstra lansera det är utan tvekan den största sammanhängande IoT nätverk i landet, med löfte om allt från bättre energihushållning för säkerhet, effektivitet i området, till gruvorna, till autonom körning, alla gift med kraften av big data-det är ingen tvekan om att Internet of Things kommer att ha en djupgående inverkan på de resultat som vi levererar till våra kunder”, sade han.
“Sekretess överträdelser kan snabbt bli oavsiktlig konsekvens av allt detta moln-baserade uppgifter.”
Insamling av uppgifter i sådana massiva mängder för användning i maskin-lärande och AI enheter utformade för smarta hem och smarta städer har potential att missbrukas av dåliga skådespelare, sa han, i synnerhet om data från flera olika källor kombineras.
“Insamling av data i stora mängder leder till alla typer av oavsiktliga konsekvenser inom området integritet, och de integritetsrisker multiplicera med big data-inte bara är det primära data i sig, men den nya slutsatser som kan härledas från kombinationer av big data från olika källor,” förklarade han.
“Till exempel, mosa upp data från de allt mer populära polisen registreringsskylt läsare med brottslighet mönster i staden — alla typer av intressant information kan samlas in från det.”
Ett exempel på detta är Amazons Alexa, vilket sparar all mänsklig interaktion för att lära sig och bli en smartare och mer användbar AI assistent till sin ägare-men oavsiktlig konsekvens skulle kunna vara att uppgifterna missbrukas, föreslog han.
“Den här enheten registrerar och lagrar i molnet allt jag någonsin sagt att det med själva inspelningen av min röst, med inspelning börjar ett par sekunder innan jag ens frågar det för att börja lyssna,” Elop.
“Det är bara en tidsfråga innan dessa inspelningar får användas för icke avsedda ändamål.”
Viktigast av allt, Elop sade, är när utvecklare inte säkra system mot oavsiktlig följd av missbruk av förtroendeställning.
Pekar den senaste tidens Equifax brott, Elop sade både överträdelse av sådana mycket personliga information och företagets svar att händelsen var ett “grundläggande kränkning” av hans integritet och förtroende, och något som helt enkelt inte kan fastställas efter faktum.
Folk börjar fråga vad för information de kan tro, tillade han, i ytterligare ett tecken på samhällets förtroende att bryta ner tack vare tekniska framsteg.
“Vad kan du lita på? Litar du på vad du läser på internet? Litar du på vad du läser på internet om det ligger i linje med din synvinkel? Litar du på vad du läser på internet om det är twittrade med en världsledande? Litar du på en enhet om det är en förprogrammerad bakdörr till enheten? Litar du på kameran i ditt vardagsrum som skulle kunna vara en del av en 650Gbps denial-of-service-attack, eller att någon skulle kunna använda det för att i hemlighet övervaka dig?” frågade han.
“När säkerheten går sönder, eller de personer som anförtros att tillämpa säkerhet att misslyckas i sina roller, eller när den genomsnittlige medborgaren kan inte längre tala om sanning och fiktion, vi har ett problem med att lita på.
“Den oavsiktliga följden av underlåtenhet att säkra vår värld är en uppdelning i förtroende i samhället — och förtroende är grunden för samhället självt.”
Enligt Elop, det enda sätt på vilket företag kan skydda sig mot oönskade konsekvenser av överträdelser av förtroende och diskriminering genom att visa den primära egenskaper för de tre roller som han nämnde skulle överleva AI: Vård, kreativitet och ledarskap.
Viktigast av allt, intentionalitet måste vara anställda av dessa att utveckla och sprida data-insamling maskiner och tjänster.
“Vi kan inte acceptera de många fördelar som våra ansträngningar ge till våra kunder och till våra botten linjer utan att ta ansvar för den fullständiga sortiment av konsekvenserna,” menade han.
“Omedvetna fördomar kan bara övervinnas med medveten ansträngning-med intentionalitet. Och, som vi har lärt oss på Telstra, sekretess-relaterade risker inte kan vara fullt upp med abstrakta politiska uttalanden och vitböcker, eller med experiment. Varje ny produkt-och tjänsteutbud med användning av ditt data måste utvärderas noggrant med avseende på personlig integritet och oavsiktliga konsekvenser.”
Tech-industrin måste samarbeta för att skydda samhället i stort, avslutade han.
“De som är omtänksam, kreativ och tillsyn … det är i dessa roller som vi behöver för att fylla,” sade han.
“Intentionalitet behöver omvårdnad; social integration behov kreativitet, och vi behöver leda samhället genom farorna med oavsiktliga konsekvenser.”
Upplysningar: Corinne Reichert reste till Telstra Vantage i Melbourne som en gäst av Telstra
Senaste Australiska nyheter
Australiska regeringens löften AU$50 miljoner för it research centre
ASIC publicerar crowdsourcad finansieringssystem vägledning
Arbete fördömer NBN installation framgång sitter på 90 procent
NBN försvarar sitt nätverk, säger några detaljhandeln behöver över 50 mbps
McDonald ‘ s drar igång network transformation med Telstra
0