Nul
Het pad naar de verstoring is geplaveid door onbedoelde gevolgen, Telstra group executive van Technologie, Innovatie en Strategie Stephen Elop heeft gezegd, met de tech-industrie nodig om veilige machine-learning en artificial intelligence (AI) van toepassingen tegen het onbewuste vooroordelen en inbreuken op de veiligheid en het vertrouwen.
Het spreken tijdens de jaarlijkse Telstra Vantage conferentie in Melbourne op donderdag Elop zei zorgzame, creatieve en toezichthoudende functies zal de enige zijn die het overleven van de opkomst van de automatisering en de AI.
Volgens Elop — die de CEO van Nokia voordat deze worden toegevoegd aan de Telstra team vorig jaar na de telco gemaakt van de nieuwe rol van innovatie het hoofd naar het CTO, chief scientist, software groep, en corporate strategie -, terwijl AI machines leren van de invoer van gegevens in hun systemen, zijn deze gegevens afkomstig zijn besmet door mensen met onbewuste vooroordelen.
“In het hart van kunstmatige intelligentie is big data, en de inzichten die aan de hand van geavanceerde data-analyse … hoe we de gegevens gebruiken, en de gegevens selecteren we trainen onze machines kan een diepgaand effect op onze analytics” Elop zei.
Als een resultaat, slecht gekozen data door menselijke ontwikkelaars — bijvoorbeeld de recente bevindingen dat vrouwen minder kans om te zien de advertenties van Google voor hoger betaalde banen, die bepaalde facial-recognition software heeft moeite met het bijhouden van een donkere huidskleur, en dat de politie wordt aanbevolen om te zoeken naar criminaliteit in de lage sociaal-economische wijken — heeft gezien discriminatie verder door AI als gevolg.
“Zelfs wanneer we ons baseren op zogenaamde’ big data en de moderne technologie, de maatschappelijke geschiedenis van discriminatie kunnen leven in onze digitale platforms als een functie van de gegevens over die het systeem heeft geleerd, en de algoritmen die zijn ontworpen,” legde hij uit.
Elop ook wees in de richting van een geval waar een AI bot was bewust verschoven door gebruikers op het internet: Microsoft ‘ s Tay chatbot op Twitter, die geleerd racistische gedrag van de bewuste tweets.
De opkomst van de AI en het Internet of Things (IoT) daarom moet omgaan, zowel met wat hij noemde “Twitter trolls” en met onbewuste ontwikkelaar vooroordelen als de digitalisering van de samenleving is gaan om te voorkomen dat de onbedoelde gevolgen van niet alleen het versterken van discriminatie, maar ook het schenden van de privacy en het vertrouwen van alle gebruikers, Elop zei.
“Met de lancering van Telstra wat misschien wel het grootste aaneengesloten IoT netwerk in het land, met de belofte van alles, van een betere energie-management aan de veiligheid, efficiëntie in het veld, naar de mijnen, naar autonoom rijden, al getrouwd met de kracht van big data, er is geen twijfel dat het Internet van Dingen is het al een diepe impact hebben op de resultaten die we leveren aan onze klanten,” zei hij.
“Privacy-inbreuken kan snel het onbedoelde gevolg van al deze gegevens in de cloud.”
Het verzamelen van gegevens in zulke enorme hoeveelheden voor gebruik in de machine-learning en AI toestellen ontworpen voor smart homes en slimme steden heeft het potentieel om te worden misbruikt door slechte acteurs, zei hij, met name als de gegevens uit verschillende bronnen worden gecombineerd.
“De verzameling van gegevens in enorme hoeveelheden leidt tot allerlei onbedoelde gevolgen op het gebied van privacy, en die van privacy risico’ s te vermenigvuldigen met big data — het is niet alleen de primaire gegevens zelf, maar de nieuwe conclusies die kunnen worden verkregen uit een combinatie van big data uit verschillende bronnen,” legde hij uit.
“Bijvoorbeeld, mashing up van gegevens van de steeds populairder wordende politie het kenteken lezers met criminaliteit in de stad — allerlei interessante informatie zou kunnen worden verkregen uit.”
Een voorbeeld hiervan is Amazon ‘ s Alexa, die slaat alle menselijke interactie om te leren en worden een slimmere en meer nuttig AI-assistent aan de eigenaar, maar het onbedoelde gevolg kan zijn dat deze gegevens misbruikt, suggereerde hij.
“Dit apparaat registreert en opslaat in de cloud alles wat ik ooit heb gezegd dat het met een opname van mijn stem, met de opname te beginnen een paar seconden voordat ik zelfs vragen om te beginnen met luisteren,” Elop zei.
“Het is slechts een kwestie van tijd voordat die opnames gebruikt voor een oneigenlijk doel.”
Belangrijker nog, Elop zei, is wanneer ontwikkelaars niet beveiligde systemen tegen het onbedoelde gevolg zijn van de schending van vertrouwen.
Wijzen naar de recente Equifax inbreuk, Elop zei zowel de schending van dergelijke zeer persoonlijke informatie en de reactie van de organisatie om het evenement was een “fundamentele schending van zijn privacy en vertrouwen, en iets dat kan niet zomaar worden verholpen na het feit.
Mensen beginnen ook om de vraag welke informatie ze kunnen geloven, voegde hij eraan toe, in een ander teken van het vertrouwen van de maatschappij te breken dankzij de technologische vooruitgang.
“Wat kan je vertrouwen? Heb je vertrouwen in wat u gelezen heeft op internet? Heb je vertrouwen in wat je leest op het internet als het overeenkomt met uw standpunt? Heb je vertrouwen in wat je leest op het internet als het getweet door een wereldleider? Vertrouw je een apparaat als er sprake is van een voorgeprogrammeerde achterdeur naar het apparaat? Vertrouw je de camera in uw woonkamer dat onderdeel kan worden van een 650Gbps denial-of-service-aanval, of iemand kan worden met behulp van het stiekem monitor je?” vroeg hij.
“Wanneer de veiligheid in het breekt, of de mensen toevertrouwd aan beveiliging toepassen falen in hun rol, of wanneer de gemiddelde burger kan niet meer vertellen van de waarheid van de fictie, we hebben een probleem met vertrouwen.
“Het onbedoelde gevolg van het falen om op deze manier onze wereld is een breuk in het vertrouwen in de samenleving — en vertrouwen is het fundament van de samenleving zelf.”
Volgens Elop, de enige manier waarop bedrijven kunnen beschermen tegen de ongewenste gevolgen van een schending van vertrouwen en discriminatie is door het aantonen van de primaire eigenschappen van de drie rollen die hij genoemd zou overleven AI: de Verzorging, creativiteit en leiderschap.
Belangrijker nog, intentionaliteit moeten worden aangewend door diegenen die de ontwikkeling en implementatie van data-verzamelen van machines en diensten.
“We kunnen niet aanvaarden van de vele voordelen die onze inspanningen verlenen aan onze klanten en aan onze onderste lijnen zonder het nemen van verantwoordelijkheid voor het volledige scala van de daaruit voortvloeiende gevolgen,” betoogde hij.
“Onbewuste vooringenomenheid kan alleen worden opgelost met een bewuste inspanning — met intentionaliteit. En, zoals we hebben geleerd bij Telstra, privacy-gerelateerde risico ‘ s niet volledig worden opgelost met abstracte beleid en whitepapers, of met experimenteren. Elk nieuw product en service met gebruik van uw gegevens moet zorgvuldig worden beoordeeld in termen van privacy en onbedoelde gevolgen.”
De tech-industrie moet werken aan dit ter bescherming van de maatschappij, concludeerde hij.
“Die zijn zorgzame, creatieve en raad van … dat zijn de functies die we nodig hebben om te vullen,” zei hij.
“Intentionaliteit heeft verzorging nodig; inclusiviteit behoeften creativiteit; en we moeten om te leiden van de maatschappij door middel van de gevaren van de onbedoelde gevolgen.”
Openbaarmaking: Corinne Reichert reisde naar Telstra Vantage in Melbourne als gast van Telstra
Laatste Australische nieuws
De australische regering toezeggingen AU$50 miljoen voor cybersecurity centrum voor onderzoek
ASIC publiceert crowdsourced financiering regime begeleiding
Arbeid veroordeelt NBN installatie succes zit in 90 procent
NBN verdedigt haar netwerk, zegt weinig retail toepassingen moet meer dan 50 mbps
McDonald ‘ s start netwerk transformatie met Telstra
0