'Zijn we bereid de stekker eruit te trekken?' Technische projecten worden onder de loep genomen naarmate de bezorgdheid over digitale ethiek toeneemt

0
116

Daphne Leprince-Ringuet

Door Daphne Leprince-Ringuet | 6 oktober 2021 | Onderwerp: Kunstmatige Intelligentie

shutterstock-129038348.jpg

In plaats van ethiek rechtstreeks in het product te integreren om toekomstige schade te voorkomen, hebben bedrijven nog steeds de neiging om te wachten tot er een crisis is voordat ze het goedmaken.

Afbeelding: Shutterstock/Kostenko Maxim

Het concept van ethische technologie leek altijd beter geschikt voor theoretische gesprekken in vergaderruimten, maar het wordt nu een tastbare – en financiële – prioriteit voor bedrijven die digitale tools ontwikkelen.

Volgens tech-analist Gartner zullen de wereldwijde privacygedreven uitgaven voor gegevensbescherming en compliance-technologie in 2024 in feite meer dan $ 15 miljard per jaar bedragen, aangezien digitale ethiek steeds belangrijker wordt.

Privacybewuste organisaties zullen investeren in nieuwe technologieën die algoritmische schade beter kunnen voorkomen, zegt Gartner, variërend van homomorfe encryptie, die algoritmische berekeningen op versleutelde data mogelijk maakt, tot soevereine cloud- en synthetische data.

Dit wordt gedreven door de snelle ontwikkeling van kunstmatige intelligentie-tools, die onbedoelde gevolgen kunnen hebben van een veel grotere schaal dan eerdere technologieën, aldus Gartner-analist Bart Willemsen. Of het nu gaat om het schrijven van teksten, het besturen van een auto of het assisteren bij strafrechtelijke veroordelingen, AI-tools hebben een zekere mate van autonomie, wat betekent dat als er iets misgaat, het ook ernstig misgaat.

“Het autonome karakter van AI, de schaal waarop AI impact kan hebben, de snelheid waarmee het impact kan hebben, zorgt ervoor dat er eerder nagedacht moet worden over onbedoelde en ongewenste gevolgen”, vertelt Willemsen. ZDNet.

De ethische discussie over de mogelijke onvoorziene gevolgen van een AI-tool vindt in toenemende mate plaats voor en tijdens de implementatie van een technologie, in plaats van erna, zegt Gartner.

Hoewel deze strategie langzaam in opkomst is, bereikt deze de meeste bedrijven nog lang niet. Op dit moment hebben bedrijven de neiging om, in plaats van ethiek rechtstreeks in het product te integreren om toekomstige schade te voorkomen, nog steeds te wachten tot er een crisis is voordat ze het goedmaken.

In 2018 moest Amazon bijvoorbeeld een geautomatiseerde wervingstool schrappen nadat openbaar was gemaakt dat de technologie vrouwen discrimineerde. Een jaar later werd Goldman Sachs geconfronteerd met een onderzoek naar beweringen dat het kredietalgoritme van het bedrijf genderspecifiek was. En zelfs regeringen moesten terughoudend zijn met het gebruik van AI: het Britse ministerie van Onderwijs heeft bijvoorbeeld onlangs een algoritme ingetrokken dat cijfers toekent aan studenten nadat bleek dat het de voorkeur gaf aan kinderen van rijkere scholen.

“Daarom verschuift de ethische vraag naar: moeten we dit überhaupt gebruiken? Zo ja, in welke mate? En dan is er nog een vraag die tot een paar jaar geleden nauwelijks werd gesteld: zijn we bereid de stekker eruit te trekken?” zegt Willemsen.

In sommige landen evolueren wetten om bedrijven ertoe aan te zetten zichzelf die vragen te stellen voordat ze AI-tools hebben ontwikkeld, in plaats van erna. Maar zelfs dan volgen juridische processen een bekend reactief patroon.

Willemsen wijst op de nieuwste ontwerpverordeningen van de EU over AI, die bepalingen bevatten zoals het verbieden van het gebruik van AI om individuen sociaal te scoren – een poging om een ​​herhaling van het Chinese sociale kredietsysteem te voorkomen, zegt de analist – of het verbieden van AI-tools die invloed kunnen hebben op het gedrag of de mening van een persoon.

“Voor mij zegt dat alleen maar: 'We hebben Cambridge Analytica gezien, dat willen we heel graag niet nog een keer laten gebeuren', zegt Willemsen. “Het is een reactie. We weten allemaal waar dat vandaan komt.”

Gartner verwacht dat tegen het einde van 2023 meer dan 80% van de bedrijven wereldwijd te maken zal hebben met ten minste één privacygerichte verordening voor gegevensbescherming – en wetten zullen nog steeds een grote rol spelen bij het inperken van schadelijke algoritmen. Maar om ervoor te zorgen dat AI-tools geen nieuwe schade aanrichten, zullen bedrijven een stap verder moeten gaan dan wetten die bedoeld zijn om te voorkomen wat er in het verleden al is gebeurd.

Willemsen voorziet drie verschillende benaderingen van digitale ethiek. Sommige bedrijven zullen gewoon investeren om er zeker van te zijn dat ze zich aan de regels houden; terwijl iets meer proactieve bedrijven gaan nadenken over risicobeperking.

“Stel dat je op een open weg rijdt en je ziet een bord dat je niet harder dan 55 mijl per uur mag rijden”, zegt Willemsen. “Compliance-ethiek betekent de cruisecontrol op 54 zetten en je ogen sluiten. Risico's verkleinen betekent continu door de voorruit kijken, want als 3.000 mensen voor je volledig tot stilstand komen in een file, moet je op de rem trappen.”

In beide gevallen is de aanpak echter reactief. Het implementeren van echte digitale ethiek vereist nog een andere strategie, zegt Willemsen: verder denken dan compliance, proberen ethische principes vanaf het begin van het ontwikkelingsproces voor een AI-technologie door te voeren en waarde te genereren door middel van die principes. Gartner is optimistisch dat dit de benadering is die geleidelijk mainstream wordt.

Of bedrijven die digitale ethiek implementeren, worden gedreven door een oprecht verlangen om technologie voorgoed te maken, of door de noodzaak om publieke en juridische terugslag te vermijden, valt natuurlijk nog te bezien. Met de onbedoelde gevolgen van de technologie die ernstiger van aard is, is er ook veel meer publieke verontwaardiging wanneer algoritmen schade aanrichten – en het veroorzaken van dergelijke verontwaardiging is in geen enkel bedrijf.

“Je wordt of nog steeds gedreven door je winsten en verliezen, of door een humanistisch perspectief”, zegt Willemsen. “Het hangt van de organisatie af. Maar voor zover ik zie, blijft groei in de meeste gevallen de doorslaggevende factor.”

In beide gevallen blijft het resultaat hetzelfde: bedrijven stappen over van reactieve compliance naar proactieve privacy by design. Een optimistische voorspelling die enorme maatschappelijke voordelen kan opleveren.

Privacy

Hoe u van privacy de 'killer-app' van uw bedrijf maakt Persoonlijk identificeerbare informatie (PII): wat het is, hoe het wordt gebruikt en hoe u het beschermt Gegevensprivacy en gegevensbeveiliging is niet hetzelfde Cyberbeveiliging 101: bescherm uw privacy tegen hackers, spionnen en de overheid

gerelateerde onderwerpen:

gegevensbeheer Digitale transformatie CXO Internet of Things Innovatie Enterprise Software Daphne Leprince-Ringuet

Door Daphne Leprince-Ringuet | 6 oktober 2021 | Onderwerp: Kunstmatige Intelligentie