Bild: Shutterstock/Kostenko Maxim
Begreppet etisk teknik har alltid verkat bättre lämpad för teoretiska samtal i konferensrum, men det är nu på väg att bli en konkret – och ekonomisk – prioritet för företag som utvecklar digitala verktyg.
Enligt teknikanalytiker Gartner kommer de globala integritetsdrivna utgifterna för dataskydd och efterlevnadsteknik år 2024 att överstiga 15 miljarder dollar årligen, eftersom digital etik blir alltmer topp i sinnet.
Sekretessmedvetna organisationer kommer att investera i ny teknik som bättre förhindrar algoritmiska skador, säger Gartner, allt från homomorf kryptering, som möjliggör algoritmisk beräkning av krypterad data, till suveränt moln och syntetiska data.
Detta drivs av den snabba utvecklingen av verktyg för artificiell intelligens, som kan få oavsiktliga konsekvenser av en mycket större skala än tidigare teknik, enligt Gartner -analytikern Bart Willemsen. Oavsett om det är att skriva texter, köra bil eller hjälpa till med brottmål, AI -verktyg har en viss grad av autonomi, vilket betyder att när saker går fel blir de allvarligt fel.
“AI: s autonoma karaktär, skalan i vilken AI kan påverka, den hastighet som den kan påverka gör att odesignade och oönskade konsekvenser måste tänkas på tidigare”, säger Willemsen ZDNet.
Den etiska diskussionen om de potentiella oförutsedda konsekvenserna av ett AI -verktyg kommer alltmer att äga rum före och under en tekniks implementering, snarare än efter, säger Gartner.
Även om denna strategi långsamt växer fram, är den dock fortfarande långt ifrån att nå majoriteten av företagen. För tillfället tenderar företag att vänta tills det uppstår en kris innan de gör ändringar istället för att skapa etik direkt i produkten för att undvika framtida skador.
År 2018 var Amazon till exempel tvungen att skrota ett automatiserat anställningsverktyg efter att det offentliggjorts att tekniken hade visat sig diskriminera kvinnor. Ett år senare stod Goldman Sachs inför en undersökning av påståenden om att företagets kreditalgoritm var könsbestämd. Och även regeringar har varit tvungna att gå tillbaka till användningen av AI: Storbritanniens avdelning för utbildning, till exempel, drog nyligen tillbaka en algoritm som tilldelade elevernas betyg efter att det visade sig att det gynnade barn från rikare skolor.
“Det är därför den etiska frågan övergår till: Ska vi ens använda det här? Om ja, i vilken utsträckning? Och så finns det en fråga som knappast ställdes förrän för några år sedan: Är vi villiga att dra i kontakten?” säger Willemsen.
I vissa länder utvecklas lagar för att få företag att ställa sig dessa frågor innan, snarare än efter, efter att ha utvecklat AI -verktyg. Men även då följer juridiska processer ett välbekant reaktivt mönster.
Willemsen pekar på EU: s senaste utkast till föreskrifter om AI, som innehåller bestämmelser som att förbjuda användningen av AI för att socialt betygsätta individer – ett försök att undvika en replikering av det kinesiska sociala kreditsystemet, säger analytikern – eller förbjuda AI -verktyg som kan påverka en individs beteende eller åsikt.
“För mig säger det bara:” Vi har sett Cambridge Analytica, vi skulle mycket gärna vilja att det inte skulle hända igen “, säger Willemsen. “Det är en reaktion. Vi vet alla var det kommer ifrån.”
Gartner räknar med att mer än 80% av företagen världen över kommer att möta åtminstone en sekretessfokuserad dataskyddsförordning i slutet av 2023-och lagar kommer fortfarande att spela en stor roll när det gäller att ta itu med skadliga algoritmer. Men för att se till att AI -verktyg inte medför nya skador måste företagen gå ett steg längre än lagar som är utformade för att förhindra det som redan har hänt tidigare.
Willemsen förutser tre olika tillvägagångssätt för digital etik. Vissa företag investerar helt enkelt för att se till att de följer reglerna. medan lite mer proaktiva företag kommer att börja tänka på riskreducering.
“Säg att du kör på en öppen väg och du ser en skylt som säger att du inte bör överstiga 55 miles per timme”, säger Willemsen. “Efterlevnadsetik innebär att sätta farthållaren på 54 och stänga ögonen. Minskande risk innebär att man ständigt tittar genom vindrutan, för om 3000 personer framför dig kommer till ett stopp i en trafikstockning, slår du på bromsarna.”
I båda fallen är tillvägagångssättet dock reaktivt. Att implementera sann digital etik kommer att kräva ännu en strategi, säger Willemsen: att tänka bortom efterlevnad, försöka införa etiska principer från början av utvecklingsprocessen för en AI -teknik och generera värde genom dessa principer. Gartner är optimistisk om att detta är den strategi som gradvis blir mainstream.
Givetvis återstår att se om företag som implementerar digital etik drivs av en sann önskan att göra teknik för gott, eller av behovet av att undvika offentliga och juridiska motreaktioner. Med de oavsiktliga konsekvenserna av att tekniken är mer allvarlig till sin natur, finns det också mycket starkare allmänhetskramp när algoritmer orsakar skada – och att orsaka sådant uppror är i inget företags intresse.
“Du drivs antingen fortfarande av dina vinster och förluster eller av ett humanistiskt perspektiv”, säger Willemsen. “Det beror på organisationen. Men vad jag ser är den avgörande faktorn i de flesta fall tillväxten.”
I båda fallen förblir resultatet detsamma: företag går bort från reaktiv efterlevnad mot proaktiv integritet genom design. En optimistisk prognos som kan komma med enorma samhällsnyttor.
Sekretess
Så gör du sekretess till ditt företags “mördarapp” Personligt identifierbar information (PII): Vad det är, hur det används och hur det skyddas Dataskydd och dataskydd datasäkerhet är inte samma Cybersäkerhet 101: Skydda din integritet från hackare, spioner och regeringen
Relaterade ämnen:
Datahantering Digital Transformation CXO Internet of Things Innovation Enterprise Software