Sydney-baserade finansiella tjänster licenstagaren Lime FS har gått med på att frivilligt lägga ner två av sina robo-rådgivning-verktyg efter farhågor som de Australiska Värdepapper och Investeringar Kommissionen (ASIC).
Robo-rådgivning-verktyg som ägs av Lime FS-Gott Rikedom och Lime Rikedom-är auktoriserade att tillhandahålla automatiserade personlig finansiell rådgivning till konsumenter om livförsäkring, budgetering, skatter, investeringar, och pensionsrätter. Båda verktygen använder algoritmer och teknik, utan direkt inblandning av en mänsklig rådgivare.
Men, ASIC sade efter att ha granskat ett urval råd fil från Många Rikedom och Lime Rikedom, kvaliteten på de råd som genereras av automatiserade online-verktyg var “otillräcklig”. I vissa fall, de råd som genereras av verktyg konflikt med klientens mål eller andra rekommendationer som också genereras av verktyg.
“Digital rådgivning verktyg erbjuder ett bekvämt och billigt alternativ till konsumenter som annars kanske inte söker personlig finansiell rådgivning. Men de råd som ges genom dessa verktyg måste uppfylla samma rättsliga förpliktelser som krävs av mänskliga rådgivare — råden måste vara lämpliga för kunden och följa med det bästa plikt,” ASIC-kommissionär Danielle Tryck varnade.
ASIC sa att det var också berörs av Lime FS förmåga att följa de råd som genererats från dessa verktyg.
“ASIC förväntar sig AFS licenstagare och finansiella rådgivare att använda eller rekommendera digital rådgivning verktyg för att se till att de på lämpligt sätt övervaka och testa råd för kvalitet och lämplighet,” Tryck på sa.
Se även: Artificiell intelligens etikpolicy (TechRepublic)
Det är sådana fall som dessa som har utlöst gillar i Commonwealth Scientific and Industrial Research Organisation (CSIRO) till att ringa för utveckling av artificiell intelligens (AI) med en tillräcklig ram för att se till att ingenting ligger på medborgarna utan lämpliga etiska övervägande.
Data61, CSIRO: s digitala innovationer arm, publicerade ett diskussionsunderlag i April på viktiga frågor som väckts av storskaliga AI, söker svar på en handfull frågor som förväntas informera regeringens strategi för att AI etik i Australien.
Att medge att det finns ingen one-size-fits all-lösning till området för rättsliga och etiska konsekvenserna frågor i anknytning till AI, CSIRO identifierat nio verktyg som man säger skulle kunna användas för att bedöma risk och säkerställa efterlevnad och tillsyn.
Dessa var konsekvensbedömningar, recensioner, riskbedömningar, riktlinjer för bästa praxis, industristandarder, samarbete, uppföljning och förbättring mekanismer, anlita mekanismer, och samråd.
Australian National University nyligen inlett ett forskningsprojekt som fokuserar på att designa Australiensiska värderingar i AI-system.
Den humanising maskin intelligens (HMI) projektet kommer att se 17 core-forskare medverkar i uppbyggnaden av en design ramen för moraliska maskin intelligens (MMI) som kan vara spridda.
Prefekt vid institutionen för Filosofi vid ANU Seth Lazar tidigare berättat ZDNet behovet av att utveckla moraliska AI som kommer från baksidan av den senaste tidens oro om befintliga AI-system.
“Det som triggar min oro om AI är det [är] så många sätt som vi kan använda AI för socialt bra, men under det senaste året eller två har det blivit uppenbart att det finns potentiellt en hel del oönskade konsekvenser där AI potentiellt skulle kunna göras för dåliga skäl”, sade han. “Så det är stor efterfrågan och intresse för att utveckla AI med moraliska värderingar.”
Relaterade Täckning
AI och etik: Den debatt som måste vara hadAdvice för teknologer på att främja AI ethicsBoeing att utveckla AI-system med Försvar är självständig forskning centreSpending på AI-system som till överspänningsskydd och konsulter kommer att trivas
Relaterade Ämnen:
Artificiell Intelligens
CXO
Digital Omvandling
Tech-Industrin
Smarta Städer
Cloud