Het National Institute of Standards and Technology (NIST) – onderdeel van het Amerikaanse ministerie van Handel – vraagt het publiek om input over een AI-risicobeheerraamwerk, dat de organisatie aan het ontwikkelen is als een manier om “de risico's van kunstmatige intelligentie.”
Het Artificial Intelligence Risk Management Framework (AI RMF) zal een vrijwillig document zijn dat door ontwikkelaars, beoordelaars en anderen kan worden gebruikt als een manier om “de betrouwbaarheid van AI-systemen te verbeteren .”
NIST merkte op dat het verzoek om input komt nadat het Congres en het Witte Huis de organisatie hadden gevraagd een raamwerk voor AI te creëren.
Deputy Commerce Secretary Don Graves zei in een verklaring dat het document “een cruciaal verschil zou kunnen maken in of nieuwe AI-technologieën concurrerend zijn op de markt.”
“Elke dag wordt het duidelijker dat kunstmatige intelligentie ons een breed scala aan innovaties en nieuwe mogelijkheden biedt die onze economie, veiligheid en kwaliteit van leven kunnen bevorderen. Het is van cruciaal belang dat we bewust en uitgerust zijn om de risico's die AI-technologieën met zich meebrengen te beheren met hun voordelen,” zei Graves.
“Dit AI Risk Management Framework zal ontwerpers, ontwikkelaars en gebruikers van AI helpen om met al deze factoren rekening te houden — en daardoor de Amerikaanse capaciteiten in een zeer competitieve wereldwijde AI-markt te verbeteren.”
< p>Er is een toenemende vraag naar een of andere vorm van regulering rond het gebruik van AI in alle sectoren, vooral nu het in een aantal kritieke, gevoelige processen begint te worden opgenomen. Studies hebben aangetoond dat honderden AI-systemen verstoken zijn van vooroordelen die niet zijn aangepakt door hun makers.
Een verzekeringsmaatschappij, Lemonade Insurance, kreeg in mei veel kritiek te verduren omdat ze aankondigden dat hun AI-systeem zou beoordelen of iemand loog over een auto-ongeluk op basis van een video die na het incident werd ingediend.
Er is al een langdurige beweging om een einde te maken aan het gebruik van AI in gezichtsherkenningssoftware die wordt gebruikt door openbare en particuliere instellingen.
Elham Tabassi van NIST, federale coördinator voor AI-normen en lid van de National AI Research Resource Task Force, legde uit dat AI een betrouwbare technologie moet zijn om zijn volledige potentieel te bereiken als een voordeel voor de samenleving.
“Hoewel het misschien onmogelijk is om de risico's die inherent zijn aan AI te elimineren, ontwikkelen we dit begeleidingskader door middel van een op consensus gebaseerd, samenwerkingsproces waarvan we hopen dat het de brede acceptatie ervan zal aanmoedigen, waardoor deze risico's worden geminimaliseerd,” zei Tabassi.
NIST merkte op dat de ontwikkeling en het gebruik van nieuwe op AI gebaseerde technologieën, producten en diensten “technische en maatschappelijke uitdagingen en risico's” met zich meebrengen.
“NIST vraagt om input om te begrijpen hoe organisaties en individuen die betrokken zijn bij het ontwikkelen en gebruiken AI-systemen kunnen mogelijk de volledige reikwijdte van AI-risico's aanpakken en hoe een raamwerk voor het beheer van deze risico's kan worden geconstrueerd”, aldus NIST in een verklaring.
NIST is specifiek op zoek naar informatie over de grootste uitdagingen waarmee ontwikkelaars worden geconfronteerd bij het verbeteren van het beheer van AI-gerelateerde risico's. NIST is ook geïnteresseerd in het begrijpen hoe organisaties momenteel kenmerken van AI-betrouwbaarheid definiëren en beheren. De organisatie is ook op zoek naar input over de mate waarin AI-risico's zijn geïntegreerd in het overkoepelende risicobeheer van organisaties, met name rond cybersecurity, privacy en veiligheid.
NIST verwacht reacties tegen 19 augustus en ze zijn van plan om in september een workshop te houden waar experts kunnen helpen bij het maken van de opzet voor het eerste concept.
Zodra het eerste concept is vrijgegeven, zal NIST blijven werken erop en kan terugkomen voor meer openbare opmerkingen.
Lynne Parker, directeur van het National AI Initiative Office in het White House Office of Science and Technology Policy, zei dat het AI Risk Management Framework “zal voorzien in een grote behoefte bij het bevorderen van betrouwbare benaderingen van AI om alle mensen te dienen op verantwoorde, billijke en voordelige manieren.”
“AI-onderzoekers en -ontwikkelaars moeten en willen risico's overwegen voor, tijdens en na de ontwikkeling van AI-technologieën, en dit kader zal hun inspanningen informeren en begeleiden”, voegde Parker eraan toe.
Als u reacties wilt indienen bij de RFI, downloadt u het sjabloonreactieformulier en e-mailt u dit naar AIframework@nist.gov.
zie ook
Kunstmatige intelligentie in de echte wereld: wat kan het eigenlijk doen?
Wat zijn de grenzen van AI? En hoe ga je van het beheren van datapunten naar het injecteren van AI in de onderneming?
Lees meer
Verwante onderwerpen:
Overheid – US Digital Transformatie CXO Internet of Things Innovatie Enterprise Software