Nul
Met de lancering van de Pixel 2 en Pixel 2 XL-telefoons, Google op woensdag tentoongesteld slechts één manier is het maken van kunstmatige intelligentie een belangrijk onderdeel van haar producten en diensten. Google sinds 2016 heeft gevolgd een “AI first’ – strategie, wedden dat intelligentie zal uit veel meer dan apparaten.
Met deze mate van aandacht en investering in de AI, Google ‘ s moederbedrijf Alfabet heeft veel stimulans om te voorkomen dat de weerslag die kan komen van het AI-implementaties mis gegaan.
Net een dag eerder, DeepMind — Alfabet de kunstmatige intelligentie van de divisie — gelanceerd DeepMind Ethiek & Maatschappij, een onderzoekseenheid binnen het bedrijf met de intentie “om te ontdekken en beter te begrijpen de werkelijke impact van AI.”
“Technologie is niet waarde-neutraal is, en technologen verantwoordelijkheid moeten nemen voor de sociale en ethische impact van hun werk,” DeepMind zei in een blog, geschreven door Verity Harding en Sean Legassick, de “co-leads” van de nieuwe research unit. “Op DeepMind, we gaan uit van de veronderstelling dat alle AI-toepassingen moet blijven onder betekenisvolle menselijke controle, en kan worden gebruikt voor het maatschappelijk belang doeleinden.”
De nieuwe groep is van plan om het publiceren van origineel onderzoek, op haar eigen en in samenwerking met anderen. Zijn werk zal geleid worden door “de belangrijkste onderzoeksthema ‘s” zoals “economische gevolgen” en “AI moraal en waarden.” De groep beoogt ook te volgen vijf basisprincipes: Dat AI moet een sociaal voordeel, dat het onderzoek moet worden strenge en evidence-based, de groep moet transparant zijn, haar werk moeten interdisciplinair zijn en voorzien van diverse standpunten en moet worden op samenwerking en integratie.
“Ons onderzoek zal online beschikbaar zijn en een bijdrage leveren aan de evidence-base voor een zinvolle discussie over de echte gevolgen van de AI,” de groep staat op de FAQ pagina.
De research unit van de beginselen zijn ontwikkeld met input van onafhankelijke “werkende leden”, die onder meer academici als Nick Bostrom, directeur en oprichter van de Universiteit van Oxford de Toekomst van de Mensheid Instituut.
Dit laatste inspanning voor het verkennen van de ethische implicaties van AI volgt de lancering van een aantal andere initiatieven, sommige meer onafhankelijk te zijn dan anderen. Vorig jaar, in feite, Google en DeepMind toegetreden tot Amazon, Facebook, IBM en Microsoft om een not-for-profit organisatie gericht op het bouwen van AI best practices en publiceren van onderzoek onder een open licentie in gebieden zoals ethiek, rechtvaardigheid en inclusie. Bovendien, de Carnegie Mellon vorig jaar kondigde de oprichting van een nieuw onderzoekscentrum, gericht op de ethiek van kunstmatige intelligentie; de universiteit heeft banden met Google, evenals andere profit-technologie van bedrijven zoals Uber.
Terwijl DeepMind zegt de research unit streeft naar transparantie, heeft het bedrijf onder vuur komen te kort voor sommige ondoorzichtig gedrag-een overheidsinstelling in de UK afgelopen zomer oordeelde dat het Londense Royal Free ziekenhuis niet voldoet aan de Wet Bescherming persoonsgegevens als het gaf DeepMind toegang tot persoonlijke gegevens van 1,6 miljoen patiënten. DeepMind de toegang tot de gegevens alleen kwam aan het licht na een Nieuwe Wetenschapper rapport in 2016.
Een probleemoplossende aanpak die de werknemers moeten leren van robotica ingenieurs
Soms is de meest ingrijpende oplossing is het veranderen van het hele probleem.
Lees Meer
0