Wat is kunstmatige algemene intelligentie?

0
149

Nul

Wat is kunstmatige algemene intelligentie?

Een Kunstmatige Algemene Intelligentie (AGI) zou een machine die in staat is om de wereld te begrijpen als een mens, en met dezelfde capaciteit om te leren hoe te dragen uit een enorm scala van taken.

AGI niet bestaat, maar is te zien in science-fiction verhalen al meer dan een eeuw, en is populair geworden in de moderne tijd door films als 2001: A Space Odyssey.

Fictieve beelden van AGI variëren sterk, hoewel de neiging meer in de richting van de dystopische visie van intelligente machines of de uitroeiing van de mensheid tot slaaf maken, zoals te zien in films als The Matrix en The Terminator. In dergelijke verhalen, AGI wordt vaak gecast als ofwel onverschillig voor menselijk leed of zelfs gebogen over de vernietiging van de mensheid.

In contrast, de utopische fantasieën, zoals Iain M Banken’ Cultuur beschaving romans, gegoten AGI als welwillende bewaarders, waarop egalitaire samenlevingen vrij te zijn van lijden, waar de bewoners kunnen hun passies volgen en de technologie ontwikkelt zich in een adembenemend tempo.

Of deze ideeën zou dragen elke gelijkenis met de echte wereld AGI is onkenbaar omdat er niets van de soort heeft gemaakt, of, volgens veel werken op het gebied van AI, is zelfs in de buurt van wordt gemaakt.

Wat kan een kunstmatige algemene inlichtingen doen?

In theorie, een kunstmatige algemene inlichtingen kunnen uitvoeren van een taak kan een mens, en waarschijnlijk velen die een mens kon het niet. Het is op zijn minst een AGI zou kunnen combineren van human-like, flexibel denken en redeneren met rekenkundige voordelen, zoals in de buurt van instant recall en split-second aantal kraken.

Met behulp van deze intelligentie te controleren robots minstens zo behendig en mobiele als een persoon zou resulteren in een nieuw ras van machines dat zou het uitvoeren van een menselijke taak. De loop van de tijd deze intelligenties zou kunnen overnemen, elke rol die wordt uitgevoerd door mensen. In eerste instantie, mensen wellicht goedkoper dan machines, of mensen werken samen AI wellicht meer effectief zijn dan AI op hun eigen. Maar de komst van de AGI zou waarschijnlijk het renderen van de menselijke arbeid overbodig.

Effectief beëindigen van de behoefte aan menselijke arbeid zou hebben enorme sociale gevolgen, gevolgen, zowel aan de bevolking de mogelijkheid om zichzelf te voeden en de zin van het doel en de eigenwaarde van de werkgelegenheid kan brengen.

Zelfs vandaag de dag, het debat over de eventuele impact op de werkgelegenheid van de zeer verschillende, smalle AI die momenteel bestaan heeft geleid sommige oproep voor de invoering van een Universeel basisinkomen (UBI).

Onder UBI iedereen in de samenleving zou ontvangen van een regelmatige betaling van de overheid met no strings attached. De aanpak is onderscheidend, met een aantal advocaten met het argument dat het zou zorgen voor een universele veiligheidsnet en het verminderen van de bureaucratische kosten. Echter, sommige anti-armoede actievoerders hebben geproduceerd economische modellen tonen een dergelijke regeling kan verergeren deprivatie bij kwetsbare groepen als het vervangen van de bestaande stelsels van sociale zekerheid in Europa.

Afgezien van de effecten op de sociale cohesie, de komst van kunstmatige algemene inlichtingen kunnen ingrijpend zijn. De mogelijkheid gebruik te maken van een leger van intelligentie gelijk aan de beste en slimste mensen kunnen helpen bij het ontwikkelen van nieuwe technologieën en benaderingen voor het verzachten van hardnekkige problemen zoals de klimaatverandering. Op een meer alledaags niveau, deze systemen kunnen uitvoeren van dagelijkse taken, van chirurgie en medische diagnose tot het besturen van een auto, op een constant hoger niveau dan de mens-die in totaal kan een enorme positieve in termen van tijd, geld en levens gered.

Het nadeel is dat deze gecombineerde intelligentie kan ook een ingrijpend negatief effect: empowerment van toezicht op en controle van de bevolking, de verankering en de macht in de handen van een kleine groep van organisaties, die angstaanjagende wapens en het verwijderen van de noodzaak voor overheden om te kijken na de verouderde bevolking.

AI moet niet worden tegengehouden door de bangmakerij: Michael DellWat is AI? Alles wat u moet weten over Kunstmatige IntelligentieDeloitte: Deze tech trends zullen maken van de Symfonische EnterpriseSophia de robot is crowdfunding haar hersenen

Zou kunnen dat het een kunstmatige algemene inlichtingen-slimmer dan de mens?

Ja, niet alleen zou een dergelijke intelligentie hebben de zelfde mogelijkheden als een mens, zou worden versterkt door de voordelen die computers hebben over mensen vandaag de dag — de perfecte herinneren, en de mogelijkheid om berekeningen uit te voeren in de buurt direct.

Wanneer wordt er een kunstmatige algemene inlichtingen worden uitgevonden?

Het hangt af van wie je vragen, met antwoorden, variërend tussen binnen en met 11 jaar en nooit.

Een deel van de reden dat het zo moeilijk vast te pinnen is het ontbreken van een duidelijk pad naar AGI. Vandaag machine-learning systemen onderbouwing van de online diensten, zodat de computers te herkennen, taal, spraak kunnen verstaan, plek gezichten, en het beschrijven van foto ‘s en video’ s. Deze recente doorbraken en high-profile successen zoals AlphaGo de overheersing van de beruchte complex spel van Gaan, kan de indruk wekken de samenleving is op het snelle spoor naar de ontwikkeling van de AGI. Maar de systemen die momenteel in gebruik zijn over het algemeen vrij één opmerking, die uitblinken in een enkele taak, na een uitgebreide opleiding, maar nutteloos voor iets anders. Hun natuur is heel anders dan die van een algemene intelligentie die kunnen uitvoeren van een taak gevraagd, en als zodanig deze smalle AIs zijn niet noodzakelijkerwijs de stepping stones naar het ontwikkelen van een AGI.

De beperkte mogelijkheden van de huidige smalle AI kwam naar voren in een recent rapport, co-auteur van Yoav Soham van Stanford Artificial Intelligence Laboratory.

“Terwijl de machines kunnen vertonen stellaire prestaties op een bepaalde taak, kan dit de prestaties afnemen dramatisch als de taak wordt gewijzigd, zelfs een beetje,” staten.

“Bijvoorbeeld, een mens die kan lezen, Chinese tekens zou waarschijnlijk juist Chinese spraak, weet iets over de Chinese cultuur en zelfs het maken van goede aanbevelingen in de Chinese restaurants. In tegenstelling, zeer verschillende AI-systemen nodig zou zijn voor elk van deze taken.”

ZIE: het implementeren van AI en machine learning (ZDNet speciale rapport) | Download het rapport als PDF (TechRepublic)

Michael Woolridge, hoofd van het departement informatica van de Universiteit van Oxford, opgepikt op dit punt in het rapport benadrukt dat “noch ik, noch iemand anders weet hoe het meten van de vooruitgang” in de richting van de AGI.

Ondanks deze onzekerheid, er zijn een aantal zeer vocale voorstanders van de toekomst-AGI. Misschien wel de meest beroemde is Ray Kurzweil, Google ‘ s director of engineering, die voorspelt een AGI geschikt voor het doorgeven van de Turing Test zal bestaan door 2029 en dat door de 2040s betaalbare computers zal het uitvoeren van hetzelfde aantal berekeningen per seconde als de gecombineerde hersenen van het gehele menselijke ras.

Kurzweil supporters punt zijn succesvolle track record in het voorspellen van technologische vooruitgang, met Kurzweil schatten dat tegen het einde van 2009 net onder 80% van de voorspellingen die hij heeft gedaan in de jaren 1990 had uitkomen.

Kurzweil is het vertrouwen in de vooruitgang komt voort uit wat hij noemt de wet van de versnellende opbrengsten. In 2001 zei hij het exponentiële karakter van de technologische verandering, waarbij elke vooraf versnelt het beoordelen van de toekomstige doorbraken, betekent het menselijk ras zal de ervaring van het equivalent van 20.000 jaar van de technologische vooruitgang in de 21ste eeuw. Deze snelle veranderingen in gebieden zoals computer processing power en brain-mapping technologieën welke factoren Kurzweil is het vertrouwen in het nabij-toekomstige ontwikkeling van de hardware en software die nodig is voor de ondersteuning van een AGI.

Wat is superintelligentie?

Kurzweil is van mening dat zodra een AGI bestaat, zal verbeteren op zichzelf een exponentiële groei, snel evolueren tot het punt waar de intelligentie functioneert op een niveau ver boven het menselijk bevattingsvermogen te boven. Hij verwijst naar dit punt als de singulariteit, en zegt dat het zal optreden in 2045, in welk stadium een AI zal bestaan, dat is “een miljard keer sterker is dan alle menselijke intelligentie vandaag”.

Het idee van een nabije toekomst superintelligentie is gevraagd een aantal van ‘s werelds meest vooraanstaande wetenschappers en technologen om te waarschuwen voor de grote risico’ s van AGI. SpaceX en Tesla-oprichter Elon Musk oproepen AGI de “grootste existentiële dreiging” waarmee de mensheid en de beroemde natuurkundige en de Universiteit van Cambridge Professor Stephen Hawking vertelde de BBC: “de ontwikkeling van een volledig kunstmatige intelligentie zou kunnen betekenen het einde van het menselijke ras”.

Beiden waren de ondertekenaars van een open brief een beroep op de AI gemeenschap om deel te nemen in “een onderzoek naar hoe AI systemen robuust en gunstig”.

Nick Bostrom, filosoof en directeur van de Universiteit van Oxford de Toekomst van de Mensheid Instituut, heeft gewaarschuwd voor wat er zou kunnen gebeuren wanneer superintelligentie is bereikt.

Het beschrijven van superintelligentie als een bom te wachten tot ontploffing door onverantwoordelijke onderzoek, hij gelooft superintelligent agenten een bedreiging kan vormen voor de mens, die waarschijnlijk zou staan “in de weg”.

“Als de robot wordt krachtig genoeg,” zei Bostrom, “het zou kunnen grijpen controle te krijgen beloningen.”

Is het nog verstandig om te praten over AGI?

Het probleem met het bespreken van de effecten van de AGI en superintelligences is dat de meeste werken op het gebied van AI benadrukken dat AGI is momenteel fictie, en kan zo blijven voor een zeer lange tijd.

Chris Bisschop, laboratorium directeur bij Microsoft Research Cambridge, heeft gezegd discussies over kunstmatige algemene intelligenties opstaan “volslagen onzin”, toe te voegen “op zijn best, dergelijke discussies zijn decennia weg”.

Erger dan het voeren van deze gesprekken wordt zinloos bangmakerij, andere AI deskundigen zeggen, dat zij de aandacht van het nabij-toekomstige risico ‘ s die samenhangen met de huidige smalle AI.

Andrew Ng is een bekende figuur op het gebied van diep leren, eerder hebben gewerkt op een van de “Google Brain’ – project en diende als chief scientist voor de Chinese zoekgigant Baidu. Hij riep onlangs op die debatteren AI en ethiek “cut-out van de AGI-nonsense” en meer tijd besteden gericht op hoe de technologie van vandaag is, verergeren of zal verergeren van problemen, zoals “verlies van baan/stagnerende lonen, het ondermijnen van de democratie, discriminatie/vooroordelen, rijkdom en ongelijkheid”.

Ook aandacht voor de mogelijke upside van AGI kan schade aan de publieke perceptie van AI, tanken teleurstelling in de relatief beperkte mogelijkheden van bestaande machine-learning systemen en hun smalle, één opmerking vaardigheden — worden dat het vertalen van een tekst of het herkennen van gezichten.

Hoe zou u het creëren van een kunstmatige algemene intelligentie?

Demis Hassabis, de co-oprichter van Google DeepMind, betoogt dat de geheimen van de algemene kunstmatige intelligentie liggen in de natuur.

Hassabis en zijn collega ‘ s geloven dat het belangrijk is voor de AI-onderzoekers aan te gaan in “instellen van een onderzoekscommissie naar de innerlijke werking van de menselijke hersenen-de enige bestaande bewijs dat zo ‘n intelligentie is het zelfs mogelijk is”.

“Het bestuderen van dierlijke cognitie en de neurale uitvoering heeft ook een belangrijke rol te spelen, als het kan, geven een beeld van de verschillende belangrijke aspecten van het hoger-niveau van de algemene intelligentie,” schreven ze in een papieren van vorig jaar.

Zij stellen dat door dit te doen zal helpen inspireren new approaches to machine learning en nieuwe architecturen voor de neurale netwerken, de wiskundige modellen die machine learning mogelijk.

Hassabis en zijn collega ‘ s zeggen: “de belangrijkste ingrediënten van de menselijke intelligentie” ontbreken in de meeste AI-systemen, met inbegrip van hoe kinderen bouwen mentale modellen van de wereld die voorspellingen doen over wat er zou kunnen gebeuren en die hen in staat stellen om te plannen. Ook ontbreekt in de huidige AI-modellen is het menselijk vermogen om te leren uit slechts een handvol voorbeelden, om te generaliseren kennis geleerd in één exemplaar voor vele soortgelijke situaties, zoals een nieuwe driver te begrijpen hoe om meer dan alleen de auto die ze geleerd in.

“Nieuwe tools voor de beeldvorming van de hersenen en genetische biotechniek zijn begonnen met het bieden van een gedetailleerde karakterisering van de berekeningen die zich in neurale circuits, belooft een revolutie in ons begrip van zoogdieren functioneren van de hersenen”, aldus de krant, die zegt neurowetenschappen moet dienen als “roadmap voor de AI research agenda”.

Een ander perspectief komt van Yann LeCun, Facebook ‘ s chief AI wetenschapper, die een baanbrekende rol gespeeld in de machine-learning onderzoek door zijn werk op convolutional neurale netwerken.

Hij gelooft dat het pad in de richting van algemene AI ligt in het ontwikkelen van systemen die kunnen bouwen modellen van de wereld die ze kunnen gebruiken om toekomstige resultaten te voorspellen. Een goede route om dit doel te bereiken, zei hij in een toespraak vorig jaar, kan het gebruik van generatieve tegenspraak netwerken (GANs).

In een GAN, twee neurale netwerken strijd, de generator netwerk probeert te maken van het overtuigen “nep” gegevens en het discriminator-netwerk probeert te vertellen dat het verschil tussen de valse en de echte data. Met elke cyclus, de generator wordt beter in het produceren van valse gegevens en de discriminator krijgt een scherper oog voor het spotten van deze vervalsingen. Pitting de twee netwerken het tegen elkaar op tijdens de opleiding, beide kunnen bereiken van een betere prestatie. GANs zijn gebruikt voor de uitvoering van enkele bijzondere taken, zoals het draaien van deze dashcam video ‘ s van dag naar nacht of van winter naar zomer.

Democratische kunstmatige intelligentie zal de vorm van de technologieën van de toekomst: GartnerDeepLocker: Wanneer malware draait kunstmatige intelligentie in een wapenIEEE publiceert het ontwerp-rapport over ‘ethisch uitgelijnd’ AI ontwerpDe grootste bedreiging voor kunstmatige intelligentie: de Menselijke domheid

Zou een kunstmatige algemene inlichtingen-bewustzijn hebben?

Gezien de vele definities van bewustzijn, is dit een zeer lastige vraag om te beantwoorden.

Een beroemde gedachte-experiment door de filosoof John Searle laat zien hoe moeilijk het zou worden om te bepalen of een AGI was echt zelf-bewust.

Searle ‘ s Chinese Kamer suggereert een hypothetisch scenario waarin de filosoof wordt gepresenteerd met een geschreven query in een onbekende Chinese taal. Searle is zat alleen in een gesloten kamer en een afzonderlijke tekens van elk woord in de query worden geschoven onder de deur om. Ondanks het niet begrijpen van de taal, Searle is in staat om de instructies gegeven door een boek in de kamer voor het manipuleren van de symbolen en cijfers gevoed aan hem. Deze instructies stellen hem in staat om zijn eigen reeks van Chinese tekens die hij voedt terug onder de deur. Door het volgen van de instructies Searle is in staat om een passend antwoord en kwaliteiten van de persoon buiten de ruimte in het denken is er een native speaker in, ondanks Searle het niet begrijpen van de Chinese taal. Op deze manier Searle voerde het experiment toont een computer kan praten met mensen en lijkt te begrijpen van een taal, terwijl het hebben van geen werkelijke begrip van de betekenis.

Het experiment is gebruikt om de aanval van de Turing Test. Bedacht door de geniale wiskundige en vader van computing Alan Turing, de test wijst op een computer kan worden aangemerkt als een denkende machine als het zou dwaas zijn een derde van de mensen was aan het praten met geloven het was een mens.

ZIE: Sensor zou enterprise: IoT, ML, en big data (ZDNet speciale rapport) | Download het rapport als PDF (TechRepublic)

In een meer recente boek, Searle zegt dat dit de onzekerheid over de ware aard van een intelligente computer strekt tot het bewustzijn. In zijn boek de Taal en het Bewustzijn, zegt hij: “zoals het gedrag op zichzelf niet voldoende voor bewustzijn, computationele modellen van het bewustzijn zelf zijn niet voldoende voor bewustzijn” gaande om een voorbeeld te geven: “Niemand veronderstelt het rekenmodel van de regen in Londen laat ons nat”.

Searle maakt een onderscheid tussen sterke AI, waarbij de AI kan worden gezegd dat het een geest is, en zwakke AI, waarbij de AI is in plaats daarvan een overtuigend model van een geest.

Verschillende contrapunten zijn opgeworpen om de Chinese Kamer en Searle ‘ s conclusies, variërend van argumenten dat het experiment mischaracterizes de natuur van de geest, aan het negeren van het feit dat Searle is een onderdeel van een groter systeem, die, als geheel, begrijpt de Chinese taal.

Er is ook maar de vraag of het onderscheid tussen een simulatie van een geest en een echte mind zaken, met Stuart Russell en Peter Norvig, wie schreef het definitieve boek over kunstmatige intelligentie, met als argument de meeste AI-onderzoekers zijn meer gericht op het resultaat dan de intrinsieke aard van het systeem.

Kan het morele worden ontwikkeld in kunstmatige algemene intelligence-systemen?

Misschien, maar er zijn geen goede voorbeelden van hoe dit zou kunnen worden bereikt.

Russell schetst een duidelijk beeld van hoe een AI ‘ s ambivalentie ten opzichte van de menselijke moraal zou kunnen bederven.

“Stel je voor dat een binnenlandse robot. Het thuis verzorgen van de kinderen en de kinderen hebben hun diner en zijn nog steeds honger. Het ziet er in de koelkast en er niet veel meer te eten. De robot vraagt zich af wat te doen, dan ziet de kitty, kunt u zich voorstellen wat er zou gebeuren,” zei hij.

“Het is een misverstand van de menselijke waarden, het is niet te begrijpen dat de sentimentele waarde van een kat is veel groter dan de nutritionele waarde.”

Vjatsjeslav W. Polonski van het Oxford Internet Institute stelt dat voor een AGI kon worden geschonken moraal die mensen eerst te codificeren, precies wat moraal is.

“Een machine kan niet worden geleerd wat eerlijk is, tenzij de ingenieurs die met het ontwerpen van de AI-systeem een nauwkeurige opvatting van wat rechtvaardigheid is,” schrijft hij, gaat over de vraag hoe een machine kan worden geleerd om “via algoritmen te maximaliseren billijkheid” of te “overwinnen van ras en geslacht vooroordelen in de training data”.

Polonski de voorgestelde oplossing voor deze problemen is het expliciet definiëren van ethisch gedrag — het citeren van Duitsland de Ethische Commissie op Geautomatiseerde en Aangesloten Rijden aanbeveling dat de ontwerpers van zelf-rijdende auto ‘ s programma het systeem met ethische waarden die prioriteit geven aan de bescherming van het menselijk leven boven alles. Een ander mogelijk antwoord hij hoogtepunten is de opleiding van een machine-learning systeem over wat moreel gedrag is gebaseerd op vele verschillende menselijke voorbeelden. Een dergelijke archief van deze gegevens zou kunnen worden MIT de Morele Machine-Project, dat vraagt de deelnemers om te beoordelen of de ‘beste’ antwoord in moeilijke hypothetische situaties, zoals of het beter is om te doden van vijf personen in een auto of vijf voetgangers.

Natuurlijk, dergelijke benaderingen zijn beladen met potentieel voor een verkeerde interpretatie en onbedoelde gevolgen.

Het Hard coderen van moraliteit in de machines lijkt te immense een uitdaging, gezien de onmogelijkheid van het voorspellen van elke situatie een machine kon vinden zich in. Als een botsing onvermijdelijk is, moet een zelf-rijdende auto knock down iemand in hun zestiger jaren of een kind? Wat als dat kind had een terminale ziekte? Wat als de persoon in hun jaren zestig waren de enige verzorger van hun partner?

Het hebben van een machine leren wat is het morele gedrag van de menselijke voorbeelden is misschien wel een betere oplossing, zij het een die risico ‘ s codering in de machine dezelfde vooroordelen die bestaan in de bredere populatie.

Russell stelt intelligente systemen en robots kunnen toekomen begrip van menselijke waarden in de loop van de tijd, door hun gedeelde observatie van het menselijk gedrag, zowel vandaag als opgenomen in de geschiedenis. Russell stelt een methode die robots kunnen gebruiken om te winnen een dergelijke waardering van de menselijke waarden kunnen via inverse van reinforcement learning, een machine-learning techniek waarbij een systeem wordt getraind door wordt beloond voor het gewenste gedrag.

Optus en Curtin University partner voor kunstmatige intelligentie onderzoekHR en kunstmatige intelligentie?De ethische uitdagingen van de kunstmatige intelligentie van deAI voor het bedrijfsleven: Waarom kunstmatige intelligentie en machine learning is revolutionair

Hoe stoppen we een algemene AI van het breken van haar beperkingen?

Als onderdeel van haar missie te pakken existentiële risico ‘ s, de in de VS gebaseerde Toekomst van het Leven Instituut (FLI) heeft gefinancierd onderzoek in AGI veiligheid, in afwachting van AI staat van het veroorzaken van schade die wordt aangemaakt in de nabije toekomst.

“Als rechtvaardiging voor een bescheiden investering in dit AI robuustheid onderzoek, deze kans moet niet hoog zijn, alleen niet te verwaarlozen, net als een bescheiden investering in het huis van de verzekering wordt gerechtvaardigd door een niet te verwaarlozen kans dat het huis afbranden,” zei bij de lancering van zijn onderzoek wijst uit dat in de jaren 1930 een van de grootste natuurkundigen van de tijd, Ernest Rutherford, zei nucleaire energie “moonshine”, slechts vijf jaar vóór de ontdekking van kernsplijting.

Voor een AGI gedrag kan worden beperkt, de FLI betoogt, is het noodzakelijk te achterhalen precies wat het wel en niet moet doen.

“Om te bouwen van systemen die reageren zich goed gedragen, hebben we uiteraard nodig om te beslissen wat ‘goed gedrag’ betekent in elk domein. Het ontwerpen van vereenvoudigde regels, bijvoorbeeld door het bepalen van een zelf-rijdende auto ‘ s beslissingen in kritieke situaties — zal waarschijnlijk vereisen expertise van zowel ethici en computerwetenschappers,” zegt een onderzoek prioriteiten rapport, samengesteld door Stuart Russell en andere academici.

Het waarborgen van goed gedrag problematisch met sterke, algemene AI, de krant zegt, toe te voegen dat de samenleving snel te maken met grote uitdagingen in het uitlijnen van de waarden van de sterke AI systemen met hun eigen waarden en voorkeuren.

“Denk bijvoorbeeld eens aan de moeilijkheid van het creëren van een utility functie omvat een gehele lichaam, van de wet; zelfs een letterlijke weergave van de wet is tot ver buiten onze huidige vermogens, en het zou zeer onbevredigend in de praktijk,” staten.

ZIE: Hoe hebben we geleerd om te praten met computers, en hoe ze geleerd om te antwoord terug (cover story PDF)

Afwijkend gedrag in AGIs zal ook moeten worden aangepakt, de FLI zegt. Net zoals een vliegtuig aan boord van de software onderworpen aan strenge controles voor bugs die kan leiden tot onverwacht gedrag, dus de code die ten grondslag ligt aan AIs moet worden onderworpen aan een soortgelijke formele beperkingen.

Voor traditionele software zijn er projecten zoals seL4, die zich heeft ontwikkeld van een complete, algemene-doel van het besturingssysteem kernel dat is wiskundig gecontroleerd aan de hand van een formele specificatie te geven van een sterke garantie tegen ongevallen en onveilige bewerkingen.

Echter, in het geval van AI, nieuwe benaderingen van controle kan nodig zijn, afhankelijk van het FLI.

“Misschien wel de meest in het oog springende verschil tussen verificatie van traditionele software en de verificatie van de AI-systemen is dat de juistheid van traditionele software is gedefinieerd met betrekking tot een vast en bekend machine model, terwijl AI-systemen, in het bijzonder van robots en andere belichaamde systemen — werken in een omgeving die in het beste gedeeltelijk bekend door het systeem ontwerper.

“In deze gevallen kan het handig zijn om te controleren of het systeem handelingen correct gezien de kennis die het heeft, het vermijden van het probleem van het modelleren van de echte wereld,” het onderzoek staten.

De FLI suggereert dat het mogelijk moet zijn om te bouwen AI systemen van onderdelen, die elk heeft zijn geverifieerd.

Waar de risico ‘ s van een slecht werkende AGI zijn bijzonder hoog is, suggereert deze systemen kunnen worden geïsoleerd van de rest van de wereld.

“Zeer algemeen en in staat systemen zal vormen onderscheidend security problemen. In het bijzonder, als de problemen van geldigheid en de controle niet zijn opgelost, kan het nuttig zijn om het maken van ‘containers’ voor AI systemen die kon hebben van ongewenst gedrag en de gevolgen in minder gecontroleerde omgevingen,” staten.

De moeilijkheid is dat mensen de hand te kunnen houden van een algemene AI is niet eenvoudig.

Bijvoorbeeld, een systeem waarschijnlijk zijn best doen om de route rond de problemen die voorkomen dat het invullen van de gewenste taak.

“Dit kan problematisch worden, maar als we het willen hergebruiken van het systeem, te deactiveren, of om een significante verandering van de besluitvorming; een dergelijk systeem zou rationeel te voorkomen dat deze veranderingen,” het onderzoek wijst uit.

De FLI raden meer onderzoek naar corrigible systemen die dit gedrag vertonen.

“Het is mogelijk om het ontwerp van functies van het hulpprogramma of beslissing van de processen, zodat een systeem niet zal proberen om niet te worden afgesloten of andere bestemming krijgen”, aldus het onderzoek.

Een ander potentieel probleem kunnen voortvloeien uit een AI-een negatieve invloed op zijn omgeving, in het nastreven van haar doelen, leidt de FLI te raden meer onderzoek naar de instelling van de “eigen” doelen die zijn beperkt in omvang.

Daarnaast beveelt zij aan meer werk moet worden verricht naar de waarschijnlijkheid en de aard van een “intelligentie-explosie” onder AI-waar de mogelijkheden van zelf-verbetering van de AI vooraf tot ver buiten de mens het vermogen om ze te besturen.

De IEEE heeft zijn eigen aanbevelingen voor het bouwen van veilige AGI-systemen, die in grote lijnen echo die van de FLI onderzoek. Deze zijn onder andere dat de AGI-systemen moeten transparant zijn en hun redenering begrepen wordt door de menselijke operators, die “veilige” omgeving zouden moeten worden ontwikkeld, waarin AI-systemen kunnen worden ontwikkeld en getest, dat er systemen moeten worden ontwikkeld om netjes te falen in het geval van knoeien of vastloopt en dat dergelijke systemen niet moeten verzetten tegen het afsluiten van operatoren.

Vandaag de vraag hoe de ontwikkeling van AI op een manier die gunstig zijn voor de samenleving als geheel is het onderwerp van lopend onderzoek door de non-profit organisatie OpenAI.

De FLI onderzoek speculeert dat de juiste ‘checks and balances’ een algemene AI zou kunnen veranderen samenlevingen voor het beter: “Succes in de zoektocht naar kunstmatige intelligentie heeft het potentieel tot ongekende voordelen voor de mensheid, en het is daarom de moeite waard om te onderzoeken hoe het maximaliseren van deze voordelen, terwijl het vermijden van de valkuilen.”

MEER GIDSEN AAN AI EN GERELATEERDE TECHNOLOGIEËN

Wat is diep leren? Alles wat je moet weten

De lowdown op diep leren: van hoe het zich verhoudt tot het bredere veld van machine-leren door te zien hoe aan de slag met het.

AI op de werkplek: Alles wat je moet weten

Hoe kunstmatige intelligentie zal veranderen in de wereld van werk, voor een beter en slechter.

Wat is machine learning? Alles wat je moet weten

In deze gids wordt uitgelegd wat ‘machine learning’ is, hoe het is in verband met kunstmatige intelligentie, hoe het werkt en waarom het belangrijk is.

Wat is AI? Alles wat u moet weten over Kunstmatige Intelligentie

Een executive gids voor kunstmatige intelligentie, van machine learning en algemene AI-neurale netwerken.

Verwante Onderwerpen:

Google

Digitale Transformatie

CXO

Het Internet van Dingen

Innovatie

Enterprise Software

0