Waarom AI nog steeds mensen nodig heeft, althans voorlopig

0
118

Mary Branscombe

Door Mary Branscombe voor 500 woorden in de toekomst | 2 november 2021 | Onderwerp: Kunstmatige Intelligentie

AI en machine learning: waar zijn de checks and balances? Nu bekijken

Grote taalmodellen kunnen u helpen bij het schrijven van code — of bij het herschrijven van advertenties, zodat ze er fris uitzien. Ze kunnen het gemakkelijker maken om snel de belangrijkste punten van een onderzoekspaper of een nieuwsbericht te begrijpen door vragen te schrijven en te beantwoorden. Of ze kunnen dingen beschamend verkeerd zien.

Grote taalmodellen zoals GPT-3 zijn essentieel voor zoekmachines zoals Google en Bing, evenals het bieden van voorgestelde antwoorden in e-mail en chat, proberen je zin af te maken in Word en coderingsassistenten zoals GitHub Copilot aan te sturen.

Maar ze zijn ook niet perfect. Overwegingen over de schade die ze kunnen aanrichten, richten zich meestal op wat je krijgt door te leren van alles wat op internet is gepubliceerd, inclusief de minder positieve meningen van sommigen. Grote taalmodellen die zijn getraind op enorme tekstbronnen, zoals een online community, kunnen uiteindelijk nogal beledigende opmerkingen herhalen. En wanneer het model leert van schrijven met veelvoorkomende vooroordelen in, zoals een reeks interviews waarin mannen met hun titels en vrouwen met hun voornaam worden genoemd of ervan uitgaande dat mannen artsen en vrouwelijke verpleegsters zijn, zullen die vooroordelen waarschijnlijk naar voren komen in wat de model schrijft.

Zie ook: Facebook: hier komt de AI van de Metaverse.

De mogelijke nadelen bij het genereren van code zijn onder meer dat de code verkeerd is maar er goed uitziet; het is nog steeds aan de codeur om de AI-aangedreven suggesties te beoordelen en ervoor te zorgen dat ze begrijpen wat ze doen, maar niet iedereen zal dat doen.

Die beoordelingsfase 'mens in de lus' is belangrijk voor de verantwoordelijke gebruik van grote taalmodellen omdat het een manier is om een ​​probleem op te lossen voordat de tekst wordt gepubliceerd of de code in productie gaat. Codelicenties zijn een probleem als het gaat om het schrijven van code, maar AI-gegenereerde tekst kan allerlei soorten hoofdpijn veroorzaken, sommige gênant en sommige ernstiger.

De manier waarop grote taalmodellen werken, is door te voorspellen wat het volgende woord in een zin zal zijn, en het volgende woord daarna, en het volgende woord daarna, enzovoort, helemaal tot aan het einde van de zin, de alinea of het codefragment, kijkend naar elk woord in de context van alle woorden eromheen.

Dat betekent dat een zoekmachine kan begrijpen dat een zoekopdracht die vraagt ​​'wat kan een hersenschudding verergeren', vraagt ​​wat te doen doen wanneer iemand hoofdletsel heeft, niet de symptomen of oorzaken van een hersenschudding.

Een andere benadering is om grote taalmodellen te koppelen aan verschillende soorten machine learning-modellen om hele klassen van schade te voorkomen. Het meest waarschijnlijke woord kiezen kan betekenen dat een groot taalmodel u alleen voor de hand liggende antwoorden geeft, zoals altijd 'vogels' antwoorden op de vraag 'wat kan vliegen' en nooit 'vlinders' of 'gevaccineerde vliegtuigpassagiers'. Als u een binair model toevoegt dat verschillende soorten vogels onderscheidt, krijgt u mogelijk 'vogels kunnen vliegen, behalve struisvogels en pinguïns en andere loopvogels'.

Het gebruik van een binair model naast een groot taalmodel is een voorbeeld van hoe Bing meerdere AI-modellen gebruikt om vragen te beantwoorden. Velen van hen zijn er om het hoofd te bieden aan het aantal verschillende manieren waarop we hetzelfde zeggen.

Informatie over entiteiten zoals de Eiffeltoren wordt opgeslagen als vectoren, zodat Bing u de hoogte van de toren kan vertellen, zelfs als uw zoekopdracht het woord Eiffel niet bevat. Als u vraagt ​​'hoe hoog is de toren van Parijs', krijgt u het juiste antwoord. De Microsoft Generic Intent Encoder zet zoekopdrachten om in vectoren, zodat het kan vastleggen wat mensen willen zien (en op klikken) in zoekresultaten, zelfs als het vocabulaire dat ze gebruiken semantisch heel anders is.

Bing gebruikt de grote taalmodellen van Microsoft (net als de Azure Cognitive Search Service waarmee u een aangepaste zoekfunctie voor uw eigen documenten en inhoud kunt maken) om zoekresultaten te rangschikken, fragmenten uit webpagina's te halen en het beste resultaat uit te lichten of sleutelzinnen te markeren om helpen u te weten of een webpagina de informatie bevat die u zoekt, of geven u ideeën voor verschillende termen die u mogelijk betere zoekresultaten opleveren. Dat verandert niets, behalve mogelijk de nadruk van een zin.

Maar Bing gebruikt ook een groot taalmodel genaamd Turing Natural Language Generation om een ​​deel van de informatie van webpagina's in de zoekresultaten samen te vatten en te herschrijven. en het inkorten van het fragment dat je ziet, zodat het een beter antwoord is op de vraag die je hebt ingetypt. Tot nu toe zo nuttig.

Bij sommige Bing-zoekopdrachten ziet u een lijst met vragen onder de kop Mensen vragen ook. Oorspronkelijk waren dat alleen gerelateerde vragen die een andere Bing-gebruiker had getypt, dus als u zocht naar 'accountancycursussen', zou u ook vragen zien zoals hoe lang het duurt om een ​​kwalificatie als accountant te behalen, om u tijd te besparen bij het typen die andere zoekopdrachten zelf.

Zie ook: Gartner lanceert zijn opkomende tech-hypecyclus voor 2021: dit is wat er in en uit gaat.

Bing heeft niet altijd vraag- en antwoordparen die overeenkomen met elke zoekopdracht, dus vorig jaar begon Microsoft Turing NLG te gebruiken om vragen en antwoorden voor documenten te maken voordat iemand een zoekopdracht invoerde die ze op aanvraag zou creëren, dus meer zoekopdrachten zouden extra ideeën opleveren en handige goudklompjes.

De Q&A kan u meer details laten zien dan in de kop en de fragmenten die u ziet in resultaten voor nieuwsberichten. Maar het is alleen nuttig als de vraag die Bing genereert bij het antwoord juist is.

Een van de vragen die Bing deze zomer bedacht, toonde aan dat veelvoorkomende metaforen een probleem kunnen zijn voor AI-tools. Misschien verward door de krantenkoppen die meldden dat een beroemdheid iemands acties bekritiseerde als 'slamming', een van deze Turing-geschreven vragen waarvan ik duidelijk verkeerd begrepen zag wie wat deed in een bepaald nieuwsbericht.

Het generatieve taalmodel dat het vraag- en antwoordpaar heeft gemaakt, maakt geen deel uit van Cognitive Search. Microsoft biedt zijn GPT-3-service (die hetzelfde soort taalgeneratie kan doen) alleen aan in een privévoorbeeld, dus het is niet zo dat het gemiddelde bedrijf zich zorgen hoeft te maken over het maken van dit soort fouten op hun eigen zoekpagina's. Maar het laat zien dat deze modellen fouten kunnen maken, dus je moet een proces hebben om hiermee om te gaan.

Een zoekmachine zal niet eerst naar elke pagina met zoekresultaten kijken voordat jij zie ze; het doel van AI-modellen is om problemen het hoofd te bieden waarvan de schaal te groot is voor mensen om het te doen. Maar bedrijven willen misschien nog steeds een menselijke beoordeling hebben voor het schrijven dat ze genereren met een groot taalmodel. Haal de mens nog niet overal uit de lus.

Microsoft

Toenemende aanvallen op het spuiten van wachtwoorden, waarschuwt Microsoft dat Microsoft contentmoderatiespecialist Two Hat Microsoft overneemt onthult portal voor duurzaamheidsbeheer voor bedrijven Zo kunt u nog steeds een gratis Windows 10-upgrade krijgen Microsoft | Digitale transformatie | CXO | Internet der dingen | Innovatie | Bedrijfssoftware