GitHub og OpenAI lancerer et nyt AI-værktøj, der genererer sin egen kode

0
130

GitHub og OpenAI har lanceret en teknisk forhåndsvisning af et nyt AI-værktøj kaldet Copilot, der lever inde i Visual Studio Code-editoren og autofuldfører kodestykker.

Copilot gør mere end bare papegøje tilbage kode, det er set før, ifølge GitHub. Den analyserer i stedet den kode, du allerede har skrevet, og genererer ny matchende kode, herunder specifikke funktioner, der tidligere blev kaldt. Eksempler på projektets hjemmeside inkluderer automatisk at skrive koden for at importere tweets, tegne en scatterplot eller få en Goodreads-vurdering.

Det fungerer bedst med Python, JavaScript, TypeScript, Ruby og Go ifølge et blogindlæg fra GitHub CEO Nat Friedman.

En efterkommer af GPT-3

GitHub ser dette som en udvikling af parprogrammering, hvor to kodere vil arbejde på det samme projekt for at fange hinandens fejl og fremskynde udviklingsprocessen. Med Copilot er en af ​​disse kodere virtuel.

Dette projekt er det første store resultat af Microsofts investering på 1 mia. Dollar i OpenAI, det forskningsfirma, der nu ledes af Y Combinator-præsident Sam Altman. Siden Altman tog tøjlerne, har OpenAI drejet fra en nonprofit-status til en “capped-profit” -model, påtaget sig Microsoft-investeringen og begyndt at give licens til sin GPT-3-tekstgenereringsalgoritme.

Copilot er bygget på en ny algoritme kaldet OpenAI Codex, som OpenAI CTO Greg Brockman beskriver som en efterkommer af GPT-3.

GPT-3 er OpenAIs flagskibsgenererende algoritme, som kan generere tekst, der undertiden ikke kan skelnes fra menneskelig skrivning. Det er i stand til at skrive så overbevisende på grund af sin store størrelse på 175 milliarder parametre eller justerbare drejeknapper, der gør det muligt for algoritmen at forbinde forhold mellem bogstaver, ord, sætninger og sætninger.

Mens GPT -3 genererer engelsk, OpenAI Codex genererer kode. OpenAI planlægger at frigive en version af Codex gennem sin API senere i sommer, så udviklere kan bygge deres egne apps med teknologien, fortalte en repræsentant for OpenAI The Verge i en e-mail.

Codex var trænet i terabyte med åben tilgængelig kode hentet fra GitHub samt eksempler på engelsk.

Mens vidnesbyrd på webstedet begejstrer for produktivitetsgevinsterne Copilot giver, antyder GitHub, at ikke al den anvendte kode blev undersøgt for fejl, usikker praksis eller personlige data. Virksomheden skriver, at de har sat et par filtre på plads for at forhindre Copilot i at generere stødende sprog, men det er muligvis ikke perfekt.

“På grund af den underliggende teknologis pre-release-karakter kan GitHub Copilot undertiden producere uønskede output, herunder forudindtaget, diskriminerende, voldelig eller stødende output,” siger Copilots hjemmeside.

givet kritik af GPT-3's bias og voldelige sprogmønstre, ser det ud til, at OpenAI ikke har fundet en måde at forhindre algoritmer i at arve dets træningsdatas værste elementer.

Virksomheden advarer også om, at modellen kan foreslå e-mail-adresser, API-nøgler eller telefonnumre, men at dette er sjældent, og dataene har vist sig at være syntetiske eller pseudo-tilfældigt genereret af algoritmen. Koden genereret af Copilot er dog stort set original. En test udført af GitHub viste, at kun 0,1 procent af genereret kode kunne findes ordret i træningssættet.

Dette er ikke det første projekt, der automatisk forsøger at generere kode for at hjælpe med at arbejde programmører. Start Kite har en meget lignende funktionalitet med tilgængelighed på mere end 16 kodeditorer.

Lige nu er Copilot i en begrænset teknisk forhåndsvisning, men du kan tilmelde dig på projektets hjemmeside for en chance for at få adgang til det.