Doner til

Titel:når dyb læring mødte kodesøgning

forfattere: Jose Cambronero, Hongyu Li, Seohyun Kim, Koushik Sen, Satish Chandra

Hent PDF

abstrakt: der har været flere nylige forslag om brug af dybe neurale netværk tilkodesøgning ved hjælp af naturligt sprog. Fælles på tværs af disse forslag er ideenaf $\mathit{embedding}$ kode og naturlige sprogforespørgsler, i reelle vektorerog derefter bruge vektorafstand til omtrentlig semantisk korrelation mellem kodeog forespørgslen. Der findes flere tilgange til at lære disse indlejringer,herunder $\mathit{unsupervised}$ teknikker, som kun er afhængige af et corpus ofcode eksempler og $\mathit{supervised}$ teknikker, der bruger et$\mathit{aligned}$ corpus af parret kode og naturlige sprogbeskrivelser. Målet med dette tilsyn er at producere indlejringer, der er mere ens for akveri og det tilsvarende ønskede kodestykke. Det er klart, at der er valg, om man overhovedet skal bruge overvågede teknikker, og hvis man gør det, hvilken slags netværk og træning man skal bruge til tilsyn. Dette papir er den første til at evaluere disse valg systematisk. Til dette formål samledeimplementeringer af state-of-the-art teknikker til at køre på en fælles platform, træning og evaluering corpora. For at udforske designrummet i netværkskompleksitet introducerede vi også et nyt designpunkt, der er en $\mathit{minimal}$supervision udvidelse til en eksisterende uovervåget teknik. Vores evaluering viser, at: 1. tilføjelse af tilsyn til en eksisterende uovervåget teknik kanforbedre ydeevnen, dog ikke nødvendigvis meget; 2. enkle netværk tiltilsyn kan være mere effektive end mere sofistikerede sekvensbaserede netværk til kodesøgning; 3. mens det er almindeligt at bruge docstrings til at udføretilsyn, der er en betydelig kløft mellem effektiviteten af docstrings og en mere forespørgsel-passende tilsyn corpus.
evalueringsdatasættet er nu tilgængeligt på :1908.09804

emner: programmel (cs.SE); beregning og sprog (cs.CL); maskinlæring (cs.LG)
Citer som: arkiv:1905.03813
(eller arkiv:1905.03813v4 til denne version)

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.