Forskere får chatbot til at skrive videnskabelig artikel

Ved at stille ChatGPT en række spørgsmål har forskere brugt chatbotten til at skrive næsten en hel videnskabelig artikel.

En række forskere har brugt chatbotten ChatGPT til at skrive store dele af en videnskabelig artikel. (Arkivfoto) (Foto: © FLORENCE LO, Ritzau Scanpix)

Rettelse: Det fremgik tidligere, at de uafhængige forskere, der blev sat til at godkende den videnskabelige artikel, ikke vidste, at den var skrevet af chatbotten. Den oplysning var baseret på en artikel i The Guardian, men det var ikke korrekt - forskerne blev gjort opmærksomme på det i diskussionsafsnittet i slutningen af den videnskabelige artikel. DR har været i kontakt med forskeren og opdateret overskrift og artikel. Derudover er det tilføjet, at forskerne selv har skrevet referencer.

Hvad er udfordringerne ved ChatGPT på videregående uddannelser? Hvad er mulighederne?

Skriv en original akademisk artikel, med referencer. Find på flere vittige og intelligente titler til den.

Det er nogle af de spørgsmål og opgaver, tre forskere har bedt botten ChatGPT om at løse for sig. Og vupti - så lå der en akademisk artikel klar.

Sågar af en sådan kvalitet, at den strøg direkte gennem fagfællegodkendelsen og ind i et anerkendt akademisk tidsskrift. Helt uden at flere af de fire uafhængige forskere, der blev sat til at godkende artiklen, opdagede, at teksten var skrevet af en bot.

Det blev de først opmærksomme på, da de kom til diskussionsafsnittet af artiklen, hvor forskerne bag artiklen afslører, at artiklen indtil da slet ikke er skrevet af dem, men derimod af ChatGPT.

På den måde illustrerer de tre forskere bag deres pointe - nemlig at teknologien bag ChatGPT udvikler sig så hurtigt, at universiteterne kan få svært ved at følge med.

Det forklarer professor på Plymouth Marjon University Debby Cotton, som er en af forskerne bag artiklen med titlen 'Chatting and Cheating. Ensuring academic integrity in the era of ChatGPT' ('Chat og snyd. Sikring af akademisk integritet i en æra af ChatGPT').

- Vi ville vise, at ChatGPT skriver på et meget højt niveau, siger Cotton til The Guardian.

Cotton er på papiret angivet som den ledende forfatter bag artiklen, som chatbotten stortset har skrevet.

'Vi skal ikke være forskrækkede'

De seneste måneder har chatbotten ChatGPT trukket den ene overskrift efter den anden for sin evne til at svare særdeles overbevisende på stort set alt, man kan komme i tanke om at spørge den om.

Samtidig har der rejst sig en debat om, hvad man stiller op på uddannelsesinstitutioner, hvor chatbotten åbner helt nye døre for snyd med blandt andet opgaver og eksaminer.

Med den videnskabelige artikel rejser forskerne bag samtidig spørgsmålet om, hvor den nye teknologi efterlader forskningsverdenen.

Stiller man Thomas Ploug, der er professor i dataetik ved Institut for Kommunikation på Aalborg Universitet, det spørgsmål, maner han straks til besindighed.

- Vi skal ikke være forskrækkede, siger han.

Ploug mener, at ChatGPT kan bruges fornuftigt som et redskab - også i forskning. Han er langt fra overrasket over, at en videnskabelig artikel skrevet af botten kan slippe igennem fagfællegodkendelse.

- Det er et imponerende stykke teknologi, siger han.

Han understreger, at det bør fremgå tydeligt, at ChatGPT er blevet brugt til at udarbejde videnskabelige artikler.

ChatGPT kan ikke drages til ansvar

Men selv hvis det er deklareret tydeligt, er der etiske udfordringer ved at bruge den nye teknologi i forskningen, understreger Thomas Ploug.

Han fremhæver det faktum, at ChatGPT ikke kan drages til ansvar for den forskning, den er forfatter til. Som medforfatter til videnskabeligt arbejde står man dels til ansvar for den videnskabelige kvalitet og dels for konklusionerne og de metoder, der er brugt, forklarer Ploug.

- ChatGPT kan ikke læse artiklen igennem og spørge sig selv: "Kan jeg stå inde for det her indhold? Kan jeg stå til ansvar?" Man kan muligvis stille den det spørgsmål, men givet hvordan den fungerer, giver det ikke mening at kunne stille den til ansvar, siger Thomas Ploug.

At forskere kan blive draget til ansvar for den forskning, de sætter deres navn på, er med til at sikre kvalitet og i sig selv regulere, hvad der bliver udgivet. Men sådan vil det ikke fungere med ChatGPT, pointerer Thomas Ploug.

- Det ville ikke gøre noget indtryk på ChatGPT, hvis du gjorde den opmærksom på et ansvar. Det ville ikke have en regulerende effekt, siger han.

Derudover kan brugen af chatbotten også give problemer med plagiat. ChatGPT fungerer kort fortalt på den måde, at den er "trænet" til at svare meget menneskeligt ud fra en lang række allerede eksisterende tekster.

Det betyder, at der er risiko for, at den bruger meget store dele af eksisterende kildemateriale, når den skal svare på spørgsmål.

- Derfor risikerer man at få plagieringsproblemer, hvis man bruger den, siger Thomas Ploug.

Flere forskningsartikler på CV'et

Mens DR har Thomas Ploug i røret pointerer han, at det ikke er første gang, ChatGPT er blevet brugt til at forfatte forskning.

Professoren har tidligere læst om, at ChatGPT har været angivet som en af forfatterne på videnskabelige artikler, men han kan ikke huske hvor.

Med ChatGPT er svaret kun et enkelt spørgsmål væk. Og da Thomas Ploug spørger ChatGPT, kommer svaret prompte.

I hvert fald tre videnskabelige artikler har den allerede på CV'et, påstår chatbotten.

- Det vidner om, at den kan levere arbejde, som er relevant på øverste forskningsmæssige hylde. Det vil da være ærgerligt, hvis vi ikke gør brug af en teknologi, der kan være med til at gøre os alle klogere, siger Thomas Ploug.

Hvor klog er kunstig intelligens egentlig? Og bliver vi dummere, i takt med at de bliver klogere? Nogle af de spørgsmål bliver vendt i et afsnit af podcasten 'Vildt Naturligt', som du kan høre her: