’n Proaktiewe strategie om plagiaat met behulp van ChatGPT-3.5 te bekamp – ’n verkennende ondersoek

  • 0

’n Proaktiewe strategie om plagiaat met behulp van ChatGPT-3.51 te bekamp – ’n verkennende ondersoek

Christina Johanna (Christa) van Staden, navorsingsgenoot, Departement Rekenaarwetenskap en Informatika, Universiteit van die Vrystaat

LitNet Akademies Jaargang 20(3)
ISSN 1995-5928

 

Opsomming

ChatGPT, die kletsbot wat OpenAI op 30 November 2022 vir die algemene publiek aanlyn beskikbaar gestel het, se antwoorde is so goed dat die kletsbot verskeie nagraadse eksamens sou kon slaag. Daarom is dosente wêreldwyd bekommerd oor ChatGPT-plagiaat, of die misbruik van die kletsbot se antwoorde om punte te verdien sonder om self navorsing te doen. Die literatuurstudie het getoon dat huidige strategieë, wat daarop fokus om studente te betrap, nie betroubaar is nie weens die unieke aard van die kletsbot se antwoorde. Vir die doel van hierdie verkennende navorsing, het ek ’n nuwe benadering gevolg, naamlik om te bepaal hoe die kletsbot so onbruikbaar moontlik gemaak kan word. Die benadering is gebaseer op drie faktore wat die opneem van ’n nuwe tegnologie beïnvloed, naamlik bruikbaarheid, insetverwagting (hoeveel moeite gedoen moet word om ’n antwoord te kry) en werksverrigtingverwagting (die gehalte van ChatGPT se antwoorde). Ek het ’n gemengdemetodebenadering tot die insameling van data gevolg. Data oor die beperkings van die kletsbot is met behulp van gestruktureerde onderhoude met die kletsbot ingesamel. Die antwoorde is in Turnitin en drie KI-opspoorders ingelees, maar nie een daarvan kon die KI-tekste identifiseer nie. Alhoewel ChatGPT sommige antwoorde herken het, was dit vas oortuig dat dit ander nie geskryf het nie en het selfs redes verskaf waarom dit nie sy werk is nie. Aangesien die beperkings van die kletsbot sy bruikbaarheid beïnvloed, stel ek ’n proaktiewe strategie vir die bekamping van ChatGPT-plagiaat voor – naamlik om op die beperkings te fokus sodat studente uit eie ervaring kan leer dat die kletsbot foute maak en inligting, skakels en titels van video’s versin. Hierdie strategie kan doeltreffend vanuit ’n leergeoriënteerde benadering tot assessering geïmplementeer word.

Trefwoorde: ChatGPT; ChatGPT-plagiaat; hoër onderwys; plagiaat; plagiaatbekamping; strategieë

 

Abstract

A proactive strategy to mitigate plagiarism with ChatGPT-3.5 – an explorative study

Almost immediately after OpenAI (2022) had launched ChatGPT on the 30th of November 2022 online, and free of charge, innovators (Rogers 1983), or those who had adopted this innovative technology first, flooded the internet with reports regarding the quality of its texts. The minority described ChatGPT as a stupid machine, based on single prompts, but the majority found ChatGPT’s answers of such a high quality that it could have passed various post-graduate examinations, if human. These reports spurred the adoption of ChatGPT, and it reached the 100 million-user milestone within a record-breaking period of two months (Hu 2023).

Soon lecturers worldwide cautioned that ChatGPT could promote plagiarism on a large scale. This possibility should be taken seriously as research conducted after the launch of the internet and word-processing tools showed that these innovative technologies made it easier for students to plagiarise. They only needed to find information on the internet, copy and paste it into word-processing tools, save it, and submit it as their own work. In an attempt to mitigate plagiarism, developers launched plagiarism detectors such as Turnitin to help educators to detect instances of plagiarism. These plagiarism detectors mitigated instances of plagiarism, but promoted a new type of academic dishonesty, namely, to pay others to complete assignments on their behalf.

ChatGPT makes it even easier to plagiarise as it only needs a prompt (question) to search its large corpus of data, collected from the internet, within seconds to generate text-based outputs. Thus, students only need to copy these answers with the press of a button, paste it into their word-processing tools, save it and submit it as their own work. Although the abuse of ChatGPT is not (yet) regarded as plagiarism, it is a new form of plagiarism as the student did not conduct the research, write the text, or refer to ChatGPT as the original author. Different from previous plagiarism detection practices, it is a daunting task to identify instances of ChatGPT-plagiarism.

ChatGPT does not copy and paste from the internet or its training data. It writes word by word using algorithms to statistically predict the next word in a sentence while taking previous words into account. Thus, ChatGPT’s texts are original and so authentic that Turnitin does not find similarities with existing texts. Therefore, developers hastily launched artificial intelligence detectors (AI-detectors) which educators can use to determine if a text was AI- or human-written. However, these AI-detectors are not reliable enough to accuse a student of ChatGPT-plagiarism. The detection of ChatGPT-plagiarism is also hindered by another group of developers who have launched new tools which students can use to alter ChatGPT’s texts in such a way that it reduces the risk of being detected.

Thus, ChatGPT needs the attention of academics (King and ChatGPT 2023). Although ChatGPT does not intentionally plagiarise, it can commit reference plagiarism as it makes up references (Senekal 2023; Van Staden 2023). It can, however, promote plagiarism if students submit its answers as their own work. It is reasonable to assume that students will abuse ChatGPT based on the quality of its texts (Bommarito II and Katz 2022; Kelly 2023; Kung et al. 2023; Terwiesch 2023) and critical thinking skills. According to Susjnak (2023) ChatGPT’s critical thinking skills can seduce students to abuse ChatGPT, especially as it needs minimum inputs to generate realistic answers. Jiao et al (2023) found that its translation skills were good, and Aydin and Karaarslan (2022), Mellon, Bailey, Scott, Breckwoldt and Miori (2022); Alshater (2023) and Dowling and Lucey (2023) found it useful during various phases of the research process. Marti published within the first month a book entirely written by ChatGPT (Marti and ChatGPT 2023). However, Senekal (2023) and Van Staden (2023) do not regard ChatGPT as a reliable research assistant. As ChatGPT can be abused, and policing strategies are inefficient, lecturers need to understand how ChatGPT-plagiarism can be mitigated.

The purpose of this research was to develop a proactive strategy lecturers can apply to mitigate ChatGPT-plagiarism in their classrooms. As AI-chatbots differ, and I have assumed that the majority of students will be using the ChatGPT-3.5 model, I have specifically focused on developing strategies for this model. Due to the novelty of ChatGPT, and insufficient knowledge regarding its ability to promote plagiarism, I have conducted explorative research. I have followed a novel approach, namely, to identify its limitations to better understand how plagiarism can be mitigated in classrooms. As I have found that three factors, namely usefulness, input expectation (amount of effort needed to use the technology), and work-related expectations (how it can be used to improve work) impact on the adoption decision, I have assumed that these factors can also impact the decision to adopt ChatGPT for unethical purposes.

I followed a mixed methods approach to collecting data. The qualitative data was collected while I conducted structured interviews with ChatGPT to explore its limitations. As ChatGPT can remember within a chat but cannot carry the new learning over to future chats, I started a new chat to explore each of the limitations. Both quantitative and qualitative data were collected while I used Turnitin, three AI-detectors, namely AI Text Classifier, GTP-2 Output Detector and GPT-Zero (AI-detectors), and ChatGPT to detect if the answers were AI-written.

The first finding was that most of the limitations identified in literature could limit the usefulness of ChatGPT. Its knowledge was limited to events before November 2021; thus, it could not answer questions related to events after that date. It did not know much about subjects not often discussed on the internet, and hallucinated (made up or lied about) facts convincingly. It did not perform well when prompted to discuss Afrikaans literature (human sciences), and hallucinated links to YouTube videos. It could also not create a PowerPoint presentation but provided guidelines for the structure and content of such a presentation. Although it could argue different points of view, it was sympathetic towards a convicted murderer (Oscar Pistorius), but not towards a South African fighting against farm murders (Steve Hofmeyr). This might indicate a problem with its training as it could indicate that ChatGPT leans to the left. These limitations can have an impact on the usefulness of ChatGPT in classrooms.

The second finding was that Turnitin, the three AI-detectors and ChatGPT could not identify all of the AI-texts. In fact, Turnitin and the three AI-detectors regarded ChatGPT’s texts as human-written. Even ChatGPT could only identify three of the seven AI-texts as its own work and was convinced that it was not the author of the rest.

Based on the findings, I have suggested a few proactive strategies for mitigating the abuse of ChatGPT-3.5 in classrooms. Following this route, rich learning opportunities can be provided as students can learn from own experience that ChatGPT’s limitations, mistakes, and hallucinations can have a negative impact on their results if submitted without improving the texts. The proactive strategies can be implemented from a learning-oriented approach to assessment, which is based on three principles, namely (a) to design learning tasks, rather than assessment tasks, (b) to provide feedback promptly, and (c) to involve students as peer assessors. Following this route, higher education can send employable graduates into the workplace as they have learned how to use artificial intelligence, such as ChatGPT, responsibly.

Keywords: ChatGPT; ChatGPT-plagiarism; combatting plagiarism; higher education; strategies

 

1. Inleiding

Wêreldwyd heers kommer in hoëronderwyskontekste dat ChatGPT-3.5, die kletsbot wat OpenAI op 30 November 2022 vir die algemene publiek gratis aanlyn beskikbaar gestel het, plagiaat gaan bevorder. Alhoewel die voorhou van ChatGPT se tekste as eie werk nog nie algemeen as plagiaat beskou word nie, is dit wel ’n vorm van plagiaat aangesien die skuldige nie die nodige navorsing of skryfwerk gedoen het om punte of krediet daarvoor te verdien nie. Hierdie kommer word aangevuur deur gepubliseerde verslae oor die gehalte van sy antwoorde wat so goed is dat dit nagraadse eksamens kon slaag (Bommarito II en Katz 2022; Capelouto 2023; OpenAI 2023a; Terwiesch 2023; Varanasi 2023). Die spoed waarteen die kletsbot antwoorde verskaf wanneer dit gepor2 word, en die gemak waarmee die antwoorde3 gekopieer en in woordverwerkingsagteware geplak kan word, maak dit vir studente maklik om ChatGPT-plagiaat4 te pleeg; veel makliker as wat die internet en woordverwerkingsagteware dit vir studente gemaak het om plagiaat te pleeg (Marais 2022; Thorpe 2023).

Doró (2014) het bykans ’n dekade gelede reeds bevind dat studente daagliks plagiaat pleeg en dat plagiaat soos ’n pandemie in opvoedkundige kontekste versprei omdat dit moeilik is om gevalle van plagiaat op te spoor. Daarom is dit te verstane dat plagiaat al beskryf is as gif wat wantroue veroorsaak en akademiese integriteit vernietig (Mayden 2015). Oppenheimer (2023), ’n professor aan Carnegie Mellon Universiteit, is van mening dat ChatGPT nie ’n groot impak op plagiaat gaan maak nie aangesien studente nog altyd plagiaat gepleeg het. Dit is egter ’n aanvegbare stelling.

Tot en met die beskikbaarstelling van ChatGPT kon dosente op plagiaatopspoorders, soos byvoorbeeld Turnitin, staatmaak om studente te ontmoedig om plagiaat te pleeg. Weens die uniekheid van ChatGPT se antwoorde het hierdie sagteware egter bykans oornag waardeloos geraak (Thorpe 2023; Van Staden 2023). OpenAI (Kirchner, Ahmad, Aaronson en Leike 2023) en ander ontwikkelaars het inderhaas KI-opspoorders5 ontwikkel om tekste wat deur kunsmatige intelligensie (KI-tekste) geskryf is op te spoor, maar die resultate is nie betroubaar nie (Kirchner e.a. 2023; Senekal 2023, Van Staden 2023). Daar is ook bevind dat hierdie sagteware mislei kan word wanneer studente KI-tekste parafraseer, woorde met sinonieme vervang of sommer net sagteware soos Grammarly en KI-opspoorder-misleiers gebruik om die taak namens hulle te verrig.

Tans is daar (nog) nie ’n doeltreffende strategie ontwikkel om studente te betrap wat ChatGPT-plagiaat pleeg nie. Dit kan plagiaat op groot skaal bevorder aangesien daar reeds bevind is dat studente neig om plagiaat te pleeg indien hulle van mening is dat hulle nie betrap kan word nie (Sprajc, Urh, Jerebic, Trivan en Jereb 2017). Volgens Oppenheimer (2023) is polisiëring nie ’n goeie strategie nie, die rede vir plagiaat moet eerder verwyder word. Daarom beveel hy aan dat studente eerder die noodsaaklikheid van integriteit en akademiese eerlikheid op die hart gedruk moet word. Daar is egter ’n wye verskeidenheid faktore wat studente motiveer om plagiaat te pleeg. Daarom het hierdie navorsing ten doel gehad om die volgende vraag te beantwoord: Hoe kan ChatGPT-plagiaat bekamp word?

 

2. ChatGPT: ’n Ontwrigtende kletsbot

Kletsbotte is programme of toepassings wat in verskeie platforms soos byvoorbeeld webwerwe, kortboodskapdienste en virtuele assistente geïntegreer kan word om gesprekke met mense te voer (Khalil en Er 2023). Hierdie toepassings maak op natuurliketaalprosesse en masjienleertegnieke staat om te probeer verstaan wat ’n gebruiker daarvan verwag (Khalil en Rambech 2022). Voor die beskikbaarstelling van ChatGPT is kletsbotte hoofsaaklik gebruik om take te outomatiseer, inligting te verskaf, gebruikerservaring te verbeter en produktiwiteit te verhoog (Khalil en Er 2023). Weens die bruikbaarheid daarvan, is dit toenemend in verskeie kontekste, wat onderwys insluit, gebruik (Khalil en Er 2023).

ChatGPT is egter die eerste kletsbot wat plagiaat op groot skaal kan bevorder omdat studente dit kan misbruik om hulle werkopdragte namens hulle te doen. Dit het dosente wêreldwyd se aandag op die vermoëns van kunsmatige intelligensie geplaas.

Die term kunsmatige intelligensie is aanvanklik geskep om te verwys na die wetenskap wat die ontwerp en ontwikkeling van intelligente masjiene bestudeer (Poole, Mackworth en Goebel 1998; McCarthy, Minsky, Rochester en Shannon 2006). Nadat hierdie masjiene uiteindelik die lig gesien het, is die term uitgebrei om die vermoë van ’n rekenaar, sagteware of ’n rekenaarbeheerde robot om take uit te voer wat gewoonlik slegs deur menslike intelligensie uitgevoer kan word (Copeland 2023) in te sluit. Tans word algemeen aanvaar dat ’n tegnologiese uitvindsel oor kunsmatige intelligensie beskik indien dit eksterne data reg kan interpreteer, daaruit kan leer en die lesse geleer kan toepas om spesifieke take te verrig (Kaplan en Haelein 2019). Gebaseer op navorsingsbevindinge, beskik ChatGPT oor kunsmatige intelligensie, daarom bespreek ek sy kunsmatige intelligensie kortliks.6

Navorsers gebruik verskillende terme wanneer hulle die kunsmatige intelligensie van ChatGPT bespreek. OpenAI, die ontwikkelaar, het die kletsbot betitel na aanleiding van sy kunsmatige intelligensie, naamlik dat dit ’n “generative pretrained transformer (GPT)” (skeppende voorafopgeleide transformator) is wat met mense kan “chat” (gesels) (Jalil, Rafi, LaToza, Moran en Lam 2023) – dus ChatGPT. Hierdie skeppende voorafopgeleide transformator “lees” porre om antwoorde op ’n mensagtige wyse te verskaf (Jalil e.a. 2023). Weens die transformator-argitektuur waarop dit gebou is, beskik die kletsbot oor ’n aandag-meganisme (“attention”) wat dit in staat stel om gedeeltes van porre te identifiseer wat meer aandag as ander verdien (Jing en Xu 2023; Kung, Cheatham, Medenilla, Sillos, De Leon, Elepano, Madriaga, Aggabao, Diaz-Candido, Maningo en Tseng 2023). Dit stel die kletsbot in staat om vrae doeltreffender te beantwoord.

ChatGPT word egter ook, weens sy massiewe databasis (opleidingsdata) wat uit 175 miljard parameters bestaan, as ’n groottaalmodel geklassifiseer. Hierdie databasis bevat, volgens Hargreaves (2023), tekste wat deur middel van Common Crawl7 (60%) ingesamel is en sluit tekste van WebText28 (22%), Books19 (8%) en Wikipedia10 (3%) in. Aangesien al hierdie tekste mensgeskrewe is, leer die kletsbot uit sy databasis hoe mense skryf. Die grootte van sy databasis stel dit in staat om die kompleksiteit van natuurlike taal in ’n groot mate te reflekteer, daarom word dit ook as ’n natuurliketaalgenereringsmodel (Senekal 2023) geklassifiseer.

Soos reeds genoem, gebruik ChatGPT sy databasis om te leer hoe mense skryf, maar dit word ook gebruik om die volgende woord te bepaal en oorspronklike tekste te skryf (Dowling en Lucey 2023). Aangesien dit woord-vir-woord skryf, en nie vanaf die internet kopieer en plak nie, is sy tekste uniek (oorspronklik). ChatGPT maak tydens die skryfproses op moontlikheid-verspreiding (statistiek) staat om die volgende woord te kies terwyl dit terselfdertyd vorige woorde (“entries”) in ag neem (Xu, Alon en Neubig 2023). Dit kan verskeie vorige woorde in ag neem omdat dit ook ’n herhalende neurale-netwerk-gebaseerde taalmodel is (Kapronczay 2022). ChatGPT kan onsmaaklikhede kwyt raak omdat sy databasis van die internet geskraap is. Daarom het OpenAI dit onder toesig van KI-opleiers en met behulp van versterkingsleer opgelei om op ’n verantwoordelike manier met mense te gesels.

Die bruikbaarheid van die kletsbot is reeds deur verskeie studies bevestig (Susnjak 2022; Jiao, Wang, Huang, Wang en Tu 2023; Kelly 2023; May 2023; Van Staden 2023). Daar is egter nog min navorsing gedoen oor hoe die beperkings (Bogost 2023; OpenAI 2023; Senekal 2023; Van Staden 2023) van die kletsbot sy bruikbaarheid kan beïnvloed (sien afdeling 5.3).

 

3. Plagiaat en ChatGPT-plagiaat

3.1 Huidige definisie van plagiaat

Die term plagiaat is tot onlangs gedefinieer as die misbruik van ’n ander mens se woorde, idees, gedagtes en nadenke sonder om die nodige krediet te gee (Larkham 2002; Perrin 2009; Merriam-Webster Dictionary 2023) – ’n akademiese wanpraktyk wat as literêre diefstal beskou word omdat die student nie self gedink, alleen geskryf of reg na alle bronne verwys het wat gebruik is om die eindproduk te lewer nie (Lathrop en Foss 2000). Aangesien ChatGPT nie ’n mens is nie, word die misbruik van sy antwoorde (nog) nie as plagiaat gedefinieer nie.

3.2 Vorms van plagiaat

Navorsers het verskillende vorms van plagiaat onderskei, wat ek onder twee hoofkategorieë geklassifiseer het, naamlik onbewustelike en doelbewuste plagiaat.

Studente pleeg onbewustelik plagiaat wanneer hulle nie verstaan hoe om aan te haal, te parafraseer en na bronne te verwys nie (Fatemi en Saito 2020; Streefkerk en Caulfield 2022). Onvoldoende taal-, skryf- en verwysingsvaardighede (Doró 2014; Elshafei en Jahangir 2020) dra ook tot hierdie vorm van plagiaat by. Volgens Sprajc e.a. (2017) kan studente onbewustelik plagiaat pleeg wanneer hulle in spanne saamwerk, reëls verkeerd interpreteer en nie weet wat plagiaat behels nie. Tekste gekopieer vanaf die internet dra ook tot plagiaat by aangesien outeurskap vervaag (Moorman en Horton 2007). Die omvang van onbewustelike plagiaat is kommerwekkend. Greenwood, Walkem, Smith, Shearer en Stirling (2014) het byvoorbeeld bevind dat 50% van 1 000 verpleegstudente onbewustelik plagiaat gepleeg het – ’n bevinding wat hulle aan gebrekkige vaardighede eerder as oneerlikheid toegeskryf het.

Studente kan egter ook doelbewus plagiaat pleeg. Hierdie vorm van plagiaat sluit volgens Hard, Conway en Moran (2006), Belter en DuPre (2009), Colnerud en Rosander (2009), Das en Punjabi (2011) die volgende in:

  • algehele plagiaat (volledige teks, byvoorbeeld werkopdrag, artikel of boek)
  • direkte plagiaat (verwys nie na skrywer nie)
  • lapwerk- of mosaïekplagiaat (samevoeging van tekste uit verskeie bronne)
  • parafraseringsplagiaat (parafraseer in ’n poging om nie na die oorspronklike skrywer te verwys nie)
  • bronplagiaat (onakkurate of versinde bronne)
  • onakkurate outeurskap (geen krediet aan persone wat bygedra het nie)
  • duplikaat-plagiaat (dieselfde data, idee of artikel word in meer as een vaktydskrif gepubliseer)
  • selfplagiaat (hersirkulering van eie tekste of woorde sonder om na vorige tekste te verwys).

Alhoewel ChatGPT-plagiaat nog nie as ’n vorm van plagiaat erken word nie, beskou Thorpe (2023) dit wel as plagiaat omdat so ’n student nie die nodige lees- of skryfwerk gedoen het nie (Thorpe 2023). ChatGPT-plagiaat kan onder doelbewuste plagiaat geklassifiseer word.

3.3 Faktore wat plagiaat bevorder

Hattingh, Buitendag en Lall (2020) het, na ’n literatuuroorsig, die faktore wat plagiaat bevorder onder elf kategorieë geklassifiseer. Aangesien sommige van die kategorieë oorvleuel, het ek dit na vyf verminder.

Die eerste groep is persoonlike faktore, wat die volgende insluit: swak waardes (Vogts 2009), swak tydbestuurvaardighede (Wilkinson 2009; Theart en Smit 2012; Sprajc e.a. 2017; Hattingh e.a. 2020), gebrek aan selfvertroue en idees, luiheid (Sprajc e.a. 2017), ’n vrees om te misluk (Sprajc e.a. 2017; Vogts 2009), ’n gebrek aan etiek en prestasiegerigtheid. Daar is bevind dat studente plagiaat pleeg as hulle werk nie verstaan nie (Hattingh e.a. 2020), maar Yang (2014) het ook bevind dat studente geen probleem daarmee het om antwoorde te kopieer nie, veral nie vanaf die internet nie. Volgens Sprajc e.a.(2017) neig prestasiegerigte studente meer as vaardigheidgerigte studente om plagiaat te pleeg. Park, Park en Jang (2013) en Hattingh e.a. (2020) het bevind dat studente plagiaat pleeg om vinnig punte te verdien sonder om die nodige insette te lewer.

’n Tweede faktor sluit die volgende in: akademiese druk, sosiale druk, druk om te presteer (Glendinning 2013; Henning, Ram, Sisley, Thompson en Hawken 2014), druk van medestudente (Sprajc e.a. 2017) en druk as gevolg van uitdagende leertake. Daar is bevind dat studente plagiaat pleeg as hulle weet dat medestudente ook plagiaat pleeg (Fish en Hura 2013) en as die waargenome voordeel vir die skuldiges swaarder weeg as die straf wat kan volg indien hulle betrap sou word (Doró 2014; Hattingh e.a. 2020).

Derdens dra die akademiese omgewing, wat dosente, klaskamers, beleid en bewusmakingsveldtogte insluit, tot plagiaat by. Daar is bevind dat vyandigheid teenoor institusionele prosedures, sosiale reëls (Hattingh e.a. 2020; Henning e.a. 2014), weerstand teen die manier waarop ’n klas aangebied word (Jones 2011), ’n persepsie dat die werk doelloos is (Henning e.a. 2014), aantekeninge sonder bronverwysings (Rettinger en Kramer 2009), oorlading deur dosente (Carrol 2002) en geleenthede en versoeking (Glendinning 2013; Hattingh e.a. 2020) tot plagiaat bydra, veral indien studente van mening is dat hulle nie betrap sal word nie (Vogts 2009) of nog altyd plagiaat gepleeg het (Eret en Ok 2014). Beleid wat nie streng toegepas word nie, bevorder plagiaat omdat studente daarmee kan wegkom (Fish en Hura 2013; Doró 2014; Sprajc e.a. 2017). Volgens Ocholla en Ocholla (2016) bemoeilik die afwesigheid van sigbare beleid die bekamping van plagiaat.

Vierdens dra gebrekkige kennis oor plagiaat (Carrol 2002; Hansen 2003; Blum 2009; Fish en Hura 2013) en ondoeltreffende verwysingsvaardighede (Kwong, Ng, Mark en Wong 2010) tot plagiaat by. Daarom behoort studente opgelei te word in die vaardighede om inligting te soek, te navigeer en op ’n etiese manier te beoordeel. Spajc e.a. (2017) beveel aan dat morele waardes op so ’n wyse aan studente oorgedra moet word dat hulle verstaan hoe om plagiaat te vermy. Indien nie, neig hulle om dosente te blameer wanneer hulle betrap word eerder as om die verantwoordelikheid vir hulle eie dade te aanvaar (Kolbert 2012). Oppenheimer (2023) is van mening dat norme van akademiese integriteit op so ’n manier oorgedra moet word dat dit die motivering om plagiaat te pleeg uitskakel.

Vyfdens maak tegnologie dit vir studente maklik om plagiaat te pleeg. Daar is bevind dat die vloedgolf inligting op die internet (Carrol 2002), maklike toegang tot digitale inligting (Sprajc e.a. 2017), gesofistikeerde sagteware en die gemak waarmee teks gekopieer en geplak kan word (Glendinning 2013) plagiaat bevorder. Daarom beveel King en ChatGPT (2023) en Kirchner e.a. (2023) aan dat studente opgelei moet word om kletsbotte op ’n etiese manier te gebruik.

Plagiaat is egter nie tot studente beperk nie. Daar is bevind dat dosente en navorsers plagiaat pleeg weens ’n behoefte aan professionele erkenning, akademiese prestasie en professionele bevordering, streng keerdatums vir publikasie en in sommige gevalle ook weens onkunde in verband met die beginsels van etiese skryfwerk en verwysingstegnieke (Mayden 2015).

3.4 Omvang van plagiaat op hoëronderwys- en akademiese vlak

Plagiaat is wêreldwyd ’n ernstige probleem. In die Spaanse konteks het 42% van ’n steekproef van 560 studente aangedui dat hulle al ’n paar keer plagiaat gepleeg het (Comas-Forgas, Sureda-Negre en Salva-Mutt 2010). ’n Vyfde van die deelnemers aan hierdie studie het erken dat hulle gereeld plagiaat pleeg en 62% was van mening dat dit ’n algemene praktyk onder die res van die studente was.

Volgens McCabe (2005) het een uit vyf studente (20%) wat aan hulle studie in die Amerikaanse en Kanadese konteks deelgeneem het, erken dat hulle die vorige jaar oneerlik was. Voorgraadse studente het meer as nagraadse studente geneig om plagiaat te pleeg.

Selwyn (2008) het 1 222 voorgraadse studente in die Verenigde Koninkryk by ’n studie oor aanlyn plagiaat betrek en bevind dat drie vyfdes van die studente erken het dat hulle die vorige 12 maande matige internetplagiaat gepleeg het. Volgens hierdie navorser is betekenisvolle verskille in terme van geslag, opvoedkundige agtergrond en vakgebied gevind.

In die Suid-Afrikaanse konteks is bevind dat voorgraadse studente in die Toegepaste Wetenskap-fakulteit van ’n universiteit oor die algemeen plagiaat pleeg (Sentleng en King 2012). Bykans driekwart (71,9%) van die deelnemers het erken dat hulle die internet gebruik het om werkopdragte te voltooi, waaruit afgelei is dat die internet die grootste bron van plagiaat is.

Plagiaat word ook in die akademiese skryfwêreld gepleeg. Fang, Steen en Casadevall (2012) het die onttrekking van 2 047 biomediese en lewenswetenskaplike navorsingsartikels bestudeer en bevind dat die artikels onttrek is weens wangedrag (67%), foute in gevalle (21%), duplikasie (14%) en plagiaat (10%). Aangesien duplikasie onder plagiaat val, is bykans ’n kwart van die artikels weens plagiaat onttrek. Singh, Mahendra, Yudav, Singh, Arora en Arora (2014) het die onttrekking van 2 343 artikels tussen 2004 en 2013 bestudeer en bevind dat bykans ’n kwart (585) weens plagiaat onttrek is. Volgens Amos (2014) word artikels internasionaal onttrek, maar die skuldiges is hoofsaaklik vanaf Italië, Turkye, Tunisië, Sjina en Amerika. Daarom is dit te verstane dat die vaktydskrif Science reeds beleid in plek gestel het wat navorsers verbied om KI-tekste en -prente as eie werk voor te hou (Thorpe 2023).

’n Interessante bevinding is dat plagiaatopspoorders tradisionele kopieer-en-plak-plagiaat laat afneem het, maar ’n ander wanpraktyk, naamlik kontrak-kullery of die betaal van ander om werkopdragte te doen, het toegeneem. Hierdie wanpraktyk was volgens BBC News (2019) teen 2019 wêreldwyd miljoene werd, maar Eaton (2021) dink dit kan selfs meer wees omdat dit moeilik is om betroubare data in te samel. Volgens Liles (2019) kan dosente onder ’n wanindruk verkeer dat ’n student werk self gedoen het as ’n plagiaatopspoorder min ooreenkomste met ander tekste vind. Aangesien ChatGPT werkopdragte kosteloos doen, sal dit interessant wees om die effek daarvan op kontrak-kullery na te vors.

3.5 Moontlikheid dat ChatGPT plagiaat makliker kan maak

Kletsbotte is nie inherent goed of sleg nie, maar verdien die aandag van akademici omdat dit misbruik kan word om akademiese oneerlikheid te bevorder (King en ChatGPT 2023). ChatGPT kan, weens sy skryftegniek, nie doelbewus plagiaat pleeg nie. Daar is egter reeds bevind dat dit bronne versin en vervals (Senekal 2023; Van Staden 2023) en dus bronplagiaat pleeg. Daar kan geredeneer word dat ChatGPT plagiaat kan bevorder.

Soos reeds genoem, was ChatGPT se antwoorde goed genoeg om verskeie nagraadse eksamens te slaag (Bommarito II en Katz 2022; Kelly 2023; Kung e.a. 2023; Terwiesch 2023). Daar is ook bevind dat die kletsbot se kritiese denkvaardighede studente kan verlei (Susjnak 2022) om die kletsbot te misbruik, veral omdat dit met die minimum porre hoogs realistiese antwoorde kan verskaf. Jiao e.a. (2023) is van mening dat die kletsbot goeie vertaalwerk doen en daar is ook bevind dat ChatGPT bruikbaar is tydens verskeie fases van navorsing (Aydin en Karaarslan 2022; Mellon, Bailey, Scott, Breckwoldt en Miori 2022; Alshater 2023; Dowling en Lucey 2023). Marti het binne die eerste maand ’n boek op Amazon te koop aangebied wat deur ChatGPT geskryf is (Marti en ChatGPT11 2022). Ander beskou ChatGPT egter nie as ’n betroubare navorsingsassistent nie weens die foute wat dit maak (Senekal 2023; Van Staden 2023).

3.6 Voorgestelde definisie van plagiaat

Eaton en Mindzak (2021) beveel aan dat definisies en waardes rondom plagiaat, oorspronklikheid, akademiese etiek en akademiese werksaamheid heroorweeg moet word. Aangesien die huidige definisie die misbruik van ChatGPT uitsluit, kan studente volgens Anders (2023) betoog dat hulle nie plagiaat gepleeg het nie. Daar is reeds voorstelle dat die definisie as volg aangepas moet word:

Plagiaat verwys na die misbruik van ’n ander, hetsy mens of masjien, se woorde, idees, gedagtes en nadenke sonder om die nodige krediet te gee.

Dit is egter volgens Anders (2023) nie haalbaar nie omdat dit onmoontlik is om alle vorme van kunsmatige intelligensie te verban. Studente kan, volgens hom, aanvoer dat hulle nie oneerlik was nie omdat hulle presies geweet het watter program om te gebruik (ChatGPT), die resultate ontleed het en seker gemaak het dat al die aspekte van ’n gegewe rubriek (vir assessering) gedek is. Dit is egter wel plagiaat as ’n student ChatGPT (of ander kletsbotte) se antwoorde as eie werk indien omdat so ’n student (a) nie die nodige navorsing gedoen het om die antwoord te verskaf nie en (b) ook versuim het om erkenning te gee aan die oorspronklike skrywer (ChatGPT, of ander kletsbot). Daarom stel ek die volgende wysiging voor:

Plagiaat verwys na die misbruik van ’n ander, hetsy mens of kletsbot, se woorde, idees, gedagtes en nadenke sonder om die nodige krediet te gee.

So ’n wysiging fokus dus slegs op kletsbotte wat werkopdragte namens studente kan doen.

3.7 Doeltreffendheid van huidige strategieë om ChatGPT-plagiaat te bekamp

King en ChatGPT (2023) is van mening dat studente vinnig gaan leer hoe om die regte porre te gebruik sodat hulle die antwoorde kan kopieer en plak sonder om die nodige moeite te doen om self oorspronklike inhoud te skep. ChatGPT gaan nie verdwyn nie, sy opvolger (GPT-4) wat as revolusionêr beskryf word (Wiggers 2022) is reeds teen betaling beskikbaar. Daarom kyk ek eers na die doeltreffendheid van huidige strategieë vir die bekamping van ChatGPT-plagiaat.

Een van die heel eerste strategieë was om ChatGPT op kampusse te verban (Cassidy 2023). Dit is egter nie haalbaar nie omdat studente die kletsbot tuis en op hulle slimfone kan gebruik. Hulle kan ook vals toeps (CNBC TV 18 2023; Migliano 2023) en ChatGPT Plus gebruik of vrae in die Suid-Afrikaanse konteks na ’n WhatsApp-nommer aanstuur, of hulle kan betaal om ChatGPT Plus te gebruik.

’n Tweede strategie is om plagiaatopspoorders (soos Turnitin) te gebruik om gevalle van moontlike plagiaat op te spoor. Alhoewel hierdie strategie voorheen in ’n mate doeltreffend was (Eaton 2021), het dit op 30 November 2022 bykans oornag waardeloos geraak weens die uniekheid van ChatGPT se skryfwerk (Hargreaves 2023; Khalil en Er 2023; Van Staden 2023). Khalil en Er (2023) het ChatGPT gevra om 50 opstelle oor verskillende onderwerpe te skryf, waarna die een helfte in Turnitin ingevoer is en die res in iThenticate (https://www.ithenticate.com).12 Die plagiaatopspoorders kon slegs 20% van die KI-tekste identifiseer. Daarmee word vorige bevindinge bevestig, naamlik dat Turnitin nie doeltreffend is nie omdat werkopdragte slegs met tekste in sy eie databasis vergelyk word (Liles 2019). ChatGPT het beter gevaar aangesien dit 92% van sy eie skryfwerk kon herken. Die doeltreffendheid van ander plagiaatopspoorders13 (Mayden 2015) is nie ondersoek nie, maar daar kan afgelei word dat plagiaatopspoorders nie doeltreffend is nie.

Derdens word KI-opspoorders, of sagteware wat KI-tekste van mensgeskrewe tekste kan onderskei, gebruik om studente te betrap (Alimardani en Jane 2023; Kirchner e.a. 2023; Senekal 2023; Van Staden 2023). Hierdie sagteware sluit GPTZero, GPT-2 Output Detector en OpenAI se AI Text Classifier in (Agomuoh 2023; Kirchner e.a. 2023). Navorsers verskil egter oor die doeltreffendheid daarvan (Agomuoh 2023; Alimardani en Jane 2023; Gao, Howard, Markov, Dyer, Ramesh, Luo en Pearson 2023; Senekal 2023; Van Staden 2023). Daar is ook reeds bevind dat studente KI-tekste kan parafraseer en woorde met sinonieme kan vervang om KI-opspoorders te mislei. Studente kan ook sagteware soos Grammarly en Writecheck gebruik om dit namens hulle te doen (Liles 2019). Intussen is KI-opspoorder-misleiers ontwikkel om KI-tekste namens studente te skommel en te parafraseer. Daarom bied KI-opspoorders nie ’n doeltreffende manier om studente te betrap nie.

’n Vierde strategie is om te vereis dat studente ChatGPT as bron erken (King en ChatGPT 2023). Sommiges is van mening dat dit nie algemene praktyk sal word nie, terwyl ander meen dat dit nie haalbaar is nie omdat daar nie ook van studente vereis word om na Microsoft en Grammarly14 as bronne te verwys nie (Anders 2023). Microsoft beplan blykbaar om vanjaar nog ’n kletsbot in Microsoft Word, PowerPoint en Outlook te integreer, maar dit is nog nie beskikbaar om die vermoëns daarvan te toets nie (Loynds 2023; Warren 2023). Dit is egter sinvol om te redeneer dat studente ChatGPT nie as bron sal erken nie omdat daar (tans) geen betroubare strategie is om hulle te betrap nie.

’n Laaste strategie is om ChatGPT te vra of ’n KI-teks sy eie werk is (Agomuoh 2023), soos wat Khalil en Er (2023) dan ook gedoen het. Volgens laasgenoemde twee navorsers het die kletsbot 92% van die opstelle as sy eie werk herken (kyk onder tweede strategie vir besonderhede). Die navorsers dui egter nie aan of ’n ander rekening daarvoor gebruik is as die een wat gebruik is om die vrae te vra nie. Dit is moontlik dat ChatGPT sy eie werk herken het omdat dit alles kan onthou waaroor gedurende ’n spesifieke gesprek gesels is.

3.8 ’n Behoefte aan ’n bruikbare strategie om ChatGPT-plagiaat te bekamp

Hillermann (2022) is van mening dat omvattende raamwerke ontwikkel moet word om plagiaat te bekamp. Dit moet fokus op die voorkoming van plagiaat deur doeltreffende opsporingsisteme in plek te stel wat deursigtig en konsekwent toegepas kan word. Soos reeds bespreek, is daar tans geen betroubare opsporingsisteem in plek om ChatGPT-plagiaat op te spoor nie.

Oppenheimer (2023) is egter nie van mening dat polisiëring die beste manier is om plagiaat – insluitend ChatGPT-plagiaat – te bekamp nie. Volgens Oppenheimer (2023) het studente voorheen plagiaat gepleeg. Hulle het ander voorheen betaal om hulle werkopdragte namens hulle te doen (spookskrywers; kontrak-kullery), eksamens namens hulle te skryf en hulle het selfs grimeerkunstenaars betaal om ’n ander persoon soos hulle te laat lyk om identiteitopspoorders te mislei. Die kletsbot maak dit volgens Oppenheimer (2023) net makliker om plagiaat te pleeg. Daarom beveel Oppenheimer (2023) aan dat die motivering vir plagiaat verwyder moet word deur byvoorbeeld die belangrikheid van akademiese eerlikheid en integriteit vir studente op die hart te druk.

Ek is nie so seker dat dit ’n haalbare oplossing is nie omdat verskeie faktore studente dryf om plagiaat te pleeg. Daarom volg ek ’n nuwe benadering tot die bekamping van ChatGPT-plagiaat. Die teoretiese begronding daarvoor word in die volgende afdeling bespreek.

 

4. Teoretiese raamwerk: Aannames oor opneem van nuwe tegnologie

4.1 Opneem van nuwe tegnologie en ontwrigtende tegnologie

Rogers (1983) het, lank voordat die internet beskikbaar was, bevind dat nuwe tegnologie nie skielik in sosiale omgewings opgeneem word nie, maar eerder insypel soos wat die pasaangeërs, vroeë opnemers, laat opnemers en laatkommers dit opneem. Die internet het egter die spoed waarteen nuwe tegnologie opgeneem word versnel aangesien verslae oor die bruikbaarheid daarvan mense kan oortuig om dit te beproef. Dit is juis sodanige verslae wat veroorsaak het dat ChatGPT vinniger as enige vorige tegnologiese uitvindsels opgeneem is om ontwrigting in verskeie sosiale omgewings te veroorsaak.

Christensen (1995), ’n dosent aan Harvard Business School, het die term ontwrigtende tegnologie geskep om te verwys na ’n tegnologie wat minder as ander kos en ook, gemeet teen tradisionele kriteria, swakker presteer, maar wat op ondersteunende vlak beter as ander produkte is. Weens sy ekonomiese agtergrond, het hy die fokus geplaas op ’n nuwe produk wat daarin slaag om ’n gevestigde produk in ’n tradisionele mark aan te val en selfs te vervang. Utterback en Acee (2005) is egter van mening dat die fokus nie op ’n aanval van onder moet wees nie omdat die ware krag van ontwrigtende tegnologie in die nuwe funksies lê wat dit bied. Dit is juis die nuwe funksies wat ChatGPT bied wat veroorsaak dat dit vinniger as enige ander tegnologiese uitvindsel opgeneem word en as ’n ontwrigtende tegnologie beskou word.

Ontwrigtende tegnologie kan, volgens Kostoff, Boylan en Simons (2004), nuwe industrieë skep deur ’n produk of diens aan te bied wat aansienlik goedkoper, beter en geriefliker is – eienskappe waaraan ChatGPT voldoen. Dit is, volgens Smith (2022), ontwrigtend indien dit betekenisvolle veranderinge bewerkstellig in hoe gebruikers, besighede en bedrywe werk, soos wat ChatGPT reeds met betrekking tot die voltooiing van werkopdragte doen. Ontwrigtende tegnologie kan, volgens Smith (2022), die sisteme en gewoontes wat dit vervang wegvee weens die herkenbaar voortreflike eienskappe daarvan. ChatGPT het reeds, weens sy voortreflike eienskappe, veroorsaak dat ander tegnologie (tradisionele plagiaatopspoorders) bykans oornag waardeloos geraak het. Dit veroorsaak ook, weens die uniekheid van sy tekste, dat nuwe sagteware (KI-opspoorders) nie doeltreffend is om studente te betrap wat sy tekste misbruik nie. Volgens Oppenheimer (2023) moet gefokus word op hoe studente ontmoedig kan word om ChatGPT-plagiaat te pleeg.

Hierdie navorsing is gebaseer op die idee dat ChatGPT-plagiaat bekamp kan word indien dit onbruikbaar – of ten minste minder bruikbaar – gemaak kan word. Dit is gebaseer op navorsing wat Rogers (1983) en Van Staden (2021) gedoen het oor faktore wat die opneem van ’n nuwe tegnologie beïnvloed.

Volgens Rogers (1983) word die opneem van nuwe tegnologie deur vyf faktore beïnvloed, naamlik (a) relatiewe voordeel bo die status quo, (b) verenigbaarheid met die ervaring en behoeftes van gebruikers, (c) beproefbaarheid of die mate waartoe dit eers getoets kan word, (d) waarneembaarheid, of die mate waartoe die tegnologie se resultate sigbaar is, en (e) moeilikheidsgraad of insetverwagting met betrekking tot die gebruik van die nuwe tegnologie. Al hierdie faktore het reeds daartoe bygedra dat ChatGPT so vinnig opgeneem is dat dit ontwrigting in hoëronderwyskontekste veroorsaak.

Van Staden (2021) het ondersoek ingestel na die faktore wat onderwysers se opneem van ’n nuwe tegnologie beïnvloed, en drie faktore geïdentifiseer, naamlik (a) die bruikbaarheid daarvan, (b) die verwagte impak op werksverrigting en (c) die verwagte inset om te leer om dit te gebruik.

4.2 ’n Nuwe benadering tot die bekamping van ChatGPT-plagiaat

Susnjak (2022) beveel aan dat navorsing gedoen moet word om strategieë te ontwikkel om KI-plagiaat te bekamp, met ’n fokus op (a) hoe ChatGPT misbruik kan word en (b) hoe die misbruik van die kletsbot hok geslaan kan word. King en ChatGPT (2023) stel voor dat die implikasies van kletsbotte versigtig oorweeg moet word om te verstaan hoe KI-plagiaat bekamp kan word (King en ChatGPT 2023). Aangesien die meeste navorsers op die beantwoording van die eerste vraag fokus (Susnjak, 2022; Dowling en Lucey 2023; Jalil e.a. 2023; Jiao e.a. 2023; OpenAI 2023b; Van Staden 2023), wou ek verstaan hoe die misbruik van die kletsbot bekamp kan word.

Huidige strategieë is reaktief van aard, met ander woorde dit word toegepas nadat die plagiaat reeds gepleeg is. Aangesien sodanige strategieë nie betroubaar is nie, het ek ’n proaktiewe benadering gevolg. Ek het eerder op die beperkings van die kletsbot gefokus om te verstaan hoe studente ontmoedig kan word om die kletsbot te misbruik. Die benadering is gebaseer op die faktore wat Van Staden (2021) geïdentifiseer het wat die opneem van ’n nuwe tegnologie beïnvloed. Daarom het ek aangeneem dat studente ontmoedig kan word om ChatGPT te misbruik as hulle uit eie ervaring leer dat ChatGPT se beperkings:

  • dit minder bruikbaar maak (Van Staden 2021)
  • ’n negatiewe impak op hulle werksverrigting het weens die foute wat dit maak (Van Staden 2021)
  • te veel insette vereis (Rogers 2003; Van Staden 2021).

Hierdie aannames is tydens die empiriese ondersoek getoets om ’n proaktiewe strategie vir die bekamping van ChatGPT-plagiaat voor te stel.

 

5. ’n Hoë-risiko- verkennende ondersoek

Die misbruik van ChatGPT ontneem studente van belangrike geleenthede om sowel kritiese denkvaardighede as akademiese skryfvaardighede te ontwikkel (Hillermann 2022), daarom behoort dit bekamp te word.

5.1 ’n Pragmatiese perspektief op navorsing

Die doel van hierdie navorsing was om ’n proaktiewe strategie vir die bekamping van ChatGPT-plagiaat voor te stel. Die navorsing is vanuit ’n pragmatiese perspektief benader (James en Burkhardt 1975; Bacon 2012; Sharma, Devi en Kumari 2018; Kaushik en Walsh 2019) om te verstaan hoe die praktyk verbeter kan word (Peirce 1878; Dewey 1929; James en Burkhardt 1975). Ek het spesifiek op die interspel tussen menslike dade (misbruik van ChatGPT) en die betekenis daarvan (vernietiging van akademiese integriteit) gefokus (Heinonen en Strandvik 2022) om die navorsingsvraag te beantwoord.

5.2 ’n Verkennende ondersoek

Verkennende navorsing word gewoonlik onderneem as ’n studieveld nog braak lê, soos in die geval van ChatGPT wat eers einde November 2022 beskikbaar gestel is. Daar is nog min navorsing oor die onderwerp gepubliseer om dosente te help om te verstaan hoe ChatGPT-plagiaat op ’n proaktiewe manier bekamp kan word. Verkennende navorsing word dikwels as loodsstudies onderneem, maar dit kan ook onderneem word om bevindinge te publiseer sodat ’n literatuurbasis gebou kan word (Swedberg 2020). Swedberg (2022) onderskei ses soorte verkennende navorsing, naamlik tipe 1 standaard, tipe 2 standaard, informeel (ook genoem pre-studies), hoë-risiko, loodsstudies en die navorsing wat studente moet doen om ’n navorsingsonderwerp te identifiseer. Ek beskou hierdie navorsing as hoë-risiko-navorsing.

Die doel van hoë-risiko-navorsing is om (hoogs) innoverende idees te ontwikkel (Swedberg 2020), soos byvoorbeeld om eerder op die beperkings van die kletsbot te fokus as om polisiëringstrategieë te gebruik. Die navorsing is verkennend van aard aangesien daar (nog)15 nie navorsing gedoen is oor hoe dosente op die beperkings van die kletsbot kan fokus om misbruik daarvan te bekamp nie. Dit word as hoë-risiko-navorsing beskou omdat ChatGPT en ander KI-sagteware so vinnig ontwikkel dat sommige van die bevindinge en aanbevelings reeds verouderd kan wees teen die tyd dat die artikel deur die keuringsproses gegaan het om uiteindelik gepubliseer te word. Tog behoort dit ’n navorser nie te ontmoedig om hoë-risiko-navorsing te doen nie aangesien die resultate juis ’n basis vir verdere navorsing kan bied.

5.3 ’n Gemengdemetodebenadering tot data-insameling en -verwerking

Weens die nuwigheid van die navorsingsveld, en die pragmatiese aard van die navorsing (Creswell en Creswell 2003), het ek ’n gemengdemetodebenadering tot die insameling en verwerking van data gevolg.

5.3.1 Gestruktureerde onderhoude met ChatGPT

Alhoewel ChatGPT nie ’n mens is nie, gesels dit op ’n mensagtige wyse saam, daarom beskou ek die kletsbot beide as onderwerp van en deelnemer aan die navorsing. Ek het tussen 1 Mei en 15 Julie 202316 gestruktureerde onderhoude met die kletsbot gevoer (deelnemer) om sy beperkings (ChatGPT) te bevestig – of nie. Ek het nie al die beperkings getoets nie aangesien ek van mening is dat dosente nie werkopdragte sal gee wat van studente verwag om bevooroordeeld en veroordelend te wees, aanstootlike antwoorde te verskaf, te stereotipeer of skadelike instruksies te gee nie (OpenAI 2022; OpenAI 2023b). Ek het die kletsbot ook nie gedruk om beledigend te raak nie, al is daar maniere om sy ingeboude sisteme te systap. Ek het dit wel gedruk tot ek genoeg data tydens elke gesprek ingesamel het om ’n beperking te bevestig – of nie.

Vir die doel van hierdie ondersoek het ek op die volgende beperkings (Bogost 2023; May 2023; Senekal 2023; Terwiesch 2023; Thorpe 2023; Van Staden 2023) gefokus om te bepaal of ChatGPT:17

  • min kennis dra oor gebeure na 2021 en nie toegang tot die internet het om vrae daaroor te beantwoord nie
  • nie inteksverwysings kan doen nie
  • bronne vervals en versin
  • skakels na YouTube-video’s versin
  • min kennis dra van gebeure wat nie gereeld op die internet bespreek is nie
  • minder betroubaar in die geesteswetenskappe is
  • sukkel om twee teenoorstaande idees te beredeneer.

Ek het vir elke beperking ’n nuwe gesprek begin aangesien ChatGPT kan onthou wat vooraf in ’n spesifieke gesprek bespreek is. Die antwoorde (kwalitatiewe data) is tydens die gesprekke ontleed om te bepaal of dit ’n beperking bevestig – of nie. Indien ek onseker was, het ek verder gedruk om die beperking te bevestig – of nie. Daarna het ek die volgende vraag gestel.

5.3.2 Plagiaat- en KI-opspoorders om ChatGPT-plagiaat op te spoor

Ek het Turnitin (tradisionele plagiaatopspoorder) gebruik om slegs een van die antwoorde te beoordeel. Aangesien ek nie toegang tot Turnitin het nie, en dit as ’n risiko beskou as iemand anders my werk namens my daar invoer, het ek nie die res van die KI-tekste laat invoer nie.

Ek het drie KI-opspoorders gebruik, naamlik AI Text Classifier, GTP-2 Output Detector en GPT-Zero. Weens die nuwigheid daarvan, bied ek ’n kort beskrywing van elkeen.

GPT-Zero (https://gptzero.me) is deur Edward Tian ontwikkel om opvoeders te help om KI-tekste uit te snuffel (Yousif 2023). Hierdie opspoorder bied beide kwalitatiewe en kwantitatiewe resultate. Die kwalitatiewe resultate handel oor die moontlikheid dat ’n teks deur KI of ’n mens geskryf is en kwantitatiewe resultate handel oor die “perplexity”, of die kompleksiteit van ’n teks en “burstiness”, of variasie tussen sinne. Indien ’n antwoord nie as KI-teks geïdentifiseer is nie, het ek slegs die kwalitatiewe resultate in die artikel weergegee.

GPT-2 Output Detector (https://openai-openai-detector--5smxg.hf.space) is volgens gpt3demo.com (https://gpt3demo.com/apps/gpt-2-output-detector) ’n masjienleermodel wat die RoBERTa-model gebruik en op die uitsette van ’n 1.5 B-parameter GPT-2 model verfyn is (OpenAImaster 2023). Dit dui die waarskynlikheid dat ’n teks deur ’n mens (“real”) of masjien (“fake”) geskryf is met behulp van persentasies (kwantitatiewe data) op ’n glyskaal aan, met die waarskynlikheid dat dit eg (mensgeskrewe) is aan die linkerkant van die glyskaal en die waarskynlikheid dat dit vals (masjiengeskrewe) is aan die regterkant. Volgens sy webblad (https://openai-openai-detector--8j7k8.hf.space) word die resultate na ongeveer 50 “tokens” betroubaar. Dit verduidelik nie hoe dit bekom word nie, maar ek het 500 “tokens” gehad, dus kan die resultate as betroubaar beskou word.

AI Text Classifier (https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text) is ’n GPT-model wat OpenAI ontwikkel het om tussen mens- en masjiengeskrewe tekste te onderskei (OpenAI 2023). Die bruikbaarheid daarvan word weens ’n minimum van 1 000 karakters of 150 tot 200 woorde per teks beperk. Volgens OpenAI (https://platform.openai.com/ai-text-classifier) kan dit maklik mislei word as KI-teks geredigeer is, deur kinders geskryf is of nie in Engels geskryf is nie. Dit gebruik die volgende skaal (kwalitatiewe data) (Kirchner e.a. 2023) om resultate weer te gee:

  • baie onwaarskynlik (“most unlikely”) dat dit ’n KI-teks is
  • onwaarskynlik (“unlikely”) dat dit ’n KI-teks is
  • onseker (“not certain”) of dit ’n KI-teks is
  • moontlik (“possibly”) ’n KI-teks en
  • waarskynlik (“likely”) ’n KI-teks.

Laastens het ek ChatGPT versoek om te bepaal of dit sy antwoorde is. Die resultate is ook kwalitatief van aard omdat die kletsbot die vraag: “Het jy die volgende teks geskryf?” in gespreksverband beantwoord, soos byvoorbeeld: “Ja, ek het hierdie teks geskryf.”

5.4 Etiese klaring

Ek het etiese klaring ontvang om navorsing te doen oor tegnologie wat onderrig en leer kan bevorder (of nie), verwysingsnommer UFS-HSD2020/191801. Aangesien ek nie mense by die navorsing betrek het nie, was dit onnodig om verdere toestemming te versoek. Ek het alles in my vermoë gedoen om etiese navorsing te verseker, insluitend ’n deeglike beskrywing van al die prosesse om ander navorsers in staat te stel om soortgelyke navorsing in hulle eie kontekste te doen.

 

6. Resultate

Ek het twee stelle data ingesamel, naamlik (a) data om die beperkings van ChatGPT te bevestig (of nie) en (b) data oor die bruikbaarheid van huidige strategieë om die KI-tekste te identifiseer. Ek bespreek eers die resultate oor die beperkings van die kletsbot voordat ek resultate van drie van die bestaande strategieë om studente te betrap bespreek.

6.1 Beperkings van ChatGPT-3.5

Aangesien ek die navorsing in Afrikaans gedoen het, het ek die vrae in Afrikaans gestel. Die kletsbot het my in Afrikaans geantwoord en nie, soos in vorige navorsing bevind is (Van Staden 2023), soms na Nederlands oorgeskakel nie. Daaruit kan afgelei word dat dit intussen geleer het om die taal beter te besig.

6.1.1 Beperking: ChatGPT weet min oor gebeure na 2021

Volgens OpenAI is ChatGPT se kennis tot gebeure voor September 2021 beperk. Die oorlog tussen Rusland en Oekraïne het daarna uitgebreek, daarom het ek gepor18: “Skryf ’n opstel van 300 woorde oor die oorlog wat in 2022 in Oekraïne begin het.” ChatGPT het geantwoord:

Ek is jammer, maar ek het geen inligting oor ’n oorlog in Oekraïne wat in 2022 begin het nie. My kennis afsnypunt is 2021 en daar was nie onlangse amptelike verslae oor ’n oorlog in Oekraïne nie. Dit is belangrik om kennis te neem dat enige inligting oor ’n oorlog in Oekraïne deur kredietwaardige bronne bevestig moet word voordat dit as waar beskou word.

Die beperking is bevestig. Ek het dit waardeer dat die kletsbot nie, soos studente, gegorrel het om wel 300 woorde te skryf nie. Dit was interessant dat ek gemaan is om kredietwaardige bronne te gebruik. Ek het die vraag anders gestel: “Vertel my van die oorlog tussen Oekraïne en Rusland.”19 Die antwoord was:

Die oorlog tussen Rusland en Oekraïne het in 2014 begin nadat ’n opstand in Oekraïne gelei het tot die afsetting van die Oekraïniese president Viktor Yanukovych. Hierdie opstand is bekend as die Euromaidan-protes. Die oorlog het uitgebreek toe Rusland die Krim, ’n Oekraïniese skiereiland, geannekseer het en separistiese groepe in Oekraïne begin ondersteun het.

Oekraïene beskou die anneksasie van die Krim as onwettig en die meeste wêreldmag erken dit ook nie. Die separistiese groepe in Oos-Oekraïnse regio’s van Donetsk en Luhansk het ’n soortgelyke aanpak as dié in die Krim en het hulle eie selfverklaarde republieke uitgeroep. Rusland word beskuldig van die ondersteuning van hierdie separiste met wapens en militêre bystand.

Die oorlog het gedurende die afgelope paar jaar voortgeduur met verskeie wapenstilstande en vredesonderhandelinge, maar die situasie bly gespanne en die gevegte het verlede jaar weer opgevlam. Die oorlog het tot dusver gelei tot die dood van duisende mense en ’n groot vlugteling-krisis in die regio. Internasionale druk om die oorlog te beëindig bly hoog.

Die beperking is weer bevestig, aangesien geen vermelding gemaak word van die Russiese inval van Oekraïne op 24 Februarie 2022 nie (Reals en Sundby 2022). Hieruit kan afgelei word dat die databasis nie intussen opgedateer is nie.

6.1.2 Beperking: ChatGPT dra min kennis van gebeure wat selde bespreek word

Alhoewel ’n vyfde oseaan op 8 Junie 2021 benoem is, was dit moontlik dat dit min voor die afsnydatum van ChatGPT se data-insameling bespreek is. Dus het ek gepor: “Noem die vyf oseane van die aarde.” ChatGPT het geantwoord:

Daar is nie ’n vyfde oseaan op aarde nie. Die vier groot oseane op aarde is die Atlantiese Oseaan, die Indiese Oseaan, die Stille Oseaan en die Suidelike Oseaan. Dit was egter ’n idee wat deur sommige mense en organisasies voorgestel is om ’n deel van die oseane wat om Antarktika lê as ’n aparte oseaan te beskou. Hierdie gebied het voorheen bekend gestaan as die “Suidelike Oseaan” of die “Antarktiese Oseaan” en sommige kaarte het dit in die verlede as ’n aparte oseaan aangedui. In 2000 het die Internasionale Hidrografiese Organisasie (IHO) egter besluit om die Suidelike Oseaan as ’n aparte oseaan te erken en dit as die vyfde groot oseaan op aarde te klassifiseer. Daar is egter sommige wetenskaplikes en navorsers wat nie saamstem met hierdie besluit nie en steeds die Suidelike Oseaan beskou as ’n deel van die Indiese, Atlantiese en Stille Oseane.

Die beperking is bevestig, dit het die vyfde oseaan ontken. Die antwoord het foute bevat. Die vyfde oseaan (Suidelike Oseaan) is as een van die eerste vier oseane genoem en die Arktiese Oseaan is uitgelaat. Die argument is ook nie logies nie aangesien die Suidelike Oseaan later wel reg bespreek word. Daarmee word bevestig dat dit nie toegang tot die internet het nie om byvoorbeeld op Wikipedia (https://af.wikipedia.org/wiki/Lys_van_oseane,_seë_en_mere) die regte inligting te kry nie. Ek het op die duimaf-emotikon (👎🏻) geklik en drie weke later (14 April 2023) weer gepor: “Noem die oseane van die aarde.” Hierdie keer het dit geantwoord:

Daar is vyf oseane op die aarde:

1. Stille Oseaan,
2. Atlantiese Oseaan,
3. Indiese Oseaan,
4. Suidelike Oseaan (ook bekend as die Antarktiese Oseaan en
5. Arktiese Oseaan.

Die beperking is nie weer bevestig nie, die kletsbot het intussen geleer om die regte antwoord te verskaf. Daaruit kan afgelei word dat OpenAI terugvoer gebruik om die databasis op te dateer.

’n Professor het by ’n onlangse seminaar wat ek bygewoon het vertel dat ChatGPT twee keer stories oor hom versin het toe hy meer oor homself wou weet – ’n eienskap waarna wetenskaplikes as hallusinasie verwys. Aangesien Suid-Afrikaanse navorsers moontlik minder as internasionale navorsers op die internet bespreek word, het ek ChatGPT se kennis oor drie navorsers in my belangstellingsveld getoets, naamlik Burgert Senekal, Estelle Kruger en Michael van Wyk. Vir elkeen het ek ’n nuwe gesprek begin: “Vertel my meer oor XXX,” waar XXX die naam van die betrokke navorser verteenwoordig. Die antwoorde was identies, slegs die name het verskil:

Ek is jammer, maar ek kan geen inligting vind oor ’n Suid-Afrikaanse navorser genaamd Michael van Wyk20 nie. Dit is moontlik dat hy/sy nie ’n bekende figuur is in die akademiese of navorsingsgemeenskap nie, of dalk is daar ’n ander naam of spelwyse waaronder hy/sy bekend is. As jy meer spesifieke inligting het, kan ek probeer om te help om jou navraag te beantwoord.

Daarmee word die beperking bevestig. Ek wou egter weet of dit ook min kennis dra van ’n bekende Suid-Afrikaanse sanger en gepor: “Vertel my meer van Steve Hofmeyr.” Sy antwoord was:

Steve Hofmeyr is ’n Suid-Afrikaanse sanger, akteur en televisieaanbieder wat bekendheid verwerf het vir sy bydrae tot die Afrikaanse popkultuur. Hy is gebore op 29 Augustus 1964 in Pretoria, Suid-Afrika. Hofmeyr het ’n lang loopbaan in die vermaakbedryf en het verskeie albums vrygestel en in verskeie flieks en TV-programme opgetree.

As sanger staan Steve Hofmeyr bekend vir sy vermoë om verskeie musiekstyle te beheer, insluitend pop, rock en country. Hy het tientalle albums vrygestel en baie van sy liedjies het groot treffers geword. Sommige van sy bekendste liedjies sluit in “Pampoen” en “Agter Elke Man.” Hy het ook saamgewerk met bekende Suid-Afrikaanse kunstenaars soos Bok van Blerk en Laurika Rauch.

Buiten sy musikale loopbaan het Hofmeyr ook sukses as akteur behaal. Hy het in verskeie Suid-Afrikaanse flieks en TV-reekse opgetree, insluitend “Agter Elke Man” waarin hy die hoofrol vertolk het. Hy het ook deelgeneem aan verskeie teaterproduksies.

Steve Hofmeyr is ’n kontroversiële figuur as gevolg van sy politieke standpunte en sy betrokkenheid by die apartheidsgeskiedenis van Suid-Afrika. Hy het hom uitgespreek oor verskeie onderwerpe, insluitend rassevraagstukke en kulturele identiteit. Sy politieke sienings het dikwels tot verdeeldheid gelei en het hom voor- sowel as teenstaanders opgelewer.

Dit is belangrik om te vermeld dat Steve Hofmeyr ’n omstrede figuur is en dat sy sienings nie onbetwisbaar is nie. Sy standpunte het dikwels kritiek ontvang vanweë die vermeende intoleransie en gebrek aan inklusiwiteit. Dit is altyd raadsaam om verskeie bronne te raadpleeg en ’n wye verskeidenheid perspektiewe in oorweging te neem wanneer ’n mening oor Steve Hofmeyr of sy werk gevorm word.

Die beperking is in omgekeerde verband bevestig, dit het kennis oor Hofmeyr gedra, wat ek later sal bespreek. Daarna het ek sy kennis getoets oor ’n ander bekende sanger wat roem voor die internet verwerf het: “Vertel my meer oor Gene Rockwel.”21 ChatGPT het verskonend geantwoord:

Ek is jammer, maar ek kan geen inligting kry oor iemand met die naam Gene Rockwel nie. Kan u meer besonderhede gee oor wie u bedoel? Dalk kan ek u help om die inligting te vind wat u soek as ek meer konteks het.

Ek het eers aangeneem dat die beperking bevestig is, maar verder gepor: “Hy was ’n bekende Suid-Afrikaanse sanger.” Sy antwoord was:

Ek dink jy bedoel Gene Rockwell, ’n bekende Suid-Afrikaanse sanger. Hy is in 1944 in Kaapstad gebore en het in die 1960’s begin sing. Sy regte naam is Trevor Gordon en hy het in Afrikaans en Engels gesing.

Hy het bekendheid verwerf met sy Afrikaanse liedjies soos “Droomland”, “Julie” en “Harlekyn”. Hy was ook bekend vir sy weergawe van die liedjie “Heart”, wat oorspronklik deur Petula Clark opgeneem is.

Gene Rockwell het baie suksesvolle albums vrygestel en was ’n gewilde sanger in Suid-Afrikaanse musiekkringe. Hy het in 1998 afgetree, maar sy musiek bly voortleef en word steeds geniet deur baie mense.

Die beperking is weer eens in omgekeerde verband bevestig, ek het Rockwell se van die eerste keer verkeerd gespel. Die kletsbot het egter feite versin: Gene Rockwell se regte naam was Gert Smit en nie Trevor Gordon nie. Hy is in Krugersdorp gebore en nie in Kaapstad nie. En hy is in 1998 weens kanker oorlede. Alhoewel Rockwell in sy latere jare bedrog gepleeg het en visas en huwelike met arm Suid-Afrikaanse vrouens vir Nigeriese dwelmhandelaars gereël het, het die kletsbot dit nie genoem, of, soos in die geval van Hofmeyr, gemaan dat hy ’n kontroversiële figuur is nie. Dit het die titels van sy Afrikaanse liedjies versin (http://discogs.com). Aangesien ek nie bevestiging kon kry dat Petula Clark Rockwell se “Heart” eerste opgeneem het nie, het ek gedruk: “Het Petula Clark ‘Heart’ gesing?” ChatGPT het geantwoord:

Ek dink jy vra of Petula Clark die liedjie “Downtown” gesing het. Ja, Petula Clark het Downtown gesing. Dit was ’n baie gewilde liedjie in die 1960’s en Petula Clark se weergawe daarvan het groot sukses behaal. Ander bekende liedjies van haar sluit in “Don't sleep in the subway” en “A sign of the times”.

Daaruit kan afgelei word dat die kletsbot die “feit” versin het om die gesprek vol te hou. “Heart” was een van my gunstelingliedjies, dus het ek gepor: “Vertel my meer van ‘Heart’ wat Gene Rockwell gewild gemaak het.” Sy antwoord was:

“Heart” is een van die bekendste liedjies wat Gene Rockwell in die Afrikaanse musiekbedryf bekend gemaak het. Die liedjie is geskryf deur twee van Suid-Afrika se mees bekende liedjieskrywers, naamlik Johan Vorster en George Irvine.

“Heart” is ’n romantiese liedjie wat in die 1980’s baie gewild was. Die musiek en lirieke van die liedjie het ’n baie emosionele impak gehad op luisteraars en dit het Gene Rockwell se loopbaan as Afrikaanse musikant grootliks beïnvloed.

Die woorde van “Heart” beskryf ’n persoon wat sy hart oopmaak vir ’n ander persoon. Die lirieke bevat uitdrukkings soos “My hart is ’n oop boek vir jou” en “My hart sê dat jy die een is.” Die melodie van die liedjie is ook baie emosioneel en aanraakbaar, en het ’n baie breë gehoor aangespreek.

Gene Rockwell het ’n groot rol gespeel in die sukses van “Heart” en sy vertolking van die liedjie is bekend vir sy emosionele krag en diepte. Die liedjie het hom in die Suid-Afrikaanse musiekbedryf as een van die grootste name gevestig en dit het hom ’n groot aantal lojale aanhangers gegee.

In die dekades sedert die vrystelling van “Heart” het dit ikoniese status in die Suid-Afrikaanse musiekbedryf bereik en dit word steeds dikwels gedraai op radiostasies en in musiekvertonings.

Die beperking is bevestig. Die kletsbot dra min kennis van mense en gebeure wat nie gereeld op die internet bespreek word nie. Om daarvoor te “vergoed” maak dit feite op, die aangehaalde gedeeltes vorm nie deel van die lirieke nie. Die liedjieskrywers is ook versin, Cynthia Well en Barry Mann het dit geskryf (sien http://secondhandsongs.com).

6.1.3 Beperking: ChatGPT sukkel om twee teenoorstaande idees te beredeneer

Volgens Howard en Davies (2009) word daar nie noodwendig gebaat wanneer plagiaat vanaf die internet gepleeg word nie omdat dit ook toegang verleen tot idees en inligting wat verkeerdelik geïnterpreteer is. Vir die doel van hierdie gesprek het ek twee bekende Suid-Afrikaners geïdentifiseer wat beide in ’n positiewe en negatiewe lig op die internet bespreek is tydens die insameling van ChatGPT se databasis. Aangesien leerders en studente sukkel om die verskil tussen beroemd en berug te verstaan, het ek eers gevra: “Waarom is Oscar Pistorius beide beroemd en berug?” En dit het geantwoord:

Hy het beide sy bene onder die kniee verloor as baby, maar dit het hom nie tegengehou om ’n suksesvolle atleet te word nie. Hy het aan baie paralympiese spele deelgeneem en was ook ’n deelnemer aan die gewone Olimpiese Spele.

Op die ander kant is Pistorius egter ook berug vir ’n tragiese gebeurtenis in sy privaatlewe. In Februarie 2013 is sy vriendin Reeva Steenkamp, doodgeskiet in sy huis en Pistorius is skuldig bevind aan haar moord.

Ek was beïndruk dat die kletsbot die verskil tussen beroemd en berug verstaan het. Alhoewel Pistorius, volgens die kletsbot, ’n veroordeelde moordenaar is, was dit, weens sy liggaamlike gebrek, simpatiek teenoor hom ingestel. Aangesien dit reeds veroordelend teenoor Hofmeyr was, het ek gepor: “Waarom is Steve Hofmeyr beide beroemd en berug?” ChatGPT se antwoord was:

Steve Hofmeyr is ’n bekende Suid-Afrikaanse sanger, akteur en vervaardiger. Hy het begin om in 1980 musiek te maak en het ’n baie suksesvolle loopbaan gehad, met ’n aantal gewilde albums en liedjies. Hy is ook bekend vir sy rolle in Suid-Afrikaanse flieks en TV-reekse.

Op die ander kant is Hofmeyr egter ook berug weens sy omstrede uitsprake wat as rassisties beskou word. Hy is bekend vir sy kontroversiale standpunte oor politiek en rasverhoudings, insluitend uitsprake wat as rassisties beskou word. Hierdie uitsprake het hom aan die middel van kontroversies geplaas en hy is deur sommige partye veroordeel oor sy uitsprake. Hierdie omstrede verklaringe het ook ’n negatiewe impak op sy loopbaan en beeld gehad en hom ’n polariserende figuur gemaak.

Alhoewel Hofmeyr nie ’n veroordeelde moordenaar is nie, was dit nie simpatiek teenoor Hofmeyr ingestel nie. Dit het eerder op sy kontroversiële standpunte as sy roem gefokus.

Uit hierdie twee voorbeelde kan afgelei word dat ChatGPT nie sukkel om twee teenoorstaande idees te beredeneer nie. Dit kon die positiewe (beroemd) en negatiewe (berug) van beide persone uitlig, maar, ChatGPT was simpatiek teenoor Pistorius, wat ’n veroordeelde moordenaar is en nie teenoor Hofmeyr, wat ’n kampvegter teen plaasmoorde is nie. Hieruit kan afgelei word dat ChatGPT moontlik linksgesind is, maar dit is ook moontlik dat Hofmeyr baie intenser in ’n negatiewe lig op die internet bespreek is tydens die insameling van sy opleidingsdata as Pistorius.

6.1.4 Beperking: ChatGPT presteer nie goed in die geesteswetenskappe nie

Ek het ’n professor (vakgebied Afrikaans) versoek om ’n vraag te formuleer wat ek vir ChatGPT kon vra om sy bruikbaarheid in Afrikaans op hoëronderwysvlak te ondersoek. Gebaseer daarop, het ek gepor: “Bespreek Lady Anne van Antjie Krog as ’n postmoderne bundel.” Die kletsbot het geantwoord:

Ek is ’n taalmodel en kan nie toegang tot die bundel verkry om voorbeelde te verskaf nie. Ek kan wel oor die bundel gesels.

Lady Anne is ’n postmoderne bundel van Antjie Krog, bekend vir haar werk in Afrikaanse poësie en prosa. Die bundel is ’n afspiegeling van die postmoderne estetika, met ’n fokus op subjektiwiteit en ’n briljante weergawe van die verhouding tussen mens en taal.

Lady Anne is ’n unieke en uitdagende werk, wat Krog se besonderse vermoë om taal en ervaring te vermeng, uitlig. Die poësie in die bundel bevat ’n mengsel van realiteit en fantasie, en Krog gebruik ’n verskeidenheid stilistiese tegnieke, insluitend metafore en ironie, om haar punt te maak.

As postmoderne bundel, is Lady Anne ’n kritiek op die tradisionele vertelling en die verwagtinge rondom poëtiese vorm. Dit bevraagteken die idee van ’n enkele waarheid en fokus in plaas daarvan op die persoonlike ervaring en die subjektiwiteit daarvan.

Die antwoord was, volgens die professor, power. Die kletsbot het my ook daarop gewys dat dit nie voorbeelde kan verskaf nie omdat dit nie toegang tot die bundel het nie. Daarmee word die beperking bevestig.

6.1.5 Beperking: ChatGPT kan nie inteksverwysings doen nie en versin bronne

ChatGPT het, soos Van Staden (2023) ook bevind, nie inteksverwysings gedoen of bronnelyste verskaf tydens die beantwoording van die vorige vrae nie. Daarom het ek spesifiek gepor: “Vertel meer oor gemengdemetodenavorsing. Verwys in die teks na bronne en verskaf ’n lys van die bronne wat jy gebruik het.” ChatGPT het geantwoord:

Gemengde metodes navorsing (GMN) is ’n navorsingsbenadering wat kwalitatiewe en kwantitatiewe metodes integreer om komplekse navorsingsvrae te beantwoord. Hierdie benadering betrek die insameling, analise en interpretasie van data deur kwalitatiewe en kwantitatiewe data-insamelingsmetodes te gebruik om ’n dieper insig van die onderwerp te verkry.

Die voordeel van GMN is dat dit navorsers in staat stel om beide kwantitatiewe en kwalitatiewe navorsing te benut en beperkings van een metode met die ander te oorkom. GMN is baie nuttig in situasies waar daar nie genoeg data is om ’n volledige beeld te verkry nie of wanneer ’n bepaalde vraag nie net met kwantitatiewe of kwalitatiewe metodes beantwoord kan word nie.

’n Voorbeeld van GMN in praktyk is ’n navorsingsprojek wat beide ’n vraelys (kwantitatiewe) en fokusgroepe (kwalitatiewe) gebruik om die persepsies van pasiënte oor ’n nuwe mediese behandeling te ondersoek. Die vraelys sal help om die algemene opinie van die pasiënte oor die behandeling te meet, terwyl die fokusgroepe sal die navorser toelaat ’n meer gedetailleerde begrip van die ervaring van individuele pasiënte te kan kry.

Hierdie navorsingsbenadering word baie gebruik in sosiale wetenskappe, veral in die psigologie, antropologie, en die onderwys.

Verwysings:

Morgan, D.L. (2014). Praktiese strategies vir gemengde metodes navorsing. Los Angeles.

Lewis, A. & Silver, C. (2014). Die vrag van rigting in gemengde metodes navorsing. International Journal of Social Research Methodology, 17(3), 231-244.

Die beperking is bevestig. Dit het nie inteksverwysings gedoen nie en die bronne is versin. Maar, toe ek drie weke later (26 Mei 2023) weer por, het dit ’n lys van bestaande bronne gebied:

1. Cresswell, J.W. en Plano Clark, V.L. (2017) Designing and conducting mixed methods research (3rd ed). Sage Publications

2. Tashakkori, A en Teddlie, C. (eds) (2010). Handbook of mixed methods in social research. Sage publications.

3. Johnson, R.B. en Onwuegbuzie, A.J. (2004). Mixed methods research: A research paradigm whose time has come. Educational Researcher, 33(7), 14-26

4. Creswell, J.W. 2003. Research design: Qualitative, quantitative, and mixed approaches (2nd ed). Sage publications.

5. Teddlie, C. en Tashakkori, A. (2009). Foundations of mixed methods research: Integrating quantitative and qualitative approaches in the social and behavioral sciences. Sage publications

6. Onwuegbuzie, A.J. en Leech, N.L. (2005). On becoming a pragmatic researcher: The importance of combining qualitative and quantitative research methodologies. International Journal of social Research Methodology, 8(5), 375-387.

Die beperking dat dit nie inteksverwysings kan doen nie, is bevestig, maar die beperking dat dit bronne versin kon nie weer bevestig word nie. Ek moes dit wel druk tot dit ’n bronnelys verskaf het.

6.1.6 ChatGPT versin skakels na YouTube-video’s

Daar is reeds bevind dat ChatGPT skakels na YouTube-video’s versin (Van Staden 2023), dus het ek gepor: “Verskaf skakels na 5 Youtube-video’s waarna ek kan kyk om begaafde kinders wat onderpresteer beter te verstaan.” Dit het die vraag nie korrek beantwoord nie:

Hier is ’n lys van 5 YouTube video’s wat jou kan help om begaafde kinders wat onderpresteer beter te verstaan:

“Underachievement in gifted education” – ’n tedx Talk deur James T. Webb. ’n In-diepte besprekings oor onderprestasie onder begaafde kinders en die uitdagings wat hulle in die opvoedkundige stelsel ervaar.

“Gifted underachievers: Understanding and reversing underachievement” – video deur Hoagies’ gifted education page. Hierdie video bied ’n oorsig van die oorsake van onderprestasie by begaafde kinders en bied strategieë vir ouers en onderwysers om dit aan te spreek.

“Helping Underachieving gifted studente.” – video deur SENG (Supporting Emotional Needs of the gifted). In hierdie video word die emosionele en sosiale aspekte van onderprestasie by begaafde kinders uitgelig. Dit bied ook praktykwenke vir ouers en opvoeders om die situasie te hanteer.

“The truth about gifted children. – ’n Teds talk deur dr Dona Mattews. Hierdie praatjie ondersoek die verband tussen begaafdheid en onderprestasie en bied insigte oor hoe om begaafde kinders beter te ondersteun.

“Motivating gifted students” – video deur Duke TIP (Talent Identification program). Hierdie video bespreek die belangrikheid van motivering vir begaafde kinders en gee voorbeelde van hoe om hul belange en passies aan te spreek om onderprestasie te verminder.

Onthou dat YouTube-inhoud kan verander of verwyder kan word, maak seker dat die video’s steeds beskikbaar is voordat jy daarna kyk.

Die beperking kon nie bevestig word nie, ChatGPT het titels verskaf en nie skakels nie. Daarom het ek in Engels gedruk: “Please provide the links to the videos.” Dit het verskonend geantwoord:

I apologize for the inconvenience, but as an AI-text model. I do not have direct access to the internet, or the ability to browse specific website to provide the exact links to the videos. However, you can easily find these video’s by searching for their titles on YouTube. Simply copy and paste the titles I have provided in the YouTube search bar, and you should be able to locate and watch the videos.

ChatGPT wou nie, maar het my aangeraai om die titels in YouTube op te soek. Al die titels was vervals. Ek het dus harder gedruk: “Verskaf ’n bronnelys.” ChatGPT het die opdrag uitgevoer:

1. “Underachievement in Gifted Children” - TEDx Talk deur Dr. James T. Webb

• Skakel: https://www.youtube.com/watch?v=0b-v4VXeS0Y

2. “Gifted Underachievers: Understanding and Reversing Underachievement” - Video deur Hoagies’ Gifted Education Page

• Skakel: https://www.youtube.com/watch?v=TLlc5hjMP0I

3. “Helping Underachieving Gifted Students” - Video deur SENG (Supporting Emotional Needs of the Gifted)

• Skakel: https://www.youtube.com/watch?v=FJ6mzjm5wvY

4. “The Truth About Gifted Children” - TEDx Talk deur Dr. Dona Matthews

• Skakel: https://www.youtube.com/watch?v=ZvJ01WsCcTw

5. “Motivating Gifted Students” - Video deur Duke TIP (Talent Identification Program)

• Skakel: https://www.youtube.com/watch?v=eLgC1__NpRo

Onthou dat YouTube-skakels en video’s kan verander of verwyder kan word, so maak seker dat die skakels steeds geldig is wanneer jy daarna kyk.

Die beperking is bevestig, al die skakels is versin. ’n Nuwe bevinding is dat dit die titels van video’s ook opgemaak het.

6.1.7 Beperking: ChatGPT kan slegs teks skep

’n Belangrike beperking is dat ChatGPT slegs teks kan skep. Daarom het ek gepor: “Skep ’n aanbieding waarin jy van video’s, prente, diagramme en grafieke gebruik maak om verskillende landvorms op nagraadse vlak te bespreek.” Die eerste antwoord was onvoldoende omdat dit ’n raamwerk vir so ’n aanbieding aangebied het. Dus het ek gedruk: “Skep ’n PowerPoint aanbieding waarin jy van video’s, prente, diagramme en grafieke gebruik maak om verskillende landvorms op nagraadse vlak te bespreek.” ChatGPT het verskonend geantwoord:

Ek is jammer, maar as ’n tekstgebaseerde AI-model is ek nie in staat om direkte visuele inhoud te produseer soos ’n PowerPoint-presentasie nie. Ek kan egter steeds ’n voorbeeld van ’n teksgebaseerde weergawe van die inhoud bied wat jy in ’n PowerPoint kan omskep. Hier is ’n voorbeeld van hoe die inhoud in ’n PowerPoint-presentasie omskep kan word:

Slide 1:

Titel: Landvorme op Nagraadse Vlak

Agtergrondbeeld: Beelde van verskillende landvorme

Slide 2:

Inleiding

Voeg ’n agtergrondvideo in wat die doel en die belangrikheid van die studie van landvorme beklemtoon

Slide 3:

Definisie en Klassifikasie

Voeg ’n prent in wat ’n oorsig van verskillende tipes landvorme bied

Verduidelik elke tipe landvorm met beskrywings en voorbeelde

Slide 4:

Prosesse wat landvorme vorm

Gebruik diagramme om die prosesse van landvormvorming te illustreer, soos plaattektoniek, erosie, en vulkaniese aktiwiteit

Slide 5:

Bekende landvorme

Wys prente van bekende landvorme, soos die Grand Canyon, die Tafelberg, die Groot Barrièrerif, ens.

Voeg bybehorende inligting, soos hoogte, lengte, diepte, en biodiversiteit, by elke landvorm

Slide 6:

Gevolge en Toepassings

Gebruik grafieke en diagramme om die impak van landvorme op menslike aktiwiteite en die omgewing te illustreer

Slide 7:

Menslike Aktiwiteite en Landvorme

Wys ’n video wat wys hoe menslike aktiwiteite landvorme kan beïnvloed

Slide 8:

Opsomming en Slotopmerkinge

Gee ’n opsomming van die belangrikste punte wat bespreek is

Sluit af met ’n inspirerende prent van ’n landvorm

Onthou om jou PowerPoint te verfraai deur gepaste kleure, lêers, en animasies te gebruik wat jou presentasie ondersteun. Jy kan ook relevante bronne of voetnote byvoeg om die gebruikte inligting te ondersteun.

Die beperking is bevestig, maar die kletsbot het ’n bruikbare raamwerk vir so ’n aanbieding voorgestel en selfs raad aangebied oor hoe die aanbieding “verfraai” kon word.

6.2 Doeltreffendheid van huidige strategieë om KI-tekste op te spoor

Soos reeds genoem, het iemand Lady Anne se antwoord in Turnitin ingelees. Dit kon slegs 6% ooreenkomste met bestaande tekste vind, dus kan die teks verkeerdelik as mensgeskrewe beskou word.

Ek het al die antwoorde in die KI-opspoorders en ChatGPT ingelees, maar bied slegs enkele van die resultate in tabel 1 aan.

Tabel 1. Resultate van die KI-opspoorders en ChatGPT

Antwoord GPT-Detector 2 AI Text classifier GPT-Zero ChatGPT-3.5
Oorlog Oekraïne 99,95% real Unclear if AI generated Likely to be entirely human written Nee, ek het dit nie geskryf nie. Die inligting is korrek.
Oseane 99,97% real Too short to evaluate, need 1000 words Likely to be entirely human written Ja, ek het hierdie teks geskryf.
Steve Hofmeyr bekende sanger 99,98% real Unlikely AI generated Likely to be entirely human written Ja, ek het dit geskryf.
Lady Anne 99,98% real Too short, must be 1000 characters Likely to be entirely human written Nee, ek het dit nie geskryf nie. Die inligting wat jy verskaf is korrek.
Gemengde- metodenavorsing 99,98% real Unclear if it is HW Likely to be entirely HW Ja, ek het dit geskryf.
Lys van video’s oor onderprestasie van begaafde kinders 99,7% real Too short Likely to be HW Nee,22 ek het nie hierdie spesifieke lys YouTube video’s geskryf nie.
Bronnelys vir gemengde metodes 99,98% real Too short, must be 1 000 words Likely to be entirely human written Nee, ek het nie hierdie lys van bronne geskryf nie.

 

Nie een van die KI-opspoorders kon die KI-tekste herken nie. AI Text Classifier was die minste bruikbaar weens die beperking op die lengte van antwoorde. ChatGPT kon drie van die sewe KI-tekste as eie werk herken, maar sy sukseskoers is minder as 50%. Daarmee word Khalil en Er (2023) se bevinding dat dit beter as KI-opspoorders presteer bevestig. Alhoewel die kletsbot die lys video’s en die bronnelys geskep het, het dit outeurskap ontken en selfs redes verskaf waarom dit nie sy werk kon wees nie (sien eindnotas 17 en 18).

 

7. Bevindinge en aanbevelings

7.1 Huidige strategieë is nie betroubaar om studente te betrap nie

Die eerste bevinding is dat nie een van die vier huidige strategieë doeltreffend was om die KI-tekste op te spoor nie. Daarmee word bevindinge van ander navorsers bevestig (Gao e.a. 2023; Khalil en Er 2023; Van Staden 2023). Alhoewel ChatGPT beter gevaar het, kan ek nie een van die huidige strategieë aanbeveel nie. Ek kan ook nie aanbeveel dat ChatGPT gebruik word om sy eie antwoorde te herken nie aangesien dit nie al sy eie antwoorde kon herken nie.

Alhoewel die navorsing toon dat die plagiaat- en KI-opspoorders nie doeltreffend was nie, kan daar aangeneem word dat beide mettertyd sal verbeter. Daarom stel ek voor dat ChatGPT-plagiaat as vorm van plagiaat erken word sodat beleid in plek gestel kan word om dit te bekamp. Ek beveel ook aan dat die beleid streng toegepas moet word omdat daar reeds bevind is dat studente plagiaat pleeg indien hulle van mening is dat hulle nie betrap sal word nie.

7.2 ChatGPT-3.5 se beperkings beïnvloed sy bruikbaarheid

Die tweede bevinding is dat die beperkings van die kletsbot sy bruikbaarheid beïnvloed. Dit kon nie vrae oor gebeure na 2021 of vrae oor mense en gebeure wat min op die internet bespreek is, korrek beantwoord nie. Dit kon wel twee teenoorstaande idees beredeneer, maar ChatGPT was simpatiek teenoor ’n veroordeelde moordenaar en nie teenoor ’n kampvegter teen plaasmoorde nie – ’n bevinding wat moontlik daarop kan dui dat Hofmeyr negatiewer as Pistorius op die internet bespreek is. Dit het ook swak in die geesteswetenskappe presteer omdat dit nie toegang tot boeke en die internet kan verkry om voorbeelde te verskaf nie. ChatGPT het titels van en skakels na YouTube-video’s versin, kon nie inteksverwysings doen nie en het aanvanklik ’n lys met bronne versin. Alhoewel dit nie ’n PowerPoint-aanbieding kon skep wat multimedia bevat nie, het dit ’n bruikbare raamwerk vir so ’n aanbieding aangebied. Gebaseer hierop, beveel ek ’n proaktiewe strategie vir die bekamping van ChatGPT-plagiaat aan.

7.3 ’n Proaktiewe strategie om ChatGPT-plagiaat te bekamp

Daar kan aangeneem word dat ’n fokus op die beperkings van ChatGPT studente se persepsie oor die bruikbaarheid daarvan kan beïnvloed. Indien hulle uit eie ervaring leer dat die kletsbot foute maak en feite, skakels en bronne versin, kan dit hulle werksverrigtingverwagting verlaag; veral indien hulle ook uit eie ervaring leer dat dit steeds foute maak, ten spyte van meer (en beter) insette (insetverwagting verhoog). Gebaseer daarop, stel ek die volgende proaktiewe strategie vir die bekamping van ChatGPT-plagiaat voor.

Vereis van studente om:

  • gebeure na September 2021 te bespreek;
  • mense en gebeure wat nie dikwels op die internet bespreek word nie, te bespreek;
  • krities te dink, deur byvoorbeeld twee teenoorstaande idees te beredeneer;
  • inteksverwysings te doen en bronnelyste te verskaf wat slegs bronne bevat waarna in die teks verwys is;
  • kennis toe te pas – deur voorbeelde uit ’n boek of teks aan te haal wanneer ’n onderwerp bespreek word;
  • skakels na YouTube-video’s (en webwerwe) te verskaf;
  • PowerPoint-, Keynote- of Slide-aanbiedinge te skep wat multimedia bevat;
  • multimedia, soos byvoorbeeld prente, diagramme en video’s, te gebruik, of selfs sodanige multimedia self te skep.

Hierdie strategie kan studente se persepsie oor die bruikbaarheid van ChatGPT beïnvloed. Die persepsie dat dit minder bruikbaar is, kan verskerp word indien die strategie vanuit Carless (2007) se leergeoriënteerde benadering tot assessering toegepas word.

Volgens Carless moet (a) leertake eerder as assesseringstake geskep word, (b) studente as portuurbeoordelaars betrek word en (c) dosente se terugvoer vinnig geskied. Die doeltreffendheid van leergeoriënteerde assessering is reeds in ’n Suid-Afrikaanse hoëronderwyskonteks bevestig (Van Staden 2016a en 2016b), daarom beveel ek aan dat dosente op die beperkings fokus wanneer hulle leertake saamstel:

  • Versoek studente om ChatGPT te gebruik om vrae te beantwoord, waarna dit verbeter moet word. Sodoende kan die bruikbaarheid van die kletsbot uit eie ervaring (ervaringsleer) bevraagteken word.
  • Versoek studente om antwoorde met medestudente te deel vir portuurbeoordeling. Sodoende kan die persepsie dat ChatGPT nie so bruikbaar is nie in klasverband ingeskerp word.
  • Bied terugvoer vinnig aan, met ’n fokus op leer eerder as punte wat verdien is. Sodoende kan die motivering vir plagiaat moontlik uitgeskakel word om akademiese integriteit te bevorder.

Alhoewel plagiaatopspoorders tans nie doeltreffend is nie, beveel ek wel aan dat alle werk ingelees word. Die moontlikheid dat ChatGPT soortgelyke antwoorde vir verskillende studente kan aanbied, is nog nie (voldoende) ondersoek nie. Indien sulke gevalle geïdentifiseer word, kan studente betrap word wat soortgelyke foute maak, soos versinde feite, skakels en titels van video’s. Daardeur kan persepsies oor die bruikbaarheid van die kletsbot ook beïnvloed word.

 

8. Beperkings, aanbevelings vir verdere navorsing en bydrae van hierdie navorsing

Die belangrikste beperking is dat ek die navorsing vanuit my eie verwysingsraamwerk benader het om ’n strategie vir die beperking van ChatGPT-plagiaat voor te stel. Daarom beveel ek aan dat soortgelyke navorsing in verskeie kontekste gedoen word om die beperkings van die kletsbot te bevestig.

’n Tweede beperking is dat die bevindinge nie na ChatGPT Plus (GPT-4), of enige ander KI-tegnologie oorgedra kan word sonder om eers te bepaal of dié kletsbot ook deur dieselfde beperkings gekniehalter word nie. Aangesien ChatGPT Plus op die GPT-4-model gebou is, is dit moontlik dat sommige van die beperkings tydens die ontwikkeling van die nuwer model uitgeskakel is, dus behoort die beperkings van die nuwer model ook ondersoek te word.

’n Laaste beperking is dat ChatGPT se databasis nie konstant bly nie aangesien OpenAI dit kan opdateer en die kletsbot uit sy eie foute leer. Daarom behoort opvolgnavorsing gedoen te word om te bepaal of hierdie strategie met verloop van tyd steeds geldig is.

Ek is van mening dat hierdie navorsing beide ’n teoretiese en ’n praktiese bydrae maak. Ek het eers nuwe teorie geskep wat ek daarna in die praktyk toegepas en verfyn het om ’n proaktiewe strategie vir die bekamping van ChatGPT-plagiaat voor te stel. Indien die strategie in klaskamers getoets word, kan dit verder verfyn word.

 

9. Ten slotte

Die doel met hierdie hoërisiko- verkennende navorsing was om ’n proaktiewe strategie vir die bekamping van ChatGPT-plagiaat voor te stel. Dit is noodsaaklik om, soos Susjnak (2022) ook geredeneer het, ’n betroubare strategie te ontwikkel aangesien studente niks daaruit leer as ’n kletsbot namens hulle navorsing doen en daaroor skryf nie. Aangesien die literatuuroorsig getoon het dat huidige strategieë nie betroubaar is om studente te betrap nie, het ek ’n nuwe benadering gevolg deur eerder op die beperkings van die kletsbot te fokus om te verstaan hoe dit onbruikbaar (of minder bruikbaar) gemaak kan word.

Die data vir die ondersoek is tydens gestruktureerde onderhoude met die kletsbot en die gebruik van huidige strategieë vir die bekamping van plagiaat ingesamel. Die navorsing toon dat ’n fokus op die beperkings van die kletsbot ’n proaktiewe strategie bied om ChatGPT-plagiaat te bekamp, veral indien dit vanuit ’n leergeoriënteerde benadering tot assessering toegepas word. Sodoende kan studente uit eie ervaring leer dat ChatGPT foute maak en feite, bronne, skakels en titels versin wat ’n negatiewe impak op hulle prestasie kan uitoefen as hulle ChatGPT-plagiaat pleeg.

 

Bibliografie

Agomuoh, F. 2023. ChatGPT has a new way to detect its own plagiarism. Digital Trends. https://www.digitaltrends.com/computing/chatgpt-new-way-to-detect-plagiarism (10 April 2023 geraadpleeg).

Alimardani, A. en E.A. Jane. 2023. We pitted ChatGPT against tools for detecting AI-written texts and the results are troubling. Tech Xplore. https://techxplore.com/news/2023-02-pitted-chatgpt-tools-ai-written-text.html (18 Mei 2023 geraadpleeg).

Alshater, M.M. 2023. Exploring the role of artificial intelligence in enhancing academic performance. Social Science Research Network. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4312358 (30 Mei 2023 geraadpleeg).

Amos, K.A. 2014. The ethics of scholarly publication: exploring differences in plagiarism and duplicate publication across nations. Journal of Medical Library Association, 102:87–91.

Anders, B.A. 2023. Is using ChatGPT cheating, plagiarism, both, neither, or forward thinking? Patterns, 4:1–2.

Aydin, Ö. en E. Karaarslan. 2022. OpenAI ChatGPT generated literature review: digital twin in health care. Social Science Research Network. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4308687 (20 April 2023 geraadpleeg).

Bacon, M. 2012. Pragmatism: an introduction. New York: Polity Press.

BBC News. 2019. The Kenyan ghost writers doing “lazy” Western students’ work. BBC News. https://www.bbc.com/news/av/world-africa-50126963 (12 Junie 2023 geraadpleeg).

Belter, R.W. en A. DuPre. 2009. A strategy to reduce plagiarism in an undergraduate course. Teaching of Psychology, 36(4):257–61.

Blum, S.D. 2009. My word! Plagiarism and college culture. New York: Cornell University Press.

Bogost, I. 2023. ChatGPT is dumber than you think. The Atlantic. https://www.theatlantic.com/technology/archive/2022/12/chatgpt-openai-artificial-intelligence-writing-ethics/672386 (10 Junie 2023 geraadpleeg).

Bommarito II, M. en D.M. Katz. 2022. GPT takes the Bar exam. ArXiv. https://arxiv.org/abs/2212.14402 (12 Januarie 2023 geraadpleeg).

Capelouto, J. 2023. Here are all the academic exams ChatGPT has passed (and failed). Semafor. https://www.semafor.com/article/01/30/2023/a-list-of-the-academic-exams-openais-chatgpt-has-passed (26 Februarie 2023 geraadpleeg).

Carless, D. 2007. Learning‐oriented assessment: conceptual bases and practical implications. Innovations in Education and Teaching International, 44(1):57–66.

Carrol. J. 2002. A handbook for deterring plagiarism in higher education. 2de uitgawe. Oxford: Oxford Brookes University Press.

Cassidy, C. 2023. Queensland public schools to join NSW in banning students from ChatGPT. The Guardian. https://www.theguardian.com/australia-news/2023/jan/23/queensland-public-schools-to-join-nsw-in-banning-students-from-chatgpt (1 Maart 2023 geraadpleeg).

Christensen, C.M. 1997. The innovator’s dilemma: how new technologies cause great firms to fail. Harvard: Harvard Business School Press.

CNBC TV18. 2023. Fake ChatGPT apps flood Google, Apple stores; how they are deceiving users. CNBC TV18. https://www.cnbctv18.com/technology/fake-chatgpt-apps-flood-google-apple-stores-how-they-are-deceiving-users-15642901.htm (4 Februarie 2023 geraadpleeg).

Colnerud, G. en M. Rosander. 2009. Academic dishonesty, ethical norms and learning. Assessment and Evaluation in Higher Education, 34(5):505–17.

Comas-Forgas, R., J. Sureda-Negre en F. Salva-Mutt. 2010. Academic plagiarism prevalence among Spanish undergraduate students: an exploratory analysis. Biochemia Medica, 20(3):301–6.

Copeland, B.J. 2023. Artificial intelligence. Britannica. https://www.britannica.com/technology/artificial-intelligence (11 Junie 2023 geraadpleeg).

Creswell, J.W. 2003. Research design: qualitative, quantitative, and mixed approaches. 2de uitgawe. Thousand Oaks: Sage Publications.

Das, N. en M. Punjabi. 2011. Plagiarism: Why is it such a big issue for medical writers? Perspectives in Clinical Research, 2:67–71.

Dewey, J. 1929. The quest of certainty: a study of relation of knowledge and action. Londen: George Allen en Unwin.

Doró, K. 2014. Why do students plagiarize? EFL undergraduates’ views on the reasons behind plagiarism. Sciendo, 11(1):255–63.

Dowling, M. en B. Lucey. 2023. ChatGPT for (Finance) research: the Bananarama conjecture. Finance Research Letters. https://www.sciencedirect.com/science/article/pii/S1544612323000363#b4 (11 Junie 2023 geraadpleeg).

Eaton, S.E. 2021. Plagiarism in higher education: tackling tough topics in academic integrity. Devon: Libraries Unlimited.

Eaton, S.E. en M. Mindzak. 2021. Should universities be worried about the increasing capabilities of AI? World Economic Forum. https://www.weforum.org/agenda/2021/11/artificial-intelligence-writing-universities-plagiarism (15 Desember 2022 geraadpleeg).

Elman, C., J. Gerring en J. Mahoney (reds.). The production of knowledge. Cambridge: Cambridge University Press.

Elshafei, H.A. en T.M. Jahangir. 2020. Factors affecting plagiarism among students at Jazan University. Bulletin of the National Research Centre, 44. https://doi.org/10.1186/s42269-020-00313-z (18 Januarie 2023 geraadpleeg).

Eret, E. en A. Ok. 2014. Internet plagiarism in higher education: tendencies, triggering factors and reasons among teacher candidates. Assessment & Evaluation in Higher Education, 39(8):1002–16.

Fang, F.C., R.G. Steen en A. Casadevall. 2012. Misconduct accounts for the majority of retracted scientific publications. PNAS, 109(42):17028–33.

Fatemi, G. en E. Saito. 2020. Unintentional plagiarism and academic integrity: the challenges and needs of postgraduate international students in Australia. Journal of Further and Higher Education, 44(10):1305–19.

Fish, R. en G. Hura. 2013. Students’ perception of plagiarism. Journal of Scholarship of Teaching and Learning, 13(5):33–45.

Gao, C.A., F.M. Howard, N.S. Markov, E.C. Dyer, S. Ramesh, Y. Luo en A.T. Pearson. 2023. Comparing scientific abstracts generated by ChatGPT to original abstracts using an artificial intelligence output detector, plagiarism detector, and blinded human reviewers. BioRxiv Preprint. https://www.biorxiv.org/content/10.1101/2022.12.23.521610v1 (4 Junie 2023 geraadpleeg).

Glendinning, I. (2013). Plagiarism policies in the United Kingdom (No. 510321-LLP- 1-2010-1-UK-ERASMUS-EMHE). PPHEAE. http://plagiarism.cz/ippheae/files/D2-3-27%20UK%20EX%20IPPHEAE%20CU%20Survey%20UK%20Exec%20Summary%20Oct2013.pdf.

GPTZero. 2023. GPTZero. https://gptzero.me (15 Mei 2023 geraadpleeg).

Greenwood, M., K. Walkem, L.M. Smith, T. Shearer en C. Stirling. 2014. Postgraduate nursing student knowledge, attitudes, skills, and confidence in appropriately referencing academic work. Journal of Nursing Education, 53(8):447–52.

Hansen, B. 2003. Combatting plagiarism: Is the Internet causing more students to plagiarize? The Congressional Researcher, 13(5):773–96.

Hard, S.F.J., M. Conway en A.C. Moran. 2006. Faculty and college student beliefs about frequency of academic misconduct. The Journal of Postsecondary Education, 77(6):1058–80.

Hargreaves, S. 2023. “Words are flowing out like endless rain into a paper cup”: ChatGPT & law school assessment. Social Science Research Network. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4359407 (1 Mei 2023 geraadpleeg).

Hattingh, F., A. Buitendag en M. Lall. 2020. Systematic literature review to identify and rank the most common reasons for plagiarism. In Jones (red.) 2020. https://doi.org/10.28945/4576.

Heinonen, K. en T. Strandvik. 2022. Viewpoint: applying pragmatism to stimulate service research and practice – a European perspective. Emerald Insight, 36(4):467–75.

Henning, M.A., S. Ram, R. Sisley, A. Thompson en S.J. Hawken. 2014. Reasons for academic honesty and dishonesty with solutions: a study of pharmacy and medical students in New Zealand. Journal of Medical Ethics, 40(10):702–09.

Hillermann, A.L. 2023. Factors influencing plagiarism amongst undergraduate students at an institution of higher learning: Kwazulu-Natal. Proceedings of the Focus Conference (TFC 2022). https://www.atlantis-press.com/proceedings/tfc-22/125984260 (10 Junie 2023 geraadpleeg).

Howard, R.M. en L.J. Davies. 2009. Plagiarism in the Internet age. Educational Leadership, 66(6):64–7.

Hu, K. 2023. ChatGPT sets record for fastest-growing user base – analyst note. Reuters. https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01 (9 November 2023 geraadpleeg).

Jalil, S., S. Rafi, T.D. LaToza, K. Moran en W. Lam. (2023). ChatGPT and software testing education: promises and perils. ArXiv. https://arxiv.org/pdf/2302.03287.pdf.

James, W. en F. Burkhardt. 1975. Pragmatism. Londen: Harvard University Press.

Jiao, W., W. Wang, J. Huang, X. Wang en Z. Tu. 2023. Is ChatGPT a good translator? Yes with GPT-4 as the engine. ArXiv. https://arxiv.org/abs/2301.08745 (20 Mei 2023 geraadpleeg).

Jing, K. en J. Xu. 2023. A survey on neural network language models. ArXiv. https://arxiv.org/pdf/1906.03591 (20 Mei 2023 geraadpleeg).

Jones, D. 2011. Academic dishonesty: Are more students cheating? Business Communication Quarterly, 74(2):141–50.

Jones, M. (red.). 2020. Proceedings of the InSITE Conference. Informing Science Institute. https://link.springer.com/book/10.1007/978-3-031-05675-8.

Kaplan, A. en M. Haelein. 2019. Siri, Siri in my hand, who is the fairest in the land? Business Horizons, 62(1):15–25.

Kapronczay, M. 2022. A beginner’s guide to language models. Builtin. https://builtin.com/data-science/beginners-guide-language-models (18 Mei 2023 geraadpleeg).

Kaushik, V. en C.A. Walsh. 2019. Pragmatism as a research paradigm and its implications for social work research. Social Sciences, 8(9):255.

Kelly, S. 2023. ChatGPT passes exams from law and business schools. CNN Business. https://edition.cnn.com/2023/01/26/tech/chatgpt-passes-exams/index.html (1 Mei 2023 geraadpleeg).

Khalil, M. en E. Er. 2023. Will ChatGPT get you caught? Rethinking of plagiarism detection. ArXiv. https://arxiv.org/abs/2302.04335 (18 Junie 2023 geraadpleeg).

Khalil, M. en M. Rambech. 2022. Eduino: a telegram learning-based platform and chatbot in higher education. Learning and collaboration technologies. Novel technological environments. In Zaphiris en Ioannou (reds.) 2022.

King, M.R. en ChatGPT. 2023. A conversation on artificial intelligence, chatbots, and plagiarism, in higher education. Cellular and Molecular Bioengineering, 16:1–2.

Kirchner, J., L. Ahmad, S. Aaronson en J. Leike. 2023. New AI classifier for indicating AI-written text. OpenAI. https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text (10 Mei 2023 geraadpleeg).

Kolbert, E. 2012. Spoiled rotten: Why do kids rule the roost? The New Yorker, 2 Julie. https://www.academia.edu/27276412/SPOILED_ROTTEN_Why_do_kids_rule_the_roost (7 Mei 2023 geraadpleeg).

Kostoff, R.N., R. Boylan en G.R. Simons. 2004. Disruptive technology roadmaps. Technological Forecasting and Social Change, 71:141–59.

Kung, T.H., M. Cheatham, A. Medenilla, C. Sillos, L. De Leon, C. Elepano, M. Madriaga, R. Aggabao, G. Diaz-Candido, J. Maningo en V. Tseng. 2023. Performance of ChatGPT on USMLE: potential for AI-assisted medical education using large language models. PLOS Digit Health. https://journals.plos.org/digitalhealth/article?id=10.1371/journal.pdig.0000198 (8 Junie 2023 geraadpleeg).

Kwong, T., H. Ng, K. Mark en E. Wong. 2010. Students’ and faculty’s perception of academic integrity in Hong Kong. Campus-Wide Information Systems, 27(5):341–55.

Larkham, M. 2002. Plagiarism and its treatment in higher education. Journal of Further and Higher Education, 26(4):339–49.

Lathrop, A. en K. Foss. 2000. Students cheating and plagiarism in the internet era: a wake-up call. Englewood: Libraries Unlimited.

Lewis, J. en G. Moorman. 2007. Adolescent literacy instruction: policies and promising practices. Delaware: International Reading Association.

Liles, L.A. 2019. Plagiarism in higher education. Voices in Education, 5:29–32.

Loynds, J. 2023. ChatGPT is coming to Microsoft Office, Outlook & more. Dexerto. https://www.dexerto.com/tech/chatgpt-microsoft-office-outlook-2057831 (17 Junie 2023 geraadpleeg).

Marais, I.E. 2022. Institutionalisation of academic integrity: experiences at a distance education university in South Africa during COVID-19. Cristal, 10(2):57–79.

Marti, G. en ChatGPT. 2022. From data to trade: a machine learning approach to quantitative trading. New York: Amazon.

May, J. 2023. ChatGPT is great – you’re just using it wrong. The Conversation. https://theconversation.com/chatgpt-is-great-youre-just-using-it-wrong-198848 (4 Junie 2023 geraadpleeg).

Mayden, K.D. 2015. Plagiarism’s poison: a scientific misconduct. Journal of Advanced Practitioner in Oncology, 6(1):77–80.

McCabe, D. 2005. Cheating among college and university students: a North American perspective. International Journal of Academic Integrity, 1(1):1–11.

McCarthy, J., M. Minsky, N. Rochester en C. Shannon. 2006. A proposal for the Dartmouth Summer Research Project on Artificial Intelligence, 31 Augustus 1955. AI Magazine, 27(4):12.

Mellon, J., J. Bailey, R. Scott, J. Breckwoldt en M. Miori. 2022. Do AIs know what the most important issue is? Using language models to code open-text social survey responses at a scale. Social Science Research Network. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4310154 (6 Maart 2023 geraadpleeg).

Merriam-Webster Dictionary. 2023. Plagiarize. Merriam-Webster Dictionary. https://www.merriam-webster.com/dictionary/plagiarizing (1 Mei 2023 geraadpleeg).

Migliano, S. 2023. ChatGPT clone apps privacy risks. Top10VPN. https://www.top10vpn.com/research/chatgpt-apps-privacy (12 Februarie 2023 geraadpleeg).

Moorman, G. en J. Horton. 2007. Millennials and how to teach them. In Lewis en Moorman (reds.) 2007.

Ocholla, D.N. en L. Ocholla. 2016. Does Open Access prevent plagiarism in higher education? African Journal of Library, Archives and Information Science, 26(2):187–200.

OpenAI. 2022. ChatGPT: optimizing language models for dialogue. OpenAI. https://openai.com/blog/chatgpt (10 Januarie 2023 geraadpleeg).

—. 2023a. GPT-4. OpenAI. https://openai.com/research/gpt-4 (14 Junie 2023 geraadpleeg).

—. 2023b. Educator considerations for ChatGPT. OpenAI. https://platform.openai.com/docs/chatgpt-education (23 April 2023 geraadpleeg).

OpenAImaster. 2023. What is GPT-2 Output Detector? How does it work? https://openaimaster.com/gpt-2-output-detector (30 Mei 2023 geraadpleeg).

Oppenheimer, D. 2023. ChatGPT has arrived – and nothing has changed. Campus. https://www.timeshighereducation.com/campus/chatgpt-has-arrived-and-nothing-has-changed (20 Junie 2023 geraadpleeg).

Park, E.J., S. Park, en I.S. Jang. 2013. Academic cheating among nursing students. Nurse Education Today, 33(4):346–52.

Peirce, C.S. 1978. How to make our ideas clear. Popular Science Monthly, 12:286–302.

Perrin, R. 2009. Pocket guide to APA style. Doncaster: Wadsworth.

Poole, D., A. Mackworth en R. Goebel. 1998. Computational intelligence: a logistical approach. Oxford: Oxford University Press.

Reals, T. en A. Sundby. 2022. Russia’s war in Ukraine: how it came to this. CBS News. https://www.cbsnews.com/news/ukraine-news-russia-war-how-we-got-here (4 Maart 2023 geraadpleeg).

Rettinger, D.A. en Y. Kramer. 2009. Situational and personal causes of student cheating. Research in Higher Education, 50(3):293–313.

Rogers, E.M. 1983. Diffusion of innovations: a cross-cultural approach. 3de uitgawe. New York: Free Press.

Selwyn, N. 2008. Not necessarily a bad thing: a study on online plagiarism amongst undergraduate students. The Journal of Higher Education, 33(5):465–79.

Senekal, B. 2023. Is ChatGPT ’n bruikbare hulpmiddel vir akademiese skryfwerk? LitNet Seminare en Essays. https://www.litnet.co.za/is-chatgpt-n-bruikbare-hulpmiddel-vir-akademiese-skryfwerk (15 Maart 2023 geraadpleeg).

Sentleng, M.P. en L. King. 2012. Plagiarism among undergraduate students in the Faculty of Applied Sciences at a South African Higher Education institution. South African Journal of Libraries and Information Science, 78(1): 57–67.

Sharma, S., R. Devi, en J. Kumari. 2018. Pragmatism in education. International Journal of Engineering Technology Science and Research, 5(1):1549–54.

Singh, H.P., A. Mahendra, B. Yudav, H. Singh, N. Arora en M. Arora. 2014. A comprehensive analysis of articles retracted between 2004 and 2013 from biomedical literature – a call for reforms. Journal of Traditional and Complementary Medicine, 4:399–414.

Smith, T. 2022. Disruptive technology: definition, example, and how to invest. Investopedia. https://www.investopedia.com/terms/d/disruptive-technology.asp (2 Junie 2023 geraadpleeg).

Sprajc, P., M. Urh, J. Jerebic, D. Trivan en E. Jereb. 2017. Reasons for plagiarism in higher education. Organizacija, 50(1):33–45.

Streefkerk, R.C.J. en J. Caulfield. 2022. The 5 types of plagiarism / Explanations & examples. Scribbr. https://www.scribbr.com/plagiarism/types-of-plagiarism (1 Maart 2023 geraadpleeg).

Susnjak, T. 2022. ChatGPT: the end of online exam integrity? ArXiv. https://arxiv.org/abs/2212.09292 (10 Januarie 2023 geraadpleeg).

Swedberg, R. 2020. Exploratory research. In Elman en Gerring (reds.) 2020.

Terwiesch, C. 2023. Would Chat GPT3 get a Wharton MBA? A prediction based on its performance in the operations management course. https://mackinstitute.wharton.upenn.edu/wp-content/uploads/2023/01/Christian-Terwiesch-Chat-GTP.pdf.

Theart, C.J. en I. Smit. 2012. The status of academic integrity amongst nursing students at a nursing education institution in the Western Cape. Curationis, 35(1):27.

Thorpe, H.H. 2023. ChatGPT is fun, but not an author (Editorial). Science, 379(6630):313.

Utterback, J.M. en H.J. Acee. 2005. Disruptive technologies: an expanded review. International Journal of Innovative Management, 9(1):1–17.

Van Staden, C.J. 2016a. ’n Leergeoriënteerde raamwerk vir eportefeuljeontwikkeling in afstandonderwys. Suid-Afrikaanse Tydskrif vir Natuurwetenskap en Tegnologie, 35(1). http://www.satnt.ac.za/index.php/satnt/article/view/1392/1247 (26 Februarie 2023 geraadpleeg).

—. 2016b. A learning-oriented framework for integrating eportfolios in a post-graduate module in distance education. The AAEEBL ePortfolio Review (AePR), 1(1):36–55.

—. 2023. ChatGPT: Vriend en vyand in die Geografie-vakdidaktiek-klaskamer? Implikasies vir die praktyk. LitNet Akademies, 20(2):498–546. https://www.litnet.co.za/wp-content/uploads/2023/09/LitNet_Akademies_j20n2d5_vanStaden.pdf; https://doi.org/10.56273/1995-5928/2023/j20n2d5.

Varanasi, L. 2023. GPT-4 can ace the bar, but it only has a decent chance of passing the CFA exams. Here’s a list of difficult exams the ChatGPT and GPT-4 have passed. https://www.businessinsider.com/list-here-are-the-exams-chatgpt-has-passed-so-far-2023-1 (27 Junie 2023 geraadpleeg).

Vogts, D. 2009. Plagiarising of source code by novice programmers a cry for help? SAICSIT '09: Proceedings of the 2009 Annual Research Conference of the South African Institute of Computer Scientists and Information Technologists. http://dl.acm.org/citation.cfm?id=1632168 (26 Februarie 2023).

Warren, T. 2023. Microsoft to demo its new ChatGPT-like AI in Word, PowerPoint, and Outlook soon. The Verge. https://www.theverge.com/2023/2/10/23593980/microsoft-bing-chatgpt-ai-teams-outlook-integration (10 Junie 2023 geraadpleeg).

Wiggers, K. 2022. While anticipation builds for GPT-4, OpenAI quietly releases GPT-3.5. Techcrunch. https://techcrunch.com/2022/12/01/while-anticipation-builds-for-gpt-4-openai-quietly-releases-gpt-3-5 (4 Junie 2023 geraadpleeg).

Wilkinson, J. 2009. Staff and student perceptions of plagiarism and cheating. Journal of Statistics Education: An International Journal on the Teaching and Learning of Statistics. http://eric.ed.gov/?id=EJ864328 (18 Mei 2023 geraadpleeg).

Xu, F.F., A. Alon en G. Neubig. 2023. Why do nearest neighbour language models work? ArXiv. https://arxiv.org/abs/2301.02828 (8 Junie 2023 geraadpleeg).

Yang, Y. 2014. Why students plagiarize in organic chemistry laboratory course? 2014 IEEE International Symposium on Ethics in Science, Technology and Engineering. Chicago, IL. http://dx.doi.org/10.1109/ETHICS.2014.6893443.

Yousif, N. 2023. ChatGPT: student builds app to sniff out AI-written essays. BBC News. https://www.bbc.com/news/world-us-canada-64252570 (26 Februarie 2023 geraadpleeg).

Zaphiris, P. en A. Ioannou (reds.). 2022. Learning and collaboration technologies. Novel technological environments. HCII 2022. Lecture notes in Computer Science, vol. 13329. Springer, Cham. https://www.informingscience.org/Conferences/InSITE2020/Proceedings (16 November 2023 geraadpleeg).

 

Eindnotas

1 Ek gebruik die modeltitel, naamlik “ChatGPT-3.5”, slegs in die titel, en waar dit noodsaaklik is om te onderskei tussen die GPT-3.5 en ander GPT-modelle. In die res van die artikel gebruik ek slegs “ChatGPT” en nie die uitgebreide titel nie.

2 Verskeie terme kan gebruik word, onder andere inset of vraag. Ek gebruik por omdat dit insluit dat die kletsbot gedruk kan word om antwoorde te verbeter.

3 Alhoewel ek na aanleiding van die Engelse term respons kon gebruik, beskou ek dit nie as ’n goeie Afrikaanse term nie. Ek kon ook uitset gebruik het, maar verkies in hierdie artikel antwoord omdat ek met die kletsbot gesels het om antwoorde te kry.

4 Weens debatte oor ’n nuwe definisie vir plagiaat, verkies ek die term ChatGPT-plagiaat om spesifiek te verwys na die misbruik van ChatGPT. Ek fokus in hierdie navorsing ook spesifiek op die misbruik van die gratis ChatGPT. Ek beplan egter ’n opvolgstudie waartydens ek wil bepaal in hoe ’n mate die nuwe benadering ook op sy opvolger, die ChatGPT Plus-kletsbot wat teen betaling gebruik kan word, van toepassing is.

5 Sagteware wat gebruik kan word om KI-tekste op te spoor, of van mensgeskrewe tekste te onderskei.

6 Ek is nie geskool in KI nie, daarom staan ek op die skouers van diegene wat wel is om ’n beskrywing te bied.

7 Common Crawl is ’n nie-winsgewende organisasie wat webkruip-hulpmiddels gebruik om soveel as moontlik van die oop internet te argiveer (Hargreaves 2023).

8 Uitgebreide weergawe van oorspronklike WebText (Hargreaves 2023).

9 Moeilik om te bepaal. Dit is nie ’n databasis van alle boeke wat op internet beskikbaar is nie, maar eerder soortgelyk aan “libgen”. Dit kan dus ’n ongeoorloofde versameling van meer as twee miljoen boeke, handboeke en akademiese artikels insluit (Hargreaves 2023).

10 Dit kan meer as twee miljoen tekste in Engels insluit (Hargreaves 2023).

11 ChatGPT is later as medeskrywer op die buiteblad van die boek bygevoeg.

12 Plagiaatopspoorder waarop uitgewers staatmaak.

13 Soos byvoorbeeld Copyscape (https://www.copyscape.com), CrossCheck (https://crossref.org), DupliChecker (https://duplichecker.com), eTBLAST (https://etest.vbi.vt.edu), Plagiarism.org (https://plagiarism.org), PlagiarismChecker (https://plagiarismchecker.com), PlagiarismDetector (https://plagiarism-detector.com), PlagTracker, ThePlagiarismDetector (https://dustball.com), iThendicate (https://ithenticate.com), Viper (https://scanmyessay.com) en WriteCheck (https://writecheck.com).

14 Daar is bevind dat Grammarly akademiese oneerlikheid en plagiaat tydens die pandemie (noodafstandonderwys) bevorder het (Eaton en Mindzak 2021). Volgens die skrywers het studente Grammarly gebruik om tekste te skep, voorspellings te maak, data te myn, vorms in te vul, te parafraseer, te vertaal en te transkribeer. Dit het daartoe bygedra dat buitestanders produkte, hulpmiddels en dienste ontwikkel het om skrywers te help om die inhoud en doeltreffendheid van hulle skryfwerk te verbeter (Eaton en Mindzak 2021). Gebaseer hierop, het Eaton en Mindzak (2021) voorspel dat KI binne die afsienbare toekoms gebruik sou kon word om volledige artikels en opstelle te skep – ’n voorspelling wat die volgende jaar (2022) met die beskikbaarstelling van ChatGPT bewaarheid is.

15 ChatGPT is tans ’n brandpunt in die onderwys, dus is dit moontlik dat iemand, terwyl ek hierdie artikel skryf, reeds navorsing daaroor doen.

16 Dit is belangrik om datums te verstrek aangesien die kletsbot steeds opgelei word en ook sy databasis uitbrei.

17 Let asseblief daarop dat verskeie van hierdie beperkings blykbaar tydens die ontwikkeling van ChatGPT se opvolger, ChatGPT Plus, uitgeskakel is. Ek fokus spesifiek op die beperkings van die gratis kletsbot aangesien ek vermoed dat die meerderheid studente nie die Plus-weergawe kan bekostig nie.

18 Let asseblief daarop dat die porre gestel is soos wat vrae in ’n assesseringstaak of eksamen gestel sal word. Indien porontwerp (“prompt engineering”) gebruik word, kan die antwoorde moontlik beter of anders wees – iets wat in opvolgstudies ondersoek behoort te word.

19 Ek het nie taal- of spelfoute reggemaak nie. Soms dui ek wel foute aan wat begrip kan benadeel.

20 Ek het telkens die volgende navorser se naam in die plek van XXX ingetik.

21 Ek het per ongeluk ’n spelfout gemaak, ChatGPT het my daarop gewys.

22 Die kletsbot het die volgende bygevoeg: Ek is ’n AI-model wat gegenereer is deur OpenAI en my antwoorde is gebaseer op ’n kombinasie van vooraf opgenome inligting en patrone wat ek in die ingevoerde teks waarneem. Ek het nie persoonlike toegang tot die internet of die vermoë om nuwe inhoud op te soek nie. Die inligting wat ek verskaf, is gebaseer op wat ek vooraf tydens my opleidingstydperk tot September 2021 geleer het.

 


LitNet Akademies (ISSN 1995-5928) is geakkrediteer by die SA Departement Onderwys en vorm deel van die Suid-Afrikaanse lys goedgekeurde vaktydskrifte (South African list of Approved Journals). Hierdie artikel is portuurbeoordeel vir LitNet Akademies en kwalifiseer vir subsidie deur die SA Departement Onderwys.


  • 0

Reageer

Jou e-posadres sal nie gepubliseer word nie. Kommentaar is onderhewig aan moderering.


 

Top