1. Inleiding
Die beskikbaarstelling van OpenAI se ChatGPT in 2022, sowel as daaropvolgende gespreksagente wat met groottaalmodelle werk, byvoorbeeld Copilot, Gemini, DeepSeek en Grok, het die wêreld – en veral onderrig – onherroeplik ontwrig. Alhoewel kunsmatige intelligensie (KI) in die vorm van groottaalmodelle ’n oorvloed geleenthede bied om werk, in hierdie geval teksgebaseerde werk, te verbeter en vinniger af te handel, worstel onderriginstellings met die uitdaging dat studente die tegnologie misbruik om beter werk op te lewer as waartoe hulle in staat is (Van Staden 2023). Om hierdie rede is daar reeds ’n groot hoeveelheid navorsing gedoen rondom die rekenaarmatige herkenning van KI-geskepte teks, en daar is ’n groot aantal toepassings ontwikkel wat KI-geskepte teks kan herken. Daar is ook maniere waarop mense KI-geskepte teks kan herken. Die vraag is: Werk hierdie middele, en wat werk beter: mens of masjien?
2. Die mens as KI-verklikker
Van Leeuwen (2024) merk op dat ’n mens KI-geskepte teks kan herken, wat iets is wat ander skrywers en navorsers ook reeds opgemerk het (Dugan e.a. 2023; Kussainova 2024; Juzek en Ward, 2025; Wang ea 2025). Groottaalmodelle gebruik veilige en bekende formulering (gereeld clichés), skep tekste met ’n duidelike struktuur, wat tot herhaling kan lei, en skep grammatikaal perfekte tekste (Van Leeuwen 2024). Tekste wat met groottaalmodelle geskep is, gebruik ook herhalende frases (Kussainova 2024). Groottaalmodelle het verder ’n voorliefde vir sekere woorde, byvoorbeeld boost, delve, drive, enhance, ensure, essential, implement, impressive, leverage, provide, robust, unleash, valuable en vital (Kussainova 2024). Groottaalmodelle se gebruik van woorde is getoets in Juzek en Ward (2025), waar die volgende 21 woorde met die gebruik van groottaalmodelle verbind is: advancements, aligns, boasts, comprehending, delve, delves, delved, delving, emphasizing, garnered, groundbreaking, intricate, intricacies, realm, showcases, showcasing, surpasses, surpassing, underscore, underscores en underscoring. Ek is nie bewus van ’n lys van Afrikaanse woorde wat met groottaalmodelle verbind word nie.
Die duidelikste merker van KI-geskepte teks, ten minste in ’n Suid-Afrikaanse onderrigkonteks, is hoe goed die teks geskryf is ten opsigte van spelling, grammatika en struktuur. Kollegas by die Universiteit van die Vrystaat vertel my hoe maklik hulle studente uitvang, juis omdat die studente se werkstukke goed geskryf is, en dit in ’n land waar onderrigstandaarde in sekere opsigte volgens Heugh (2013:224) laer gedaal het as destydse swart onderwys, en in ’n provinsie waar slegs 1,5% van die bevolking in hul moedertaal (Engels) op universiteit kan studeer. Deel van die idee met die verengelsing van Suid-Afrikaanse universiteite is wat Moll (2018:15) "eenderse ellende" noem: Niemand (behalwe die Engelssprekendes) ontvang meer moedertaalonderrig nie. Wanneer ’n nie-Engelse student ’n perfekte Engelse werkstuk indien, is dit ’n rooi lig. Die probleem is dat hierdie kenmerk slegs van toepassing is op studente se werkstukke, en boonop slegs op swakker studente se werkstukke. Wanneer dit kom by beter studente, of akademiese artikels in vaktydskrifte, kan verwag word dat die teks goed gestruktureer sal wees en dat spelling en grammatika nader aan korrek sal wees.
Daar is die vraag of mense werklik KI-geskepte teks as sodanig kan herken, of net op grond van struktuur of herhalende frases dink hulle kan dit herken. Navorsing toon dat mense nie KI-geskepte teks betroubaar as sulks kan herken nie (Gao ea 2022; Dugan ea 2023; Guo ea 2023; Chein, Martinez en Barone 2024; Fleckenstein ea 2024). Boonop dui Fleckenstein ea (2024) aan dat mense hul vermoëns om KI-geskepte teks te herken, oorskat.
Van Leeuwen (2024) gebruik ChatGPT om kenmerke van KI-geskepte teks saam te stel deur die volgende vraag aan ChatGPT te vra (hier in Afrikaans weergegee):
Weet jy watter woorde en sinne jy dikwels in tekste gebruik wat die leser toelaat om te herken dat die teks KI-geskep is en nie unieke inhoud wat deur ’n mens geskryf is nie?
Ek het dieselfde vraag aan ChatGPT gestel (in Afrikaans), en die volgende antwoord ontvang:
Dis ’n baie interessante vraag! Daar is beslis sekere woorde, frases en patrone wat lesers dikwels laat vermoed dat ’n teks deur KI geskryf is. Hier is ’n paar van die mees algemene aanwysers:
1. Herhalende patrone en oordrewe netheid
KI-gegenereerde tekste is dikwels te netjies gestruktureer. Elke paragraaf het ’n perfekte inleiding, ’n middel, en ’n slot. Mense skryf dikwels meer chaoties of met meer afwykings van ’n patroon.
– Voorbeeld: "Ten slotte, kan ons dus sê dat …" kom baie gereeld voor aan die einde van KI-opstelle.
2. Algemene en vae stellings
KI sal dikwels begin met breë stellings wat klink soos inleiding-paragrawe van skoolopstelle.
– Voorbeelde:
– "Sedert die ontstaan van die mensdom het mense altyd gesoek na …"
– "In vandag se vinnig-veranderende wêreld …"
– "Tegnologie het ’n onmiskenbare impak op elke aspek van ons lewens."
Hierdie klink slim, maar sê nie regtig iets konkreet nie.
3. “Volmaakte” grammatika en sinsbou
KI-tekste het dikwels grammatika wat amper te perfek is – geen tikfoute, geen half-af gedagtes, geen "ek weet nie mooi hoe om dit te sê nie"-oomblikke. Dit gee soms ’n onmenslike, gladde gevoel.
4. Gebrek aan spesifieke ervaring of emosie
Menslike skrywers sal gereeld iets persoonliks insluit, al is dit net ’n klein detail: "Ek onthou toe my ouma altyd …" of "Ek was onseker, maar het probeer …" KI sukkel daarmee.
5. Gebruik van clichés en oorbekende frases
Omdat KI leer uit groot hoeveelhede teks, gebruik dit graag bekende frases.
– Voorbeelde:
– "Die toekoms is nou."
– "Kennis is mag."
– "Ons leef in ’n digitale era."
As jy wil hê iets moet minder soos ’n KI klink, kan jy:
– Onvolmaakthede inbou (bv begin ’n sin en verander rigting)
– Persoonlike voorbeelde of emosies gebruik
– Die struktuur van ’n tipiese opstel breek
– Sterk opinies of unieke perspektiewe gee.
ChatGPT het toe ook gevra: "Wil jy hê ek moet vir jou ’n paragraaf skryf in ’n KI-styl én een in ’n menslike styl om te vergelyk?" Ek het positief geantwoord, waarop ChatGPT die volgende voorbeelde geskep het:
KI-styl-paragraaf
Sosiale media het ’n beduidende invloed op jongmense se lewens wêreldwyd. Dit stel hulle in staat om met ander te kommunikeer, inligting vinnig te deel, en toegang te verkry tot ’n verskeidenheid hulpbronne. Terselfdertyd kan dit negatiewe gevolge hê, soos afleiding, afname in konsentrasie, en probleme met selfbeeld. Dit kan ook lei tot sosiale isolasie, kuberafknouery, en slaapprobleme. Dit is dus belangrik om ’n gebalanseerde benadering tot sosiale media-gebruik te handhaaf. Ouerlike toesig en bewusmaking kan help om hierdie uitdagings aan te spreek. In geheel speel sosiale media ’n komplekse rol in die ontwikkeling van jongmense.
Menslike styl paragraaf
Ek sien dit al hoe meer by my jonger niggies – hulle praat eerder met hul vriende oor WhatsApp as in persoon, selfs al sit hulle in dieselfde vertrek. Dis vreemd hoe gemaklik dit vir hulle is, maar ek verstaan ook hoekom. Alles gebeur op die foon. Ek onthou toe ek op hoërskool was, het ons gesels oor musiek en flieks in die pouse – nou deel hulle TikTok-skakels en memes in groepskakels. Dis nie net negatief nie, maar ek wonder soms of hulle ooit leer om regtig alleen te wees, sonder die konstante "ping" van iets nuuts wat wag. Dis ’n nuwe soort sosiale lewe, en ek is nie altyd seker of dit ’n verbetering is nie.
Die voor die hand liggende probleem daarmee dat ChatGPT die styl van KI-geskepte teks kan herken, is dat ChatGPT dan self ’n meer menslike teks sal kan skep, soos in die tweede paragraaf. Dit beteken dat al bogenoemde patrone verwyder kan word met die eenvoudige byvoeging in die instruksie dat die teks geskryf moet word soos ’n mens dit sou doen. ChatGPT beskik met ander woorde oor die vermoë om die merkers wat mense in KI-geskepte teks raaksien, te verwyder. Daarom is rekenaarmatige metodes nodig om KI-geskepte teks te herken.
3. KI as KI-verklikkers
Daar bestaan ’n verskeidenheid rekenaarmatige KI-verklikkingsmiddele, sommiges gratis en ander nie, wat beweer hulle kan KI-geskepte teks akkuraat herken. Voorbeelde sluit in Originality.ai (https://originality.ai), GPTZero (https://gptzero.me), Copyleaks (https://copyleaks.com/ai-content-detector), QuillBot (https://quillbot.com/ai-content-detector), ZeroGPT (https://www.zerogpt.com) en Grammarly (https://www.grammarly.com/ai-detector). Van Staden (2023) het egter aangetoon hoe swak rekenaarmatige KI-verklikkers in werklikheid vaar, en ander navorsers het soortgelyke resultate gerapporteer wat die gebreke van rekenaarmatige KI-verklikkers uitwys (Elkhatat, Elsaid en Almeer 2023; Ghosal ea 2023; Perkins ea 2023; Rashidi ea 2023; Walters 2023; Weber-Wulff ea 2023; Bellini ea 2024; He ea 2024; Zhang ea 2024; Fraser, Dawkins en Kiritchenko 2025). Die probleme met rekenaarmatige KI-verklikkers sluit in hoë koerse van vals positiewe en negatiewe, ’n stryd om tred te hou met ontwikkelende KI-skryfvermoëns, vooroordele teen niemoedertaal-Engelssprekendes, die verskaffing van waarskynlike eerder as definitiewe resultate, vatbaarheid vir omseiling deur menslike redigering, beperkings met kort tekste, en ’n gebrek aan begrip met betrekking tot betekenis en konteks (Gemini 2025). Nietemin het verskeie navorsers belowende resultate met KI-verklikkers gerapporteer (Bao ea 2023; Chakraborty ea 2023; Li ea 2024; Wang, Li en Li 2024). Die probleem is egter dat selfs al werk ’n rekenaarmatige metode vandag, ontwikkel die tegnologie so vinnig dat dit môre dalk nie meer werk nie.
Ek het sommer ’n steekproef gedoen met Originality.ai, GPTZero, Copyleaks, QuillBot, ZeroGPT en Grammarly se KI-verklikkers deur ChatGPT se bostaande twee voorbeeldparagrawe in te voer. Originality.ai was 98% seker die eerste paragraaf (in ’n KI-styl) is KI-geskep en 98% seker die tweede paragraaf (in ’n menslike styl) is deur ’n mens geskep. GPTZero was seker die eerste paragraaf is KI-geskep en die tweede menslik. Copyleaks het geweier om Afrikaanse teks te lees. QuillBot het nie ’n opsie verskaf om Afrikaanse teks te klassifiseer nie. ZeroGPT wou hê dat ek inteken. En Grammarly was 100% seker dat nie een van die twee paragrawe deur KI geskep is nie. Dit vir twee paragrawe wat albei met KI geskep is, en die eerste boonop doelbewus in ’n KI-styl. In die geval van Originality.ai en GPTZero is die verklikkers met ander woorde omseil deur vir ChatGPT te vra om soos ’n mens te skryf. Baie maklik.
Betroubaarheid is noodsaaklik wanneer studente se punte daarvan afhang. Vir my is dit ’n groter probleem wanneer mensgemaakte teks as KI-geskep gemerk word (vals positiewe), eerder as dat KI-geskepte teks nie as sodanig herken word nie (vals negatiewe), omdat dit daarop neerkom dat ’n eerlike student gepenaliseer kan word vir ’n skryfstyl wat die KI-verklikker verkeerd geklassifiseer het. Rashidi ea (2023) het juis hierdie probleem uitgelig.
Hierdie onbetroubaarheid beteken dat selfs met tegnologiese verbeteringe sedert Van Staden (2023) se studie, ’n mens huiwerig is om ’n teks KI- of mensgeskep te noem wanneer daar implikasies is (byvoorbeeld ’n student wat ’n opstel indien). Van Staden (2023) stel dan eerder ’n reeks strategieë voor om die gebruik van KI deur studente te ontmoedig, en ek stem saam dat ’n mens eerder vertroud moet wees met groottaalmodelle se vermoëns en dan daarrondom moet werk.
4. Slot
Die skep van natuurlike teks met behulp van KI en die herkenning van KI-geskepte teks is ’n wapenresies, met beide kante wat van tyd tot tyd voor sal wees en dan ingehaal word. Die mens kan ook ’n rol speel daarin om KI-geskepte teks te herken, maar versigtig: KI-geskepte teks word natuurliker, en merkers wat vandag duidelik is, is môre afwesig. Die beste manier om KI-verkulling te herken, bly om iets van die teks te verwag wat KI nie kan vervul nie.
Bibliografie
Bao, G, Y Zhao, Z Teng, L Yang en Y Zhang. 2023. Fast-DetectGPT: Efficient zero-shot detection of machine-generated text via Conditional Probability Curvature. arXiv. DOI: 10.48550/arxiv.2310.05130.
Bellini, V, F Semeraro, J Montomoli, M Cascella en E Bignami. 2024. Between human and AI: Assessing the reliability of AI text detection tools. Current Medical Research and Opinion, 40(3):353–8. DOI: 10.1080/03007995.2024.2310086.
Chakraborty, S, AS Bedi, S Zhu, B An, D Manocha en F Huang. 2023. On the possibilities of AI-generated text detection. arXiv. DOI: 10.48550/arxiv.2304.04736.
Chein, JM, SA Martinez en AR Barone. 2024. Human intelligence can safeguard against artificial intelligence: individual differences in the discernment of human from AI texts. Scientific Reports, 14(1):25989. DOI: 10.1038/s41598-024-76218-y.
Dugan, L, D Ippolito, A Kirubarajan, S Shi en C Callison-Burch. 2023. Real or fake text?: Investigating human ability to detect boundaries between human-written and machine-generated text. Proceedings of the AAAI Conference on Artificial Intelligence, 37(11):12763–71. DOI: 10.1609/aaai.v37i11.26501.
Elkhatat, AM, K Elsaid en S Almeer. 2023. Evaluating the efficacy of AI content detection tools in differentiating between human and AI-generated text. International Journal for Educational Integrity, 19(1):17. DOI: 10.1007/s40979-023-00140-5.
Fleckenstein, J, J Meyer, T Jansen, SD Keller, O Köller en J Möller. 2024. Do teachers spot AI? Evaluating the detectability of AI-generated texts among student essays. Computers and Education: Artificial Intelligence, 6:100209. DOI: 10.1016/j.caeai.2024.100209.
Fraser, KC, H Dawkins en S Kiritchenko. 2025. Detecting AI-generated text: Factors influencing detectability with current methods. Journal of Artificial Intelligence Research, 82:2233–78. DOI: 10.1613/jair.1.16665.
Gao, CA, FM Howard, NS Markov, EC Dyer, S Ramesh, Y Luo en AT Pearson. 2022. Comparing scientific abstracts generated by ChatGPT to original abstracts using an artificial intelligence output detector, plagiarism detector, and blinded human reviewers. BioRxiv. DOI: 10.1101/2022.12.23.521610.
Gemini. 2025. Antwoord op vraag oor die betroubaarheid van KI-verklikkers.
Ghosal, SS, S Chakraborty, J Geiping, F Huang, D Manocha en AS Bedi. 2023. Towards possibilities and impossibilities of AI-generated text detection: a survey. arXiv. DOI: 10.48550/arxiv.2310.15264.
Guo, B, X Zhang, Z Wang, M Jiang, J Nie, Y Ding, J Yue en Y Wu. 2023. How close is ChatGPT to human experts? Comparison corpus, evaluation, and detection. arXiv. DOI: 10.48550/arxiv.2301.07597.
He, X, X Shen, Z Chen, M Backes en Y Zhang. 2024. MGTBench: Benchmarking machine-generated text detection. Proceedings of the 2024 on ACM SIGSAC Conference on Computer and Communications Security. CCS ’24. New York, VSA: ACM:2251–65. DOI: 10.1145/3658644.3670344.
Heugh, K. 2013. Multilingual education policy in South Africa constrained by theoretical and historical disconnections. Annual review of applied linguistics, 33:215–37. DOI: 10.1017/S0267190513000135.
Juzek, TS en ZB Ward. 2025. Why does ChatGPT “delve” so much? Exploring the sources of lexical overrepresentation in Large Language Models. In Rambow, Wanner, Apidianaki ea (reds) 2025.
Kussainova, D. 2024. How to detect AI writing: 10 Useful tips to help you spot AI text. https://selzy.com/en/blog/how-to-detect-ai-writing (24 April 2025 geraadpleeg).
Li, R, W Hao, W Zhao, J Yang en C Mao, C 2024. Learning to rewrite: generalized LLM-generated text detection. arXiv. DOI: 10.48550/arxiv.2408.04237.
Moll, J. 2018. Universiteit Stellenbosch en die onverkwiklike taalstryd (2003–2017). Vanaf “taaltameletjie” tot volskaalse “taaloorlog”. Bloemfontein: SunBonani Scholar. DOI: 10.18820/9781928424239.
Perkins, M, J Roe, D Postma, J McGaughran en D Hickerson. 2023. Detection of GPT-4 generated text in higher education: Combining academic judgement and software to identify generative AI tool misuse. Journal of Academic Ethics. DOI: 10.1007/s10805-023-09492-6.
Rambow, O, L Wanner, M Apidianaki, H Al-Khalifa, BD Eugenio en S Schockaert (reds). 2025. Proceedings of the 31st International Conference on Computational Linguistics, Abu Dhabi, VAE: Association for Computational Linguistics: 6397–411.
Rashidi, HH, BD Fennell, S Albahra, B Hu en T Gorbett. 2023. The ChatGPT conundrum: Human-generated scientific manuscripts misidentified as AI creations by AI text detection tool. Journal of Pathology Informatics, 14:100342. DOI: 10.1016/j.jpi.2023.100342.
Sserwanga, I, H Joho, J Ma, P Hansen, D Wu, M Koizumi en AJ Gilliland (reds). 2024. Wisdom, well-being, win-win: 19th International Conference, iConference 2024, Changchun, China, April 15–26, 2024. Proceedings, Part I. Cham: Springer Nature Switzerland: 209–22. DOI: 10.1007/978-3-031-57850-2_16.
Van Leeuwen, S. 2024. Zó herken je AI generated content in teksten. https://www.frankwatching.com/archive/2024/05/08/ai-generated-content-herkennen (24 April 2025 geraadpleeg).
Van Staden, C. 2023. ’n Proaktiewe strategie om plagiaat met behulp van ChatGPT-3.5 te bekamp – ’n verkennende ondersoek, LitNet Akademies, 20(3):327–66. https://www.litnet.co.za/n-pro-aktiewe-strategie-om-plagiaat-met-behulp-van-chatgpt-3-5-te-bekamp-n-verkennende-ondersoek.
Walters, WH. 2023. The effectiveness of software designed to detect AI-generated writing: A comparison of 16 AI text detectors, Open Information Science, 7(1). DOI: 10.1515/opis-2022-0158.
Wang, H, J Li en Z Li. 2024. AI-generated text detection and classification based on BERT Deep Learning algorithm. arXiv. DOI: 10.48550/arxiv.2405.16422.
Wang, Y, R Xing, J Mansurov, G Puccetti, Z Xie, MN Ta, J Geng, J Su, M Abassy, SED Ahmed, K Elozeiri, N Laiyk, M Goloburda, T Mahmoud, RV Tomar, A Aziz, R Koike, M Kaneko, A Shelmanov, E Artemova en P Nakov. 2025. Is human-like text liked by humans? Multilingual human detection and preference against AI. arXiv. DOI: 10.48550/arxiv.2502.11614.
Weber-Wulff, D, A Anohina-Naumeca, S Bjelobaba, T Foltýnek, J Guerrero-Dib, O Popoola, P Šigut en L Waddington. 2023. Testing of detection tools for AI-generated text. International Journal for Educational Integrity, 19(1):26. DOI: 10.1007/s40979-023-00146-z.
Zhang, Y, Y Ma, J Liu, X Liu, X Wang en W Lu. 2024. Detection vs anti-detection: Is text generated by AI detectable? In Sserwanga, I, H Joho, J Ma ea (reds) 2024.