Ná gesprekke met
***
Inleiding
KI behels die vermoë van ’n masjien om kognitiewe funksies te verrig wat tot nou toe met die menslike verstand verbind is, byvoorbeeld om waar te neem, te redeneer, te leer, met die omgewing in wisselwerking te tree, probleme op te los, besluite te neem en selfs kreatiwiteit te toon (Rai, Constantinides en Sarker 2019:iii). Sedert die vrystelling van ChatGPT – ’n gespreksagent wat aanvanklik op die groottaalmodel (GTM) GPT-3.5 gewerk het – in 2022 het die vermoë van KI om die mens na te boots alombekend geword. Sedert ChatGPT se vrystelling was daar boonop snelle verdere vooruitgang, en hedendaagse gespreksagente soos die huidige ChatGPT en Google Gemini werk op groot multimodale modelle (GMM's), wat ook beeld, video en klankgrepe as in- en uitvoer kan gebruik.
Skeppende KI soos ChatGPT ontwrig verskeie menslike ruimtes, waaronder die wetenskaplike-uitgewersbedryf. Sulke KI's kan mensagtige teks skep, wat beteken dat dit al hoe moeiliker word om te onderskei tussen mens- en masjiengeskepte publikasies. Dit hou verreikende gevolge in vir die wetenskaplike-uitgewersbedryf, met vrae oor akademiese integriteit, die akkuraatheid van inligting in publikasies, die betroubaarheid van die keuringsproses en dergelike meer.
Die huidige artikel beredeneer ’n paar kwessies wat die akademiese-uitgewersbedryf direk raak en ontwrig, en maak voorstelle vir KI-riglyne vir ’n akademiese vaktydskrif in Afrikaans. Die artikel is ingegee deur persoonlike ervaring en eie publikasies, spesifiek ook rondom KI, maar ook deur ’n aantal amptelike beleide van toonaangewende vaktydskrifte en akademiese uitgewers, naamlik Nature (2025), Science (2025), die Elsevier-groep (2025), en Taylor & Francis (2025). ’n Aantal plaaslike uitgewers en vaktydskrifte is ook as verwysingsraamwerk gebruik, naamlik South African Journal of Science (2025) en AOSIS (2025), sowel as die Academy of Science of South Africa (ASSAf) (2024).
Vir skrywers
Toe ChatGPT in 2022 vrygestel is, is hierdie KI-toepassing in ’n paar eerste publikasies as skrywer gelys. Met verloop van tyd is daar egter besef dat geen KI verantwoordelikheid vir die inhoud van ’n publikasie kan aanvaar nie, en aangesien daardie verantwoordelikheid ’n belangrike aspek van skrywerskap is, kan geen KI as skrywer gelys word nie (Senekal 2023). Top vaktydskrifte laat gevolglik nie meer toe dat ’n KI-program as ’n skrywer van ’n artikel gelys word nie (Elsevier 2025; Science 2025; Springer Nature 2025; Taylor & Francis 2025), en dieselfde geld plaaslik (AOSIS 2025; South African Journal of Science 2025). Science (2025) neem hierdie reël ’n stap verder en laat ook nie publikasies toe wat ’n KI-toepassing in hul bronnelys as ’n skrywer noem nie.
Die noem van KI as medeskrywer het aanvanklik ’n kortpad na die etiese gebruik van KI gebied, want akademiese skrywers het gou besef dat daar ’n probleem daarmee is wanneer hulle ’n manuskrip vir beoordeling indien wat nie geheel en al deur hulle self geskryf is nie. Aangesien geen KI meer gelys kan word as skrywer nie, moet hierdie etiese kwessie op ’n ander manier aangespreek word.
Die vraag is presies hoeveel gebruik van KI oneties is. Aanvanklik (2022) was daar tydskrifte wat alle gebruik van KI verbied het of ten minste vereis het dat dit verklaar word, maar KI is onderliggend aan speltoetsers in woordverwerkersprogrammatuur (byvoorbeeld Microsoft Word), soekenjins (soos Google) en nog vele meer (Senekal 2023). Dit sou absurd wees om byvoorbeeld te verklaar dat Microsoft Word gebruik is om ’n artikel te skryf, of dat Google gebruik is om inligting te vind. Ek het voorheen aangevoer dat skeppende KI vir teksredigeringstake gebruik kan word, byvoorbeeld spelling, woordkeuses, helderheid, opsomming, vertaling en die skep van kernwoorde en opskrifte (Senekal 2023). Nie een van hierdie toepassings behels dat iemand anders se werk deur ’n KI-program verwerk word nie (anders as KI-geskepte literatuurstudies; sien verderaan). Nature se stylriglyne (2025) deel hierdie uitkyk, asook Elsevier (2025), want volgens hulle hoef die gebruik van ’n KI-instrument vir kopieredigering om menslike teks te verbeter nie verklaar te word nie. Nature (2025) noem sulke verbeteringe "AI assisted copy editing", wat hulle omskryf as "AI-assisted improvements to human-generated texts for readability and style, and to ensure that the texts are free of errors in grammar, spelling, punctuation and tone." Hulle verduidelik dan verder:
These AI-assisted improvements may include wording and formatting changes to the texts, but do not include generative editorial work and autonomous content creation. In all cases, there must be human accountability for the final version of the text and agreement from the authors that the edits reflect their original work.
Die South African Journal of Science (2025) deel hierdie uitkyk: "The use of tools specifically for spelling and grammar checks, similarity checking, and reference management is fully permitted and does not need to be disclosed" (sien ook ASSAf 2024).1 Op ’n soortgelyke wyse stel AOSIS (2025) dit: "You do not have to describe how you have used AI or AI-powered tools to assist you in reporting on the research that you have already done – in other words, when writing, revising, editing and proofing your manuscript."
’n Eerste riglyn vir die gebruik van KI in ’n akademiese teks kan aan die hand van Nature (2025), Elsevier (2025), die South African Journal of Science (2025) en AOSIS (2025) wees:
1. Skrywers mag KI vir teksredigeringstake gebruik mits hulle steeds verantwoordelikheid neem vir die akkuraatheid van die teks.
Terwyl teksredigeringstake een uiterste van die gebruik van KI verteenwoordig, is die ander uiterste2 om ’n literatuuroorsig in te dien wat geheel en al deur KI geskryf is. In so ’n geval het die skrywer nie die bronne gelees nie, nie self besluit watter bronne om na te verwys nie, nie self besluit waarop om te fokus nie, en in sommige gevalle nie eens self die bronne gesoek nie, maar tog die artikel ingedien asof dit sy/haar eie werk is. Dít is oneties, maar die vraag is waar die etiese lyn tussen hierdie twee uiterste gebruike lê. Die meeste vaktydskrifte vereis dat die gebruik van KI vir enigiets meer as teksredigeringstake verklaar moet word, maar spesifiseer nie hoeveel KI gebruik te veel KI gebruik is nie. Science (2025) verwag dat skrywers wat KI-tegnologie in hul navorsing of met die skryf van hul manuskrip gebruik, dit in die dekbrief en erkenningsafdeling moet vermeld, asook gedetailleerde inligting oor die KI-instrument, sy weergawe en die volledige gebruikte instruksie ("prompt") in die metodologie-afdeling moet verskaf. Elsevier (2025) en Taylor & Francis (2025) het soortgelyke riglyne indien KI vir meer as net taalversorging aangewend word.
’n Tweede riglyn vir die gebruik van KI in akademiese tekste kan aan die hand van bostaande wees:
2. Geen gebruik van KI sonder menslike toesig word toegelaat nie, en wanneer KI vir meer as net teksredigering gebruik is, moet dit so op die voorleggingsvorm vermeld word.
Tussen hierdie twee uiterstes lê ’n verskeidenheid toepassings van KI, met verskillende grade van aanvaarbaarheid. Hier is byvoorbeeld een so ’n scenario: ’n Letterkundige sou ’n artikel kon voorlê waar ’n literêre teks aan die hand van ’n teorie bespreek word. Hy/sy is vertroud met die teorie en het die bronne self gelees, en so ook die literêre teks, maar KI word ingespan om ’n opsomming van die teorie te bied (met bronne soos deur die skrywer verskaf en vooraf gelees) en die teks aan die hand van hierdie teorie te bespreek. Die letterkundige kontroleer elke stelling van die KI-instrument, skaaf aan die finale produk, voeg by waar nodig, en verseker die akkuraatheid van die ontleding soos deur die KI-toepassing verskaf. Is dit oneties? En belangriker nog: Hoe sal ’n keurder of redakteur bepaal of hierdie letterkundige werklik so betrokke was by die skeppingsproses soos beweer, en of dit nie maar ook KI-geskep sonder menslike toesig is nie? Hierdie vrae word deur die laaste riglyn hier onder aangespreek.
Terwyl daar probleme rondom akademiese oneerlikheid bestaan, moet die voordele van KI in die navorsingsproses nie uit die oog verloor word nie. Elsevier (2025) voer byvoorbeeld aan:
Elsevier recognizes the potential of generative AI and AI-assisted technologies ("AI Tools"), when used responsibly, to help researchers work efficiently, gain critical insights fast and achieve better outcomes. Increasingly, these tools, including AI agents and deep research tools, are helping researchers to synthesize complex literature, provide an overview of a field or research question, identify research gaps, generate ideas and provide tailored support for tasks such as content organization and improving language and readability.
Alhoewel die outomatiese skryf van ’n literatuuroorsig met ander woorde oneties is, kan KI ook inligtingsoorlading aanspreek deur middel van ’n literatuuroorsig, wat tot voordeel van die wetenskap kan wees. ’n Mens wil daarom nie die gebruik van KI geheel en al verbied nie. Daarom is dit sinvol om riglyn 2 te stel, wat die geleentheid bied om verantwoordelik met KI om te gaan.
Dit kan voordelig wees vir skrywers indien ’n lys van toelaatbare toepassings op ’n tydskrif se webwerf beskikbaar is, bykans soos dié op die South African Journal of Science se webwerf, maar dalk meer gedetailleerd. Een persoon se opvatting van "teksredigering" verskil moontlik van ’n ander s’n, en wanneer daar duidelikheid is oor wat toelaatbaar is, word akademici en tydskrifte beskerm. ’n Mens sou ’n meningsopname onder skrywers kon doen waar ’n verskeidenheid take as eties/oneties geklassifiseer word, en daaruit gedetaileerde riglyne saamstel. Daarom beveel ek aan dat so ’n lys van gebruike geïdentifiseer en beskikbaar gestel word (dit vervang tot ’n groot mate die vorige twee riglyne):
3. Skrywers onderneem dat hulle vertroud is met die lys van take waar die gebruik van KI toelaatbaar is, en dat hulle enige ander gebruike op die voorleggingsvorm vermeld het.
’n Verdere probleem met die gebruik van skeppende KI, benewens die kwessie van akademiese oneerlikheid, is hallusinerings. In eenvoudige terme verwys hallusinerings na die verskynsel waar ’n GTM snert as feit aanbied. Hierdie snert kan feitefoute wees, maar ook bronne. ChatGPT is byvoorbeeld bekend daarvoor dat dit bronne versin, en al word nuwe KI-toepassings beter wat die korrekte aanduiding van bronne betref, bestaan die gevaar steeds dat fiktiewe bronne en feite in ’n publikasie ingesluit kan word. Alhoewel daar vóór KI ook soms feitefoute en foutiewe bronverwysings in akademiese publikasies voorgekom het, ondermyn hierdie neiging van KI die betroubaarheid van die wetenskap. Om hierdie rede beklemtoon tydskrifte en uitgewers soos dié wat in hierdie artikel genoem word, dat skrywers verantwoordelikheid vir die inhoud van hul manuskripte aanvaar.
Eerstens is GTM's nie betroubaar wanneer dit by die vind van feite kom nie, en daarom beveel ek die volgende riglyn aan:
4. Skrywers mag nie KI in die vorm van groottaalmodelle3 gebruik om feite te vind en weer te gee nie, en neem ten volle verantwoordelikheid vir die akkuraatheid van alle inligting in hul artikels.
Hierdie riglyn impliseer ook dat geen KI-instrument as bron aangedui kan word nie, tensy dit om een of ander rede noodsaaklik is vir die publikasie.
Aangesien fiktiewe bronne die wese van die wetenskap ondermyn, kan riglyn 5 hard geformuleer word:
5. Skrywers aanvaar verantwoordelikheid vir die akkuraatheid van hul bibliografieë, en neem kennis dat indien ’n versinde bron in ’n bibliografie gevind word, skrywers vir 10 jaar verbied sal word om weer manuskripte voor te lê.
So ’n riglyn sal slegs betrekking hê op bronne wat geheel en al versin is, nie op foute in bronverwysings nie.
Gegewe bostaande, kan ’n mens saamstem met Taylor & Francis se KI-beleid, naamlik dat skrywers nie manuskripte moet indien waar "Generative AI tools have been used in ways that replace core researcher and author responsibilities". Hulle noem byvoorbeeld:
- text or code generation without rigorous revision
- synthetic data generation to substitute missing data without robust methodology
- generation of any types of content which is inaccurate including abstracts or supplemental materials.
Die probleem met hierdie beleid is egter dat dit die verantwoordelikheid op die skrywer se integriteit plaas, wat nie voldoende is nie. Daarom beveel ek aan dat skrywers ook moet kennis dra van moontlike gevolge, soos in riglyn 5.
Vir beoordelaars
KI kan akademiese manuskripte beoordeel, en alhoewel daar gebreke is (die KI-toepassing is dalk nie vertroud met die nuutste bronne nie, of merk nie dat daar bronne in die bronnelys ontbreek nie), is KI oor die algemeen goed met hierdie taak. Daar is egter twee hoofprobleme met die gebruik van KI om manuskripte te beoordeel, naamlik hallusinerings en vertroulikheid. Soos met die skryf van ’n manuskrip kan ’n mens nie weet watter inligting versin word as die teks nie gelees is nie, met die gevolg dat KI snert of valshede kan kwytraak wat dan nie deur ’n mens reggestel word nie (Springer Nature 2025). Tweedens behels die oplaai van ’n teks in die meeste KI-toepassings dat die teks dan in ’n groot korpus aanlyn teks beland, wat kopiereg en vertroulikheid skend met ’n manuskrip wat nog nie gepubliseer is nie. Om hierdie rede laat vaktydskrifte keurders nie toe om KI in te span om beoordelings te vergemaklik nie (AOSIS 2025; Elsevier 2025; Science 2025; South African Journal of Science 2025; Springer Nature 2025; Taylor & Francis 2025). Die South African Journal of Science (2025) sê byvoorbeeld: "Uploading any part of a manuscript into a large language model or similar tool is a violation of our Confidentiality Policy" (sien ook ASSAf 2024).
Gegewe hierdie risiko's van KI in die keuringsproses, kan ’n KI-beleid vir keurders wees:
6. Die gebruik van KI word nie toegelaat vir die beoordeling van manuskripte nie, omdat dit vertroulikheid skend.
Vir vaktydskrifte
Dit is ’n uitdaging vir vaktydskrifte om KI-geskepte manuskripte te identifiseer, omdat die betroubaarheid van die tydskrif op die spel is. Dit is egter nie genoeg om op die integriteit van skrywers te vertrou of hulle te laat verklaar wanneer hulle KI-hulpmiddels ingespan het nie, want in enige stelsel waar ’n vorm van geldelike beloning aan uitsette gekoppel is, sal mense ’n kortpad na sulke uitsette vind. Akademiese publikasies is gekoppel aan finansiële aansporings, hetsy deur universiteitsubsidies, bevorderingsmoontlikhede of, in die geval van LitNet Akademies, ’n direkte beloning. Hierdie werklikheid kan nie vermy word nie, wat beteken dat daar verwag moet word dat akademici kortpaaie sal neem.
KI-verklikkers
Daar bestaan ’n verskeidenheid KI-verklikkers wat teks as mens- of KI-geskep klassifiseer. Almal beloof akkuraatheid, maar in die praktyk kan KI-verklikkers nie betroubaar bepaal of teks KI-geskep is nie. Ek het onlangs oor hierdie onderwerp geskryf, waar ek ook vorige navorsing – in die buiteland en in Afrikaans – saamgevat het, benewens eie eksperimente (Senekal 2025). KI-verklikkers kan tot vals positiewes en vals negatiewes lei, waar vals positiewes mensgeskepte teks is wat as KI-geskep geklassifiseer word, en vals negatiewes KI-geskepte teks is wat as mensgeskepte teks geklassifiseer word. Wanneer teks foutiewelik geklassifiseer word, skep dit probleme vir ’n tydskrif: Óf KI-geskepte teks glip deur en word nie as sodanig herken nie, óf mensgeskepte artikels word verkeerdelik as KI-geskep geklassifiseer. In laasgenoemde geval kan verhoudings tussen akademici en redaksies erg versuur wanneer ’n navorser se mensgeskepte artikel verkeerdelik afgekeur word met ’n aantyging dat die artikel KI-geskep is. Anders as met plagiaatverklikkers is KI-verklikkers se klassifikasies nie deursigtig nie; met ander woorde, waar ’n plagiaatverklikker uitwys vanaf watter publikasie die teks sonder erkenning geneem is, verskaf ’n KI-verklikker slegs ’n waarskynlikheid, sonder om te bewys waarop die waarskynlikheid gebaseer is. KI-verklikkers word beter, maar so ook skeppende KI, wat beteken dat dit ’n wapenresies is waar een nie noodwendig ’n noemenswaardige voorsprong sal verkry en behou nie.
Boonop kan KI-verklikkers nie etiese van onetiese KI-gebruik onderskei nie. Gestel ’n mens sou byvoorbeeld KI inspan om helderheid en taalgebruik in ’n manuskrip te verbeter – wat Nature (2025) en Elsevier (2025) aanvoer nie eens verklaar hoef te word nie – en daardie teks word nou as KI-geskep geklassifiseer, hoe bepaal ’n mens of daar nie agter die KI-redigering ’n mensgeskepte teks was nie?
Die identifisering van KI-geskepte manuskripte moet dus daarop fokus om wangedrag wat die navorsing self ondermyn, op te spoor, eerder as op die oppervlakkige skepping van teks. Dit beteken om nie op KI-geskepte teks te fokus deur KI-verklikkers nie, maar op KI-geskepte kennis, waar die mens nie sy kernfunksies as skrywer vervul nie. Dit is byvoorbeeld ’n heelwat groter probleem wanneer ’n skrywer ’n artikel voorlê wat deur KI geskryf is sonder menslike toesig, as wat dit is indien KI gebruik is om ’n manuskrip te verbeter. KI-verklikkers kan nie tussen hierdie gebruike onderskei nie en werk daarom oppervlakkig. AOSIS (2025) verwoord ’n soortgelyke sentiment:
The part of a work that should carry the most weight is the contribution it makes to the existing body of knowledge and not the words the work is expressed in – that is, the originality and relevance of the work determine its value.
Die enigste manier om akademiese integriteit te verseker, is deur ’n kort (10 minute lang) aanlyn onderhoud van die redakteur met die skrywer(s) van ’n artikel om te verseker dat die skrywer(s) vertroud is met die inhoud. In so ’n onderhoud kan vrae oor metodologie, inhoud, bronne en data gevra word wat nie in die artikel vermeld word nie. So ’n onderhoud sou ook later in die proses gevoer kon word, byvoorbeeld na keuring, bykans soos wat sommige universiteite van PhD-kandidate verwag om hulle proefskrifte mondelings te verdedig. Sulke aanlyn onderhoude behoort ook te dien as ’n afskrikmiddel teen onetiese navorsingspraktyke. Die onderhoude kan as standaard vir elke voorlegging ingestel word, of slegs vir verdagte voorleggings, byvoorbeeld wanneer ’n keurder aandui dat hy of sy vermoed dat die artikel KI-geskep is. Die riglyn kan met ander woorde wees:
7. Daar word by geleentheid van skrywers verwag om aanlyn onderhoude met lede van die redaksie te voer oor die inhoud van hul manuskripte.
Vertalings
Die vraag ontstaan ook oor hoe om artikels te hanteer wat deur ’n skrywer geskryf is wat nie Afrikaans magtig is nie, maar waar daardie skrywer sy artikel met behulp van Google Translate of ander GTM's in Afrikaans vertaal het en die artikel aan ’n vaktydskrif voorlê. Hier is die hoofvraag: Wat is die Afrikaanse vaktydskrif se doel? In die meeste gevalle is die doel van ’n Afrikaanse vaktydskrif om nuwe kennis in Afrikaans tot die wetenskap en die menslike kennispoel by te dra, en in hierdie opsig is daar nie ’n probleem daarmee as iemand ’n publikasie in Afrikaans voorlê al is hy nie Afrikaans magtig nie.
Die probleem is egter dat die persoon wat nie Afrikaans magtig is nie, nie self kan kontroleer of sy teks sy bedoeling akkuraat oordra nie. Soos met ander gebruike van KI moet die menslike skrywer verantwoordelikheid vir die hele inhoud van die artikel kan aanvaar, en as die skrywer nie self Afrikaans magtig is nie, kan hy/sy dit nie self kontroleer nie. Met die vertaling van literêre werke is daar gewoonlik ’n menslike vertaler wat verantwoordelikheid kan neem, maar geen KI-toepassing kan verantwoordelikheid neem nie.
Sou ’n Afrikaanse vaktydskrif boonop voorleggings aanvaar van mense wat nie Afrikaans goed magtig is nie, stel die tydskrif homself oop vir swakgehaltevoorleggings, veral uit Asië. Dit sal waardevolle tyd van die redaksie en die beperkte aantal keurders in beslag neem om sulke voorleggings te oorweeg en dit dan te moet afkeur. Tot nou toe was Afrikaanse vaktydskrifte verskans teen sulke laegehaltevoorleggings, maar KI kan die situasie verander.
Om bogenoemde redes stel ek voor dat die volgende vereiste vir die voorlegging van manuskripte bygevoeg word:
8. Omdat skrywers verantwoordelikheid vir die inhoud van hul manuskripte moet kan neem, word slegs voorleggings van skrywers met bewese taalvaardigheid in Afrikaans deur ’n Afrikaanse vaktydskrif aanvaar.
Bewyse hiervan kan bloot ’n publikasierekord, matrieksertifikaat of iets soortgelyks wees.
KI-geskepte beeldmateriaal
Die gebruik van KI-geskepte beeldmateriaal word gewoonlik nie toegelaat nie, omdat die kopiereg met sulke beelde nie tans uitgeklaar kan word nie (Elsevier 2025; Science 2025; Springer Nature 2025). Dit is egter ’n ander saak wanneer ’n publikasie spesifiek oor KI handel of wanneer KI gebruik is om data met behulp van ’n grafiek te visualiseer, in welke geval KI-geskepte beeldmateriaal toegelaat word (Elsevier 2025; Science 2025; Springer Nature 2025). Taylor & Francis (2025) laat geen KI-geskepte beeldmateriaal toe nie. Nature (2025) laat byvoorbeeld die volgende uitsonderings toe:
- Images/art obtained from agencies that we have contractual relationships with that have created images in a legally acceptable manner.
- Images and videos that are directly referenced in a piece that is specifically about AI and such cases will be reviewed on a case-by-case basis.
- The use of generative AI tools developed with specific sets of underlying scientific data that can be attributed, checked and verified for accuracy, provided that ethics, copyright and terms of use restrictions are adhered to.
Soos met ander gebruike van KI is een van die belangrikste oorwegings dat die skrywer verantwoordelikheid vir die akkuraatheid van beeldmateriaal moet neem. Gegewe hierdie oorwegings kan ’n vereiste rondom die gebruik van KI-beeldmateriaal wees:
9. KI-geskepte beeldmateriaal kan nie gepubliseer word nie, tensy dit spesifiek betrekking het op die artikel of wanneer KI vir die visualisering van data in grafiekvorm gebruik is.
Samevatting
Skeppende KI word reeds in die akademiese-uitgewerswese gebruik, en dit is onwaarskynlik dat hierdie situasie in die afsienbare toekoms sal verander. ’n Mens wil akademiese integriteit en die betroubaarheid van akademiese publikasies verseker, maar dit is onrealisties om bloot van skrywers te verwag om hulle gebruik van KI te verklaar. Daarom beveel ek aan dat riglyne daarop fokus om akademiese integriteit te verseker, byvoorbeeld deur aanlyn onderhoude om vertroudheid met die onderwerp van manuskripte aan te toon, en deur steekproefkontroles van bronne in bibliografieë, met duidelik gestelde sanksies indien skrywers riglyne oortree.
Bibliografie
AOSIS. 2025. AI policy. https://aosis.co.za/documents/AOSIS-AI-policy.pdf (24 Oktober 2025 geraadpleeg).
ASSAf. 2024. ASSAf and SciELO guidelines for the use of artificial intelligence (AI) tools and resources in research communication. https://www.assaf.org.za/wp-content/uploads/2024/09/Final-ASSAf-and-SciELO-Guidelines-for-the-Use-of-Artificial-Intelligence-AI-Tools-and-Resources-in-Research-Communication_17-Sept-2024-.pdf (24 Oktober 2025 geraadpleeg).
Elsevier. 2025. Generative AI policies for journals. https://www.elsevier.com/about/policies-and-standards/generative-ai-policies-for-journals (24 Oktober 2025 geraadpleeg).
Rai, A, P Constantinides en S Sarker. 2019. Next-generation digital platforms: toward human-AI hybrids. MIS Quarterly, 43(1):iii–ix.
Science. 2025. Science journals: editorial policies. https://www.science.org/content/page/science-journals-editorial-policies (24 Oktober 2025 geraadpleeg).
Senekal, BA. 2023. Tien etiese en praktiese gebruike van ChatGPT vir akademiese skryfwerk in Afrikaans. https://www.litnet.co.za/tien-etiese-en-praktiese-gebruike-van-chatgpt-vir-akademiese-skryfwerk-in-afrikaans (24 Oktober 2025 geraadpleeg).
—. 2025. Hoe herken jy KI-geskepte teks? https://www.litnet.co.za/hoe-herken-jy-ki-geskepte-teks (24 Oktober 2025 geraadpleeg).
South African Journal of Science. 2025. Editorial policies. https://sajs.co.za/editorial-policies (4 November 2025 geraadpleeg).
Springer Nature. 2025. Artificial intelligence (AI). https://www.nature.com/nature-portfolio/editorial-policies/ai (24 Oktober 2025 geraadpleeg).
Taylor & Francis. 2025. AI policy. https://taylorandfrancis.com/our-policies/ai-policy (24 Oktober 2025 geraadpleeg).
Eindnotas
1 Die South African Journal of Science (2025) se riglyne is soms vir my onduidelik: "AI and large language models may be used to edit descriptive (non-data) images, revise and edit writing, and seek and summate existing literature", mits dit verklaar word. "[R]evise and edit writing" sou na my mening spelling en grammatika insluit, wat hulle aanvoer nie genoem hoef te word nie. Om relevante literatuur te soek impliseer soekenjins, wat ook nie iets is wat gewoonlik genoem word nie, tensy ’n sistematiese literatuuroorsig ter sprake is.
2 Die ander uiterste kan ook wees die gebruik van KI om data en ontledings te manipuleer om ’n bepaalde agenda te ondersteun, maar dit kon ook voor KI gedoen word en is te voor die hand liggend oneties om hier te bespreek.
3 Hierdie frase is noodsaaklik omdat Google ook KI is en nie verbied kan word nie.
Lees meer oor KI op LitNet en in LitNet Akademies hier.


Kommentaar
Baie dankie - waardevolle en ingeligte artikel.