
Deur Gerd Altmann | Pixabay
...
KI het reeds baie vrae sosiaal, eties en ekonomies laat ontstaan, maar veral ook ten opsigte van die publikasie van artikels in tydskrifte en joernale.
...
Wetenskaplike navorsingstydskrifte worstel al hoe meer met die probleem hoe om te onderskei tussen oorspronklike navorsingsartikels wat deur eie navorsing geskryf word en navorsingsresultate wat deur middel van of met die hulp van Kunsmatige Intelligensie (KI) die lig sien.
Die Akademie vir Wetenskap van Suid-Afrika (ASSAf) en die Departement van Wetenskap en Innovasie (DSI) het verlede week ’n aanlyn seminaar aangebied om die invloed van KI op navorsingspublisering te bespreek en die etiese implikasies daarvan.
KI-opsporingshulpmiddels en redaksionele besluitnemingsbeleide is deur ’n paneel kundiges van verskillende akademiese instellings bespreek.
KI het reeds baie vrae sosiaal, eties en ekonomies laat ontstaan, maar veral ook ten opsigte van die publikasie van artikels in tydskrifte en joernale.
Navorsers het met ChatGPT begin eksperimenteer toe dit in 2022 vrygestel is om te kyk hoe hulle daaruit kan voordeel trek en ondersteun word met die skryf van sistematiese resensies, literatuursoektogte, opsomming van akademiese artikels, ensovoorts.
Een van die talle vrae waarmee daar gestoei word, is of uitgewers navorsingswerk wat met behulp van KI gegenereer is, summier moet verwerp en of daar riglyne opgestel kan word oor die behoorlike gebruik van hierdie tegnologie.
Internasionale wetenskaplike tydskrifte soos Science, Elsevier en Nature wat eweknie-geëvalueerde navorsing in alle velde van wetenskap en tegnologie publiseer, was vinnig om op hierdie nuwe tegnologie te reageer. Hulle het hul onderskeie redaksionele en publikasiebeleide opgedateer en onvoorwaardelik verklaar dat ChatGPT nie as ’n skrywer op ’n akademiese referaat gelys kan word nie.
Daar is egter ook uitgewers wat hierdie grys area met betrekking tot die vraag of ChatGPT gebruik kan word vir hulp in die navorsingsproses anders benader.
Een noemenswaardige uitsondering is ACS Publications, wat ’n proaktiewe benadering volg om riglyne oor die behoorlike gebruik van KI-tegnologie te definieer.
’n ACS Energy Viewpoint-stuk oorweeg die moontlikheid dat ChatGPT wel ’n bystandbestuur-benadering kan implementeer wat navorsers kan help om hulle tyd ten opsigte van hulle navorsing beter te bestuur, sodat hulle meer aandag kan gee aan ander navorsingsaspekte en wetenskapsaktiwiteite.
’n Hoofartikel in ACS Nano skets gedetailleerde “beste praktyke” en beleide vir die gebruik van KI-nutsgoed.
Nog ’n kwessie waaroor daar kopgekrap word, is of tradisionele plagiaatkontroleerders KI-opsporing ingehaal het en kan daardie instrumente op een of ander manier mislei word?
Hierdie aanlyn seminaar was daarop gemik om kwessies soos redaksionele en publikasiebeleide, navorsingsprosesse en plagiaat te bespreek en groter duidelikheid te verkry oor die gepaardgaande gereedskap en beleide in redaksionele besluitneming.
Wian Erlank, professor in regte aan die Noordwes-Universiteit, het die regsaspekte van die gebruik van KI in redaksionele besluitneming toegelig. Hy sê dit is belangrik om ’n duidelike redaksionele beleid te hê oor die gebruik van KI. Dit moet ook vir die leser baie duidelik wees watter inhoud is deur middel van KI ingesamel en wat is deur menslike outeurs geskep.
Wanneer ’n outeur hulle werk met KI-programme deel, moet hulle volgens Erlank baie versigtig wees hoe hulle inligting deel. Sodra dit in ’n databasis gevoer word, is dit deel van die KI-program se kollektiewe geheue wat ’n invloed kan hê op die privaatheid of kopiereg van die outeur.
...
Erlank sê daar moet aanvaar word dat KI gekom het om te bly. Die belangrike uitdaging is hoe om dit reg en effektief te gebruik.
...
Erlank sê daar moet aanvaar word dat KI gekom het om te bly. Die belangrike uitdaging is hoe om dit reg en effektief te gebruik. Kopiereg en privaatheid is van die grys areas waaroor daar nog nie volkome duidelikheid is nie. “Moenie bang wees om KI te gebruik nie, maar doen dit verantwoordelik,” sê Erlank.
Die gebruik van KI in wetenskaplike navorsingsartikels bring ook verskeie etiese kwessies na vore. Dit sluit in die beskerming van persoonlike inligting, privaatheid en die gebruik van KI vir potensieel-skadelike doeleindes. Dit vereis aandag en regulering om misbruik te voorkom.
Valda Vinson is die uitvoerende redakteur vir die Science-joernale. In hierdie rol hou sy toesig oor navorsingsinhoud-strategie en redaksionele beleid by Science, Science Signaling, Science Translational Medicine, Science Immunology en Science Robotics.
Sy het gepraat oor die uitdagings en geleenthede van KI. Volgens haar is die gebruik van KI in navorsingsartikels steeds in ’n ontwikkelingsfase. Sy sê KI sal ongetwyfeld ’n plek hê en dit is veel wyer as byvoorbeeld slegs ChatGPT. Die vraag is wat die uitdagings en geleenthede by die gebruik van KI in wetenskaplike publikasies is en hoe dit hanteer moet word.
Van die uitdagings waarna daar gekyk moet word, is onder andere verantwoordbaarheid en akkuraatheid van data.
Deelnemers aan die gesprek was dit eens dat KI nog heelwat sal moet verbeter om plagiaat effektief op te spoor.
Daniel Kulp het gepraat oor die etiese gebruik van KI-gereedskap tydens publikasie. Hy het meer as 15 jaar ondervinding in die ontwikkeling van molekulêre ontwerpsagteware en as senior direkteur, navorsingsintegriteit en globale ontwikkelings by die American Chemical Society (ACS) en is ook voorsitter van die Komitee vir Publikasie-etiek (COPE).
In sy voorlegging het hy die klem gelê op die etiese gebruik van KI as ’n stuk gereedskap vir navorsingsdoeleindes. Kulp sê die debat oor die gebruik van KI in navorsingsartikels gaan tans tot ’n groot mate oor hoe om die ondermyning van integriteit te voorkom en om KI as ’n betroubare stuk gereedskap met integriteit aan te wend.
Hy het spesifiek verwys na COPE se standpunt daaroor.
Hy sê die gebruik van KI-instrumente soos ChatGPT of Large Language Models in navorsingspublikasies brei vinnig uit.
COPE sluit aan by organisasies, soos onder andere WAME en die JAMA-netwerk, wat verklaar dat KI-instrumente nie as ’n skrywer van ’n referaat gelys kan word nie.
KI-instrumente kan volgens COPE nie aan die vereistes vir outeurskap voldoen nie, aangesien hulle nie verantwoordelikheid vir die ingediende werk kan aanvaar nie. As nie-regsentiteite kan hulle ook nie die teenwoordigheid of afwesigheid van botsende belange ten opsigte van kopiereg- en lisensie-ooreenkomste bestuur nie.
Skrywers wat KI-instrumente gebruik in die skryf van ’n manuskrip, produksie van beelde of grafiese elemente van ’n referaat, of in die versameling en ontleding van data, moet deursigtig wees tot watter mate hulle van KI gebruik maak in hulle navorsing en hoe die KI-instrument gebruik is, asook watter instrument gebruik is, sê COPE. Skrywers is ten volle verantwoordelik vir die inhoud van hul manuskrip, selfs daardie dele wat deur ’n KI-instrument vervaardig word, en is dus aanspreeklik vir enige oortreding van publikasie-etiek.
Kirstin Krauss wou uitvind of ’n mens ChatGPT kan gebruik om ’n volledige KI-gegenereerde tesis te skryf.
Krauss se navorsing fokus hoofsaaklik op inligtings- en kommunikasietegnologieë (IKT). Hy het redaksionele werk gedoen vir ’n aantal joernale en konferensies, insluitend Inligtingstegnologie vir Ontwikkeling, die Tydskrif vir Inligtingstegnologie, en die Elektroniese Tydskrif vir Inligtingstelsels in Ontwikkelende Lande, die Suid-Afrikaanse Rekenaarjoernaal en ander publikasies.
In sy aanbieding tydens die aanlyn seminaar het hy ’n lys instruksies aan ChatGPT gegee om ’n navorsingsartikel van 15 bladsye te skryf oor ’n spesifieke onderwerp met betrekking tot die COVID-19-pandemie.
In sekere opsigte was die program baie effektief om te help met die skryf van die artikel, veral met die voorbereiding, redigering en aanbieding daarvan.
...
Wat interessant is, is dat opsporingsprogramme wat moet bepaal of die teks deur KI of ’n mens gegenereer is, dikwels nie die onderskeid kon tref nie.
...
Wat interessant is, is dat opsporingsprogramme wat moet bepaal of die teks deur KI of ’n mens gegenereer is, dikwels nie die onderskeid kon tref nie. Die programme het soms aangedui dat die artikel wat volledig deur middel van KI geskryf is, hoofsaaklik die oorspronklike werk van ’n mens is.
Van die ander terugvoer op die artikel was dat dit soms afgestomp gevoel het en dat die sinne en konstruksie gladder kon wees.
Oor die algemeen is egter gevind dat dit ’n baie goeie artikel was en dat baie min lektore die verskil sou agterkom tussen die KI-gegenereerde artikel en een wat deur ’n mens geskryf is.
Krauss sê die probleem is dat daar meer mense is wat KI-programme ontwikkel as diegene wat programme ontwikkel om plagiaat op te spoor.
Uit die paneelbespreking was dit duidelik dat KI ’n aansienlike invloed op wetenskaplike navorsingsartikels het. Dit het die potensiaal om navorsing op verskeie terreine te versterk en te verbeter en kan ’n waardevolle rol speel in wetenskaplike navorsingsartikels. Daar is egter ook nadele en gevare wat in gedagte gehou moet word.
KI-tegnieke kan byvoorbeeld help om groot hoeveelhede data te analiseer en patrone, tendense of verbande te identifiseer wat deur mense moeilik of tydrowend sou wees om op te spoor.
Dit kan bydra tot die ontdekking van nuwe insigte en kennis, maar dit is belangrik om KI met omsigtigheid en verantwoordelikheid in wetenskaplike navorsing toe te pas.
Dit vereis ’n kritiese evaluering van die gebruikte algoritmes, die data wat gebruik word en die implikasies van die resultate. Deur hierdie kwessies te erken en te bestuur, kan die potensiaal van KI in wetenskaplike navorsing beter benut word, terwyl die nadele en gevare hopelik mettertyd verminder sal word.
Lees ook:
Besinning oor die ASSAf-paneelbespreking oor ChatGPT, assessering en hoër onderwys