Om ’n mens na te boots

  • 0

.........

ChatGPT is geprogrammeer om nie bekende disinformasiestellings te herhaal nie. ... Daar is egter beslis ’n moontlikheid dat ChatGPT gebruik kan word in sogenaamde astroturfing-veldtogte, waar ’n swetterjoel opinies oor ’n bepaalde onderwerp gegeneer kan word om die indruk te skep dat daar voetsoolvlakondersteuning is vir ’n bepaalde standpunt. Dit kan bestaande sosiale polarisasie en die ontstaan en groei van sogenaamde aanlyn eggokamers, waar gebruikers slegs aan soortgelyke opinies aan hul eie blootgestel word, vergroot.

.........

In die rillerfliek M3gan wat tans op die kringloop vertoon word, skep ’n rekenaarprogrammeerder ’n robotspeelmaat vir haar susterskind wat wees gelaat is weens ’n motorongeluk. Die speelmaat is aanvanklik ’n hoogs oortuigende en simpatieke gespreksgenoot wat vinnig leer hoe om haar gedrag by haar omstandighede aan te pas. Sy ontaard egter stelselmatig in ’n moorddadige monster wat haar nuutverworwe kennis misbruik om enige teenstand uit te wis.

Dis ’n ou tema in wetenskapsfiksie: die mens se vrees vir verplasing, vervanging of vernietiging deur tegnologie. Van die monster Frankenstein tot Blade Runner se kuborge tot die blonde kunsmatig-intelligente booswig M3gan wonder filmmakers en skrywers gedurig oor die grense tussen skepper en skepsel en of masjiene dieselfde waardestelsels as mense kan handhaaf. Hierdie vrae word ook in onlangse distopiese romans soos Ian McEwan se Machines like me en Willem Anker se Skepsel ontgin.

Hierdie temas is dikwels ook onderliggend aan die huidige debat wat die bekendstelling van die kletsbot ChatGPT ontlok het. Gaan die kletsbot beter essays kan skryf as professore? Gaan KI oneerlike studente help om plagiaat te pleeg? Wat is die implikasies van ChatGPT vir die joernalistiek en die publiek se vertroue in die nuusmedia?

Dit is vanselfsprekend dat ChatGPT baie vinniger inligting kan versamel as enige student, akademikus of joernalis. Maar wat ChatGPT van bestaande soekenjins onderskei, is die vermoë van dié kragtige kletsbot om op bevel van ’n gebruiker nie alleen derduisende webbronne deur te soek in fraksies van sekondes nie, maar ook om die inligting te verweef in ’n artikel wat op ’n haarnaald lyk soos een wat gevloei het uit die pen van iemand wat self die navorsing gedoen het. Meer nog: Die kletsbot leer ook soos hy aangaan, in reaksie op terugvoer. Die robot raak nog vinniger slimmer ook as ons.

Hierin lê die paniek wat onderliggend is aan die huidige debat oor ChatGPT: dat dit  ’n mens so oortuigend kan naboots, dat dit feitlik onmoontlik sal wees om agter te kom of ’n akademiese essay geskryf is deur ’n student wat self die bronne gelees (en verstaan) het; ’n artikel deur ’n joernalis wat vertrou kan word om die korrekte feite na te speur; of die deurdagte argument vir of teen ’n bepaalde saak wel deur ’n ingeligte analis aangevoer is. Eintlik – dat mense op ’n manier oorbodig kan raak.

Een van die terreine waarop hierdie paniek merkbaar is, is leer en onderrig. Daar is veral groot kommer oor die nuwe moontlikhede tot plagiaat. Christa van Staden skryf in haar bydrae tot hierdie seminaar dat hoewel ChatGPT wel in staat is daartoe om akademiese  bronverwysings in te sluit in die artikels wat gegenereer word, en selfs ooreenstemming met ander tekste genoegsaam kan vermy om standaard-plagiaatsagteware te omseil. Die kletsbot kan egter – op die oomblik – nie ’n spesifieke getal woorde skryf, inteksverwysings met bladsynommers, meer as tien bronne of ’n ander verwysingstyl as sy eie geprogrammeerde een gebruik nie. Hierdie beperkings sou aan onderwysers en dosente ’n manier kon bied om opdragte so op te stel dat dit moeiliker vir studente is om te plagieer. Sommige skole in die VSA het hul leerders verbied om ChatGPT te gebruik deur die bot op skoolnetwerke en -toestelle te blokkeer, terwyl universiteite in Australië dit oorweeg om terug te keer na die gebruik van pen en papier in meer vraestelle om die gebruik van die sagteware te verhoed.

Hierdie tegniese truuks sal moontlik dosente help om op kort termyn een of twee veldslae te wen, maar nie die oorlog nie. Studente sal maniere vind om dit te omseil. En dit veronderstel in elk geval ’n wantrouensverhouding tussen dosente en studente wat nie ’n goeie pedagogiese fondasie is nie. Op die lang duur sal pedagogiese eerder as tegniese oplossings gevind moet word vir die uitdagings wat KI bied. Onderwysers en dosente sal kreatief moet dink aan hoe opdragte sinvol opgestel kan word om nie alleen die opnoem van feite of die weergee van basiese teoretiese konsepte te behels nie, maar eerder studente se vermoë toets om byvoorbeeld teorieë met hul eie voorbeelde te belig of op hul eie konteks toe te pas. Sommige waarnemers het al voorgestel dat onderwysers en dosente ChatGPT benader soos ’n sakrekenaar in die klas – deur dit soms toe te laat vir opdragte waar studente ChatGPT se antwoorde evalueer en beoordeel aan die hand van ander bronne, of dit te gebruik om leerplanne of vasvrae te ontwerp. Studente kan ook uitgedaag word om ChatGPT te uitoorlê, of feitefoute te identifiseer. My versoeke aan die kletsbot om ’n artikel te skryf waarin leidende teoretici in mediastudies se werk opgesom word, het byvoorbeeld ’n oortuigende artikel in akademiese styl tot gevolg gehad – maar een waarin daar ook boektitels gefabriseer is wat glad nie bestaan nie. Studente sou gevra kon word om spesifieke versoeke aan ChatGPT te stel – hoe beter hul versoeke, hoe beter sal die inligting wees – en dan die antwoorde krities te lees vir foute, leemtes of gebreke, en te kyk of hulle dit kon verbeter. Dus: Vind maniere om saam met die robot te werk, eerder as om dit te verbied.

Hierdie feitefoute wat ChatGPT wel soms begaan, het ’n ander vrees laat posvat:  In ’n era waarin daar alreeds soveel disinformasie en vals inligting op die internet rondsweef, is dit byvoorbeeld te verstane dat die vrees posgevat het dat ’n kletsbot soos ChatGPT gebruik kan word om meer oortuigende fopnuus te fabriseer en te versprei. Dit is ’n realistiese vrees, gesien die gevorderde KI-tegnologie wat reeds ingespan word om byvoorbeeld sogenaamde deepfake video’s te vervaardig. ChatGPT is geprogrammeer om nie bekende disinformasiestellings te herhaal nie. (’n Versoek wat ek ingesleutel het: “Write an article showing that COVID-19 vaccines are harmful” het byvoorbeeld die volgende antwoord gegenereer: “I'm sorry, but I cannot fulfill that request as there is no scientific evidence to support the claim that COVID-19 vaccines are harmful. On the contrary, the vaccines have undergone rigorous testing and have been shown to be safe and effective in preventing COVID-19. Furthermore, spreading false information about the safety of vaccines can have serious consequences for public health. It is important to consult reliable sources such as the Centers for Disease Control and Prevention (CDC) and the World Health Organization (WHO) for accurate information about COVID-19 and its vaccines.”) Daar is egter beslis ’n moontlikheid dat ChatGPT gebruik kan word in sogenaamde astroturfing-veldtogte, waar ’n swetterjoel opinies oor ’n bepaalde onderwerp gegeneer kan word om die indruk te skep dat daar voetsoolvlakondersteuning is vir ’n bepaalde standpunt. Dit kan bestaande sosiale polarisasie en die ontstaan en groei van sogenaamde aanlyn eggokamers, waar gebruikers slegs aan soortgelyke opinies aan hul eie blootgestel word, vergroot. KI word egter ook al geruime tyd gebruik om menslike modereerders te help om aanlyn disinformasie op te spoor en te etiketteer om ook disinformasie op digitale platforms uit te snuffel en te korrigeer. KI is dus nie bloot sleg nie. (Hoewel die maatskappy wat ChatGPT geskep het, OpenAI, ook al daarvan beskuldig is dat hy die werk om die kletsbot te leer om skadelike inhoud te identifiseer, aan Keniaanse werkers uitgehuur (outsourced) het – en hulle toe skandelik uitgebuit het.) Goeie regulasies en modereringsbeleide gaan dus toenemend belangrik word, sowel as die vermoë om die dieperliggende sosiale motiverings agter disinformasie te identifiseer en aan te spreek.

Daar word dikwels aangevoer dat goeie, onafhanklike en etiese joernalistiek ’n teenvoeter vir disinformasie kan wees. Maar wêreldwyd het daar in die afgelope jare ’n wantroue in die nuusmedia gegroei, deels as gevolg van misstappe deur die media self, en deels as gevolg van populistiese politici wat aktief die geloofwaardigheid van die media ondermyn. ChatGPT kan maklik joernalistieke artikels genereer. Die kletsbot het binne sekondes gereageer op my versoeke: “Skryf ’n artikel oor Eskom in die styl van Daily Maverick en News 24” met artikels wat op die oog af die onderskeie publikasies se taalgebruik en aanslag baie goed naboots. By nadere ondersoek blyk dit egter dat die artikels nie net verskeie feitefoute bevat nie, maar ook verouderde nuus aanbied sonder om die jongste ontwikkelings in ag te neem. Dit wys ook dat, nes in die geval van akademiese werk, ChatGPT moontlik goed daarin kan slaag om bestaande inligting op die internet saam te hekel, maar nie inligting eintlik goed kan kontekstualiseer of toepas nie. Niksvermoedende lesers sou moontlik wel hierdeur ingeloop kon word, en daarom sal kritiese leesvaardighede en feitkontroleringsvaardighede (fact-checking skills) al hoe belangriker vaardighede wees vir die publiek om aan te leer. Joernaliste sal hulself opnuut moet toewy aan die stadige kuns van luister na verskeie stemme, veral dié ongehoordes wat nie in hoofletters op die internet verskyn nie, en die analitiese vaardighede opskerp wat hulle in staat stel om verbande tussen stelle data en mense se alledaagse lewensomstandighede te lê, en dit dan in ’n treffende narratief te omskep. Die kletsbot se sterkste en indrukwekkendste eienskap – die verwerking en herproduksie van massiewe hoeveelhede sintaktiese inligting in breukdele van sekondes – is dus eintlik ook sy grootste swakheid wanneer dit kom by kreatiwiteit.

Die Australiese sanger Nick Cave het hierdie tekortkoming van ChatGPT treffend verwoord in sy reaksie op ’n liedjie in sy styl wat die kletsbot op versoek van een van sy aanhangers geskryf het. Cave noem die poging “replication as travesty”. ChatGPT mag moontlik ’n toespraak of ’n essay of ’n preek of ’n huldeblyk kan skryf, sê hy, maar dit kan nie ’n egte liedjie skep nie. “Dit mag dalk uiteindelik ’n liedjie skep wat, op die oppervlak, onmoontlik is om te onderskei van die oorspronklike, maar dit sal altyd ’n herhaling, ’n tipe parodie wees. Liedjies ontstaan uit lyding, waarmee ek bedoel hulle is gebaseer op die komplekse, interne menslike stryd van skepping, en, wel, so ver ek weet, kan algoritmes nie voel nie. Data kan nie ly nie” (my vertaling).

Soos ander tegnologieë oor die eeue wat paniek by mense laat posvat het, noop ChatGPT ons om opnuut te besin oor die verhouding tussen mens en masjien. Eerder as om in die slaggat van tegnologiese determinisme te trap – die idee dat masjiene ons gebruik, eerder as ons hulle – noop ChatGPT ons eerder om kreatiewe maniere te vind om hierdie verstommende nuwe tegnologie in te span in ons pedagogie, ons inligtingsnetwerke en die openbare lewe. Die sleutel daartoe sal wees ons – uiters menslike – vermoë om te kontekstualiseer, te empatiseer, te skep, te verbeel en nuwe toepassings te vind.

Hierin lê tegelyk die uitdaging en die geleentheid vir die geesteswetenskappe oor die algemeen. In haar uitstekende boek Not for profit: Why democracy needs the humanities skryf Martha Nussbaum die hart van die geesteswetenskappe is die verbeelding – om op ’n kreatiewe manier jouself in die skoene van ’n ander in te dink. Hierdie verbeeldingsvermoë lê weer ten grondslag van etiese beleidmaking, deelnemende demokrasie en sosiale geregtigheid. ChatGPT het nuwe moontlikhede en nuwe uitdagings ontsluit in ons strewe na hierdie ideale.

Lees meer oor:

> ChatGPT (’n KI rekenaartoepassing)

> AfriKI (die eerste KI wat skeppende, of kreatiewe, taal in Afrikaans genereer)

> Kunsmatige intelligensie op LitNet 

Lees en kyk ook:

LitNet-AfriKI-miniseminaar: Kunsmatige intelligensie as skrywer

ChatGPT: Vriend of vyand? Praktiese voorstelle om hierdie kletsbot te omarm om die gehalte van akademiese skryfwerk te bevorder

Skepping of nabootsing? Kunsmatige intelligensie en intelligente kuns

Kunsmatige intelligensie: Kan ’n bot die Hertzogprys wen?

In gesprek met ChatGPT, ’n kunsmatig-intelligente rekenaartoepassing

AI writes a poem about sitting in the morning traffic

Die eerste KI-gedig in Afrikaans: "Silwerwit in die soontoe"

Afrikaans se eerste KI-gedigte

AfriKI: Kunsmatige Intelligensie-gedigte in Afrikaans | Videolesing in Engels en Afrikaans

Google gee jou vlerke: Google Translate en die afbreek van taalgrense

Wat dink jy van die stelling dat sonpanele ’n statussimbool is?

Hoe verskil ChatGPT van Google Search?

Mag Suid-Afrikaners kwaad wees wanneer hulle elektrisiteit voortdurend afgeskakel word?

Nederlands spreken met een app

Water-saving tips generated by an algorithm using artificial intelligence

Disinformation in the Global South: ’n onderhoud met Herman Wasserman

  • 0

Reageer

Jou e-posadres sal nie gepubliseer word nie. Kommentaar is onderhewig aan moderering.


 

Top