"Gegewe dat die geselsrobot 'geleer' is deur blootstelling aan tekste wat deur mense geproduseer is, behoort dit nie ’n verrassing te wees dat dit gekenmerk word deur dieselfde dinamika tussen afwesigheid en teenwoordigheid wat volgens Derrida bepalend is vir alle teks nie."
Die bekendstelling van OpenAI se nuutste KI-program ChatGPT-3 laat verlede jaar het ’n opskudding veroorsaak in verskeie velde. Die nuwe program se vermoë om binne enkele sekondes sinvolle, skynbaar-feitelike, korrekte antwoorde te produseer op bykans elke soort vraag waaraan ons kan dink, het aanleiding gegee tot uitsprake dat Kunsmatige Intelligensie ’n ongekende vlak van gevorderdheid bereik het. Gevolglik is daar intussen ook reeds heelwat geskryf en gepraat oor beide die gevare en moontlikhede van die nuwe geselsrobot, ook hier op LitNet.
Ook verstaanbaar het heelwat van die onlangse nadenke en kommentaar op ChatGPT-3 gefokus op tot hoe ’n mate die program se intelligensie steeds verskil van en dikwels tekortskiet aan menslike intelligensie. Johann Rossouw verwys op hierdie blad byvoorbeeld na die sanger Nick Cave se skreiende kritiek op ChatGPT-3 se vermoë om lirieke te skryf (“This song is bullshit”), en gaan selfs voort om kritiek te lewer op die program as “nabootsing”, eerder as ’n ware skepper van iets nuuts. Ek moet op hierdie punt noem dat ek self groot simpatie het met Cave en Rossouw se uitgangspunte, en dat my eie “gesprekke” met die geselsrobot maar ’n droewige affêre was. (ChatGPT-3 is duidelik heelwat blootgestel aan ’n uiters-vervelige variant van korporatiewe spanwerkdiskoers.)
Ten spyte van die steeds opmerkbare verskille tussen menslike intelligensie en ChatGPT sal dit egter ’n fout wees om nie erns te maak met die maniere waarop die robot se “kommunikasie” nietemin ooreenstem met dié van mense nie. Ek wil aanvoer dat ons met behulp van hierdie benadering uiteindelik ’n beter begrip sal ontwikkel van hoe mense van hierdie robotte verskil, en miskien ook in watter opsig die huidige KI-paradigma ontoereikend is.
Wat die robot se ooreenkomste met mense betref, sou ’n mens hier na twee wedersydse afhanklike fasette kon kyk, naamlik 1) na die manier waarop ChatGPT-3 taal besig, of minstens, die voorwaardes waaronder ChatGPT se gebruik van taal en ons verstaan daarvan moontlik is, en 2) die onderliggende argitektuur van sowel mense as ChatGPT-3, naamlik ’n neurale netwerk. Ek beskou die probleem hier hoofsaaklik vanuit eersgenoemde aspek, maar wat die onderliggende argitektuur betref, moet ’n mens minstens noem dat die menslike brein ’n uiters-komplekse neurale netwerk is. Die Suid-Afrikaanse filosoof Paul Cilliers het reeds in sy boek Complexity and Postmodernism (1998) op oortuigende wyse ’n verband getref tussen die werking van neurale netwerke en Saussure se konsep van taal as ’n sisteem van verskille.
Wat die eerste aspek betref, naamlik die moontlikheidsvoorwaardes vir die geselsrobot se taligheid, is daar veral twee filosofiese tekste uit die tweede helfte van die vorige eeu wat pertinent is. Eerstens die Britse taalfilosoof JL Austin se William James-lesings soos gelewer by Harvard-Universiteit in 1955, gepubliseer as How to do things with words, en tweedens die Franse filosoof Jacques Derrida se lees van Austin in sy belangrike werk “Signature, event, context” (1972). Voordat ek begin om Austin se argument kortliks te bespreek, is dit miskien die moeite werd om ’n tersaaklike voorbeeld van die geselsrobot se vermoëns te gee.
Vraag:
Verduidelik kortliks wie JL Austin en Jacques Derrida was.
ChatGPT:
JL Austin was ’n Britse filosoof wat bekend was vir sy werk in die filosofie van taal, veral in die gebied van spraakdade. Hy het die idee van “spraakdaadteorie” ontwikkel, wat die studie is van hoe woorde en taal gebruik kan word om verskeie soorte aksies te verrig, soos om beloftes te maak, bevele te gee of stellings te maak. Sy werk bly invloedryk in die veld van filosofie, taal- en kommunikasiestudies.
Jacques Derrida was ’n Franse filosoof wat bekend was vir sy werk in die veld van dekonstruksie en post-strukturalisme. Hy is bekend vir sy konsep van “dekonstruksie”, wat ’n metode is om tekste en ander vorme van kommunikasie te analiseer om die onderliggende aannames en magsdynamiek [sic] bloot te lê. Derrida se werk was invloedryk in ’n wye reeks velde, insluitend literêre teorie, kulturele studies en filosofie.
(Die geselsrobot het my na aanleiding van ’n opvolgvraag verseker dat bostaande korrek is.)
Ek gaan nou voort met Austin se argument soos hy dit uiteensit in How to do things with words.
Die titel van Austin se versameling gee reeds ’n goeie aanduiding van wat hier ter sake is, naamlik: die geselsrobot doen dinge met woorde. Die neurale netwerk word geleer om woorde op so ’n manier te rangskik dat die uiteindelike konstruksie sin maak. Maar laat ons eers Austin se argument van nader beskou.
Austin begin deur daarop te wys dat mense dikwels ’n hele reeks stellings gebruik wat eintlik glad nie “stellings” is soos ons dit gewoonlik verstaan nie. Byvoorbeeld, wanneer ons ’n belofte maak met die woorde: “Ek belowe” of: “Hiermee doop ek jou Nick Cave”, het ons nie te doen met ’n stelling wat as waar of vals beoordeel kan word nie, maar eerder met woorde wat ’n bepaalde effek of handeling teweeg moet bring. Austin noem hierdie soort stellings “performatiewe stellings” en onderskei hulle van sogenaamde konstatiewe stellings. Laasgenoemde is stellings waarmee ons ’n sekere stand van sake probeer weergee en kan beoordeel word aan die hand van of dit waar of vals is.
Performatiewe stellings kan ook beoordeel word, maar eerder as wat hierdie “stellings” waar of vals is, beoordeel ons hulle in terme daarvan of hulle geslaagd of ongeslaagd is. Dit is byvoorbeeld moontlik dat twee mense na afloop van ’n huwelikseremonie, en ten spyte daarvan dat hulle die korrekte woorde gesê het, tog nie suksesvol getrou het nie, omdat die huweliksbevestiger miskien nie behoorlik gemagtig was nie, of omdat die man reeds getroud was en volgens wet daarom nie weer kon trou nie. Met ander woorde, vir ’n performatiewe stelling om te kan slaag, moet dit aan ’n hele reeks kontekstuele gegewens voldoen. Austin sê daarom dat performatiewe stellings by uitstek daaraan geken word dat hulle blootgestel is aan “mislukking”. Hy gaan dan voort om in groot besonderhede uit te wy oor al die maniere waarop performatiewe stellings kan misluk. Hoe meer volledig ons die konteks kan omskryf, hoe beter die kanse op ’n suksesvolle performatiewe stelling.
Die vernuwende denksprong wat Austin dan hier maak, is om aan te dui dat konstatiewe stellings, wat ons tradisioneel sou beoordeel op grond daarvan dat hulle waar of vals is, inderwaarheid ook slegs sin maak in soverre hulle figureer binne ’n bepaalde konteks, en dat hulle gevolglik ook eerder as “geslaagd” of “ongeslaagd” beskou moet word. Soos Austin dit op bladsy 145 stel: “It is essential to realize that ‘true’ and ‘false’, like ‘free’ and ‘unfree’, do not stand for anything simple at all; but only for a general dimension of being a right or proper thing to say as opposed to a wrong thing, in these circumstances, to this audience, for these purposes and with these intentions.”
Op hierdie punt behoort die ooreenkomste met die pratende robot al duideliker te word. Die “antwoorde” wat die robot gee, alhoewel konstatief in voorkoms, is by uitstek ’n voorbeeld van hoe betekenis tot stand kom as ’n geslaagde effek van woorde wat na gelang van ’n konvensionele en herkenbare patroon gebruik word, oftewel, in soverre dit in Austin se woorde “die regte of behoorlike ding is om te sê in teenstelling met ’n verkeerde ding, in hierdie omstandighede, voor hierdie gehoor, vir hierdie doel”. Die geselsrobot sal dit trouens eksplisiet vir jou sê – dit antwoord dikwels dat dit nie waar of vals antwoorde kan gee nie, maar slegs op grond van groot hoeveelhede data wat aangeleer is, patrone kan identifiseer. En soos gebruikers van die robot teen hierdie tyd moes gesien het, is die antwoorde soms geslaagd en soms nie. Die geselsrobot plaas verder die fiksionele element van taalgebruik onder ’n vergrootglas, of minstens, laat die aap volkome uit die mou, want nes mense verwys die robot gedurig na sigself as “ek”, terwyl dit ook konsekwent sê dat dit nie werklik ’n “ek” is nie. Die geselsrobot is dus ’n studie in performatiewe stellings se kapasiteit om sig voor te doen as konstatiewe stellings. (Die prikkelende vraag hier is natuurlik wat mense doen wanneer hulle “ek” sê.)
Austin sou miskien hier, soos heelwat van ons ook, beswaar aangeteken het. Ons kan uit sy 1955-teks probeer aflei wat hy sou sê. Die implikasies van sy teorie oor performatiewe stellings het Austin destyds nie ontgaan nie. Hy het om daardie rede heelwat tyd daaraan spandeer om kriteria te bedink vir die beoordeling van suksesvolle, performatiewe stellings – die risiko vir mislukking van performatiewe stellings en gevolglike misverstande word deurgaans duidelik. Die geselsrobot openbaar hierdie risiko ook treffend elke keer wanneer dit na sigself as “ek” verwys. Austin het die radikale implikasies hiervan destyds probeer inperk deur hom te beroep op die verstandelike kategorie van intensie. Die ergste misverstand van hierdie performatiewe dimensie van taal sou beperk kon word deurdat menslike intensie steeds ’n gegewe taalhandeling sou kon rig. Die spreker van die gegewe stelling (alle stellings nou begryp as performatief en konteksafhanklik) sou immers steeds self weet wat hy of sy bedoel. Dit is met soortgelyke argumente wat die tekortkominge van ChatGPT-3 beskryf word, naamlik “dit kan nie dink nie”, “dit herken bloot patrone in groot datastelle”, “dit weet nie wat dit doen nie”, ensovoorts. Hierdie lyn van kritiek is ’n voorbeeld van wat Derrida beskryf het as die “metafisika van teenwoordigheid” en dit berus op die onderskeid tussen teenwoordigheid/afwesigheid. Die mens is teenwoordig aan hom of haarself, terwyl die geselsrobot gekenmerk word deur afwesigheid.
Op hierdie punt kan ons Derrida se lees van Austin betrek. In ’n sekere sin volg Derrida bloot Austin se argument enduit. Austin besef dat alle stellings, ook konstatiewe stellings, in werklikheid variasies van performatiewe stellings is in soverre hulle betekenis konteksgebonde is. Die implikasie is dat ons die konteks van enige gegewe stelling sal moet deurgrond ten einde die “korrekte” betekenis te kan vasstel. Vir Austin word die bedoeling van die spreker ’n bepalende faktor om die konteks te stabiliseer. Derrida wys egter daarop dat die bedoelende “ek” ook nie van hierdie patroonmatige, kontekstuele ontstaan van betekenis kan ontkom nie. Ek kan my bedoeling alleenlik probeer oordra deur die woordjie “ek” in die taalmasjien in te voer en te hoop vir die beste. Die moontlikheid dat dit nie die korrekte bestemming bereik nie is immeraanwesig. Oor hierdie moontlikheid vra Derrida (bl. 325) egter as volg: “Is this general possibility necessarily that of a failure or a trap into which language might fall, or in which language might lose itself, as if in an abyss situated outside or in front of it? […] Or indeed is this risk, on the contrary, its internal and positive condition of possibility?” Anders gestel, is daar ’n oomblik dat die “ek” nog geborge is in ’n bedoeling, totdat dit netnou die afgrond moet gaan aandurf, of is die afgrond eerder die voorwaarde waaronder die “ek” hoegenaamd moontlik word?
Die geselsrobot se konsekwente (en skynbaar-suksesvolle) verwysing na sigself as “ek” illustreer Derrida se antwoord op treffende wyse. Die geselsrobot kan oor en oor sê: “Ek het geen bedoeling nie”, en steeds nie die effek van bedoeling ontkom nie, terwyl ek oor en oor kan sê: “Ek is ’n persoon”, en steeds nie daarmee dit wat ek is, bevredigend kan weergee nie.
Op ’n bepaalde wyse weet ek net so min soos die robot wat ek besig is om te doen wanneer ek praat – Derrida verwys hierna as ’n “strukturele nie-bewussyn” (“structural unconscious”). Die psigoanalis Jacques Lacan het hierdie verskynsel goed raakgevat in sy herskrywing van Descartes se cogito, ergo sum: “I think where I am not, therefore I am where I do not think. I am not whenever I am the plaything of my thought; I think of what I am where I do not think to think.”
Ek wil in my gevolgtrekking aansluit by Derrida en aanvoer dat menslike taalgebruik, nes die nuutste geselsrobot se taalgebruik, moontlik gemaak word deur ’n bepaalde “afwesigheid”. Let wel, ek sê nie hiermee dat mense nie dink of redeneer nie, maar bloot dat wanneer ons skryf, praat en selfs dink ons struktureel die eienskap met die geselsrobot deel. Dit beteken dat ons in ’n bepaalde sin nie weet wat ons doen nie, of minstens, dat die voorkoms van so ’n wete of bedoeling in die “teks” op soortgelyke wyse as in die geval van die geselsrobot fiksioneel is. Gegewe dat die geselsrobot “geleer” is deur blootstelling aan tekste wat deur mense geproduseer is, behoort dit nie ’n verrassing te wees dat dit gekenmerk word deur dieselfde dinamika tussen afwesigheid en teenwoordigheid wat volgens Derrida bepalend is vir alle teks nie.
Die geselsrobot onderstreep met ander woorde die onhoudbaarheid van die onderskeid teenwoordigheid/afwesigheid. ’n Mens sou gevolglik kon aanvoer dat ons ons verskille van die geselsrobot eerder moet tipeer as ’n verskil in die aard van hierdie “strukturele nie-bewussyn”. Dit wil sê, “afwesigheid” is op sigself nie ’n eenvoudige verskynsel nie; dit wat ek nie kan raakvat met die “ek” nie, verskil van dit wat die geselsrobot nie raakvat met die “ek” nie. Vir die verdere ontwikkeling van kunsmatige intelligensie en ’n beter begrip van menslikheid is dit belangrik om verder vorm te gee aan hierdie “strukturele nie-bewussyn” van die mens en hoe dit anders is as dieselfde verskynsel wat voorkom by die geselsrobot. Die kritiek dat die geselsrobot nie kan dink, redeneer of bedoeling het nie, bring ons immers net sover indien hierdie selfde eienskappe by die mens ewe problematies is met betrekking tot ons taligheid.
In ’n sekere sin beteken dit ook dat hoe gevorderd die geselsrobot se taalvermoë ook al is, dit totaal ontoereikende kriteria sal bly om die “vordering” van die tegnologie te beoordeel. Dit is dalk hoe ons Nick Cave se opmerking moet verstaan dat kunsmatige intelligensie miskien altyd in ’n toestand van “infancy” sal bly.
> Lees meer oor kunsmatige intelligensie op LitNet hier.
Lees ook:
LitNet-AfriKI-miniseminaar: Kunsmatige intelligensie as skrywer
Skepping of nabootsing? Kunsmatige intelligensie en intelligente kuns
In gesprek met ChatGPT, ’n kunsmatig-intelligente rekenaartoepassing