Die Terminator-scenario: Is dit ons toekoms? Deel 2: Skynet (lees Deel 1 hier)
“Scholars who argue an AI apocalypse is merely science fiction are wrong” Haney (2018).
Inleiding
In Julie vanjaar het Google een van sy sagteware-ingenieurs Blake Lemoine afgedank ná hy in ’n onderhoud beweer het dat Google se Language Model for Dialogue Applications (LaMDA) selfbewus geword het. Google het Lemoine se bewerings ontken, en kenners stem saam dat LaMDA slegs selfbewus voorkom en nie werklik selfbewus is nie, maar die kwessie het opnuut die vraag in die kollig geplaas: is ’n selfbewuste KI-entiteit in ons toekoms?
Die eerste deel van hierdie tweeledige artikel is ’n bespreking van dodelike outonome wapenstelsels teen die agtergrond van die Terminator-films (The Terminator (Cameron 1984), Terminator 2: Judgment Day (Cameron 1991), Terminator 3: Rise of the machines (Mostow 2003), Terminator: Salvation (Nichol 2009), Terminator Genisys (Taylor 2015) en Terminator: Dark Fate (Miller 2019)). Die huidige deel fokus op Skynet self, die bevel-en-beheer-KI-entiteit wat in hierdie films verantwoordelik is vir die uitwissing van die mensdom. Hierdie uitwissing kom op die dag dat Skynet selfbewus word en staan in die films bekend as die Oordeelsdag (“Judgment Day”).
Huidige tegnologie: Skynet
Skynet word verskillend gekonsepsualiseer in die Terminator-films. In die eerste twee films word Skynet gesien as ’n bevel-en-beheerstelsel binne ’n militêre konteks. Hierdie tegnologie bestaan reeds: Diepversterkingleerstelsels is reeds in staat daartoe om missiele, vuurpyle, motors en vliegtuie te beheer (Haney 2018). DARPA se Deep Green-stelsel (uitgefaseer rondom 2011) kon byvoorbeeld militêre bevelvoerders help om ’n beter insig in hul strategieë te hê deur waarskynlike moontlike uitkomste te genereer, en sodoende kon die stelsel voorstel wat die beste manier van optrede kan wees (Caron 2020). KI kan ook vir bevel en beheer aangewend word deur groot hoeveelhede data te integreer en die belangrikste inligting aan die bevelvoerder aan te bied (Wyatt 2021). Die grootste voordeel van KI in sulke situasies is dat meer data vinniger verwerk kan word, besluite kan vinniger geneem word, en masjiene word nie uitgeput soos mense nie (Wyatt 2021).
In Terminator 3: Rise of the machines begin Skynet as ’n rekenaarvirus. Ook in hierdie konseptualisering bestaan die tegnologie reeds en KI is reeds ’n belangrike hulpmiddel in kubersekuriteit (Haney 2018; Amarasinghe, Wijesinghe, Nirmana, Jayakody en Priyankara 2019; Hossain Faruk, Shahriar, Valero, Barsha, Sobhan, Khan, Whitman, Cuzzocrea, Lo, Rahman en Wu 2021; Patil Varadarajan, Walimbe, Gulechha, Shenoy, Raina en Kotecha 2021; Ma, Chen, Kuo en Chen 2022).
In Terminator Genisys is Skynet (genoem “Genisys” in hierdie film) ’n toepassing wat alle elektroniese toestelle verbind. In hierdie geval is Skynet ook reeds bestaande tegnologie, byvoorbeeld in die vorm van die Apple IOS-stelsel wat rekenaars, fone, horlosies en slimhuise verbind.
Nie een van hierdie huidige toepassings van KI is egter selfbewus nie.
Selfbewuste Kunsmatige Intelligensie
Die groot vraag oor Skynet berus daarby of KI selfbewus kan word. Daar is ’n onderskeid tussen Kunsmatige Algemene Intelligensie (KAI) (“Artificial General Intelligence” of AGI) en Kunsmatige Spesifieke Intelligensie (KSI) (“Artificial Narrow Intelligence” of ANI) (Tegmark 2017; Haney 2018; Dwivedi, Hughes, Ismagilova, Aarts, Coombs, Crick, Duan, Dwivedi, Edwards, Eirug, Galanos, Ilavarasan, Janssen, Jones, Kar, Kizgin, Kronemann, Lal, Lucini, Medaglia en Williams 2019; Shevlin, Vold, Crosby en Halina 2019; Fjelland 2020; McLean, Read, Thompson, Baber, Stanton en Salmon 2021; Dilmegani 2022).
KSI is ontwerp om ’n spesifieke taak te verrig, byvoorbeeld beeldherkenning of vertaling, terwyl KAI intelligensie soortgelyk of beter as die mens (of intelligente diere) s’n verteenwoordig. ’n Voorbeeld van KSI is IBM se Deep Blue, wat in 1997 die wêreldkampioen Garri Kasparov in skaak geklop het (Tegmark 2017; Shevlin ea 2019; Caron 2020; Fjelland 2020). In 2016 het AlphaGo Lee Sedol, ’n kampioen Go-speler, ook geklop (Tegmark 2017; Shevlin ea 2019; Caron 2020; Fjelland 2020). Deep Blue en AlphaGo is ontwerp om een taak te verrig, en kan daardie taak beter as ’n mens verrig, maar dit kan slegs daardie een taak verrig. Hierteenoor behels KAI dat die stelsel moet kan leer om enige taak te verrig en te kan aanpas.
Soos met KI in die algemeen, en boonop intelligensie ook, is daar nie eenstemmigheid oor presies wat KAI is nie (McLean ea 2021). Breedweg behels KAI egter ’n aantal sleutelkenmerke, insluitend (Fei, Lu, Gao, Yang, Huo, Wen, Lu, Song, Gao, Xiang, Sun en Wen 2022):
- Soortgelyke of beter as menslike prestasie oor ’n breë klas kognitiewe take (byvoorbeeld persepsie, leesbegrip en redenering) in ’n verskeidenheid kontekste en omgewings);
- beskik oor die vermoë om probleme heel anders as dié wat deur die skeppers daarvan verwag is, te hanteer; en
- in staat daartoe om aangeleerde kennis van een konteks na ’n ander te veralgemeen/oor te dra.
In die omskrywing van KAI word gereeld gebruik gemaak van Irving Good se omskrywing:
Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an ‘intelligence explosion’, and the intelligence of man would be left far behind. Thus the first ultraintelligent machine is the last invention that man need ever make, provided that the machine is docile enough to tell us how to keep it under control (aangehaal in Tegmark (2017) en Haney (2018)).
KAI bestaan nog nie tans nie en kenners spekuleer oor of dit enigsins moontlik is, soos in die volgende afdeling bespreek word.
Kom die KI-Oordeelsdag werklik?
Fjelland (2020) glo nie dat KAI ooit sal realiseer nie, maar ander kenners, soos Shevlin ea (2019), glo dat KAI in beginsel moontlik is, alhoewel dit nog ver in die toekoms is. Tegmark (2017) bespreek ook uiteenlopende sienings, van kenners wat glo dit sal nooit ontwikkel word nie, tot kenners wat die ontwikkeling van KAI binne ’n dekade of twee plaas. Hy beklemtoon egter dat ons nie weet wanneer KAI ontwikkel sal word nie, maar dat ons daarvoor moet voorberei, wat impliseer dat hy nie die siening deel dat dit nooit ontwikkel sal word nie.
Verskeie organisasies ag die ontwikkeling van KAI in ’n ernstige lig. International Human Rights Watch het in 2016 ’n veldtog, Campaign to Stop Killer Robots, van stapel gestuur, terwyl Tegmark ander leiers in die ontwikkeling van tegnologie – waaronder Elon Musk – sedert 2015 saamgesnoer het om voordelige KI te ontwikkel (Tegmark 2017). Die belangrike punt van sulke inisiatiewe is dat die bedreiging as werklik beskou word.
McLean ea (2021) verskaf ’n oorsig oor die akademiese literatuur waarin hulle die risiko’s rondom KAI bespreek. Hulle bevind, interessant genoeg, dat twee noemenswaardige domeine nie in hul oorsig verskyn nie, naamlik navorsing wat die risiko’s wat verband hou met verdediging, outonome wapenstelsels en gesondheidsorg, ondersoek. Hierteenoor het Baum (2017) in ’n 2017-studie aktiewe KAI-navorsings- en ontwikkelingsprojekte ondersoek, en nege uit die totale 45 aktiewe KAI-projekte het militêre verbindings gehad. KAI word met ander woorde verbind met militêre toepassings, maar navorsing hieroor is beperk. Trouens, McLean ea (2021) vind ’n algemene gebrek aan portuurgroepbeoordeelde navorsing rondom die risiko’s van KAI. McLean ea (2021) se slotsin impliseer dat hulle ook die bedreiging ernstig opneem:
Given that the fate of humanity may be at stake with the development of unsafe AGI, it is essential that we have reliable, valid, and rigorous research to guide safe AGI design, implementation and management.
Daar was in die verlede reeds verskeie verkeerde voorspellings wat die ontwikkeling van tegnologie oorskat het en wat ’n mens huiwerig maak om wolf te roep. In 1964 het die RAND Corporation byvoorbeeld voorspel dat daar teen die jaar 2000 mense op Mars sal wees, en myne op die maan (Boling, Boudreaux, Blanc, Foran, Geist, Kim, Klima, Leidy, McBirney en Tarraf 2022). Die oorspronklike KI-Oordeelsdag volgens die eerste twee Terminator-films was op 29 Augustus 1997, omdat daar in die vroeë-1980’s ’n ontploffing in KI-navorsing plaasgevind het wat heelparty mense onder die indruk geplaas het dat die tegnologie vinniger ontwikkel as wat dit het.
Nietemin besef die meeste mense gereeld nie hoe vinnig tegnologie ontwikkel nie. Moore se wet voorspel dat die verwerkingskrag van rekenaars elke agtien maande sal verdubbel, terwyl kostes halveer word (Haney 2018). Indien Moore se wet op toekomstige ontwikkelings van toepassing is, dui die snelle vooruitgang van tegnologie daarop dat KAI dalk nader in die toekoms is as wat ons dink. Kyk na die volgende mylpale van die afgelope 10 jaar:
- 2013: DJI stel hul eerste kommersiële hommeltuig, die DJI Phantom, vry;
- 2014: Amazon Alexa bekendgestel (Apple Siri is in 2011 bekendgestel);
- 2015: KI geïntegreer met Google se soekalgoritme in die vorm van RankBrain. Ná verskeie verbeterings word die Multitaak Verenigde Model (“Multitask Unified Model” of MUM) in 2021 bekendgestel (Schwartz 2022);
- 2016: Google Assistant bekendgestel;
- 2016: Google Neurale Masjienvertaling (“Google Neural Machine Translation” of GNMT) model vir Google Translate bekendgestel (Wu, Schuster, Chen, Le, Norouzi, Macherey, Krikun, Cao, Gao, Macherey, Klingner, Shah, Johnson, Liu, Kaiser, Gouws, Kato, Kudo, Kazawa, Stevens en Dean 2016), wat later opgevolg is met die Transformer-model (Vaswani, Shazeer, Parmar, Uszkoreit, Jones, Gomez, Kaiser en Polosukhin 2017) en Pathways-taalmodel (Chowdhery, Narang, Devlin, Bosma, Mishra, Roberts, Barham, Chung, Sutton, Gehrmann, Schuh, Shi, Tsvyashchenko, Maynez, Rao, Barnes, Tay, Shazeer, Prabhakaran, Reif en Fiedel 2022);
- 2019: Boston Robotics se Spot-robothond vir kommersiële verkope bekendgestel.
Kyk ’n mens oor langer tydperke is die ontwikkeling verbysterend. Tegmark (2017) skryf dat hardeskywe meer as 100 miljoen keer goedkoper geword het, en die vinniger geheue wat nodig is vir berekening eerder as blote berging, het 10 miljard keer goedkoper geword. Volgens hom (Tegmark 2017) kom die kostebesparing daarop neer dat ’n mens nou alle vaste eiendom in New York vir ongeveer 10 sent sou kon koop en al die goud wat al ooit ontgin is, vir ongeveer ’n dollar sou kon koop. Hierdie kostebesparing het daartoe gelei dat kragtiger rekenaars kleiner geword het en binne meer mense se bereik geplaas is, wat tesame met die inligtingsontploffing – wat ook gepaard gaan met die inligtingsontploffing in die wetenskap – daartoe lei dat ontwikkeling nou aansienlik vinniger gebeur as wat voorheen die geval was.
Teenoor die snelle ontwikkeling van tegnologie groei die mens se intelligensie nie, soos Dilmegani (2022) aanvoer:
Considering that our intelligence is fixed and machine intelligence is growing, it is only a matter of time before machines surpass us unless there’s some hard limit to their intelligence. We haven’t encountered such a limit yet.
Oor die afgelope dekade het meer en meer vaardighede binne die vermoëns van KI beland. Versterkingsleer en Markov-besluitnemingsprosesse modelleer letterlik die menslike kognitiewe funksies van besluitneming, rasionele agentskap en intelligensie (Haney 2018), en Kunsmatige Neurale Netwerke is baie goed daarmee om patrone te herken (Fjelland 2020). Diep residuele netwerke (ResNets) het reeds menslike prestasie ten opsigte van beeldklassifikasie oortref, en die taalmodel, RoBERTa, vaar ook beter as die mens met verskeie natuurlike taalverstaantake (Fei ea 2022).
Tegmark (2017) noem dat wanneer KI die punt bereik waar rekenaarprogrammering vir die skepping van KI binne sy vermoëns val, ’n keerpunt bereik sal word wat ’n vinnige versnelling in ontwikkeling sal inlei. KI word reeds gebruik om rekenaarkode te skryf (Wang en Xu 2019; Weng, Zheng, Wu en Castro-Garcia 2020).
Wanneer kom die Oordeelsdag?
Gegewe die groot hoeveelheid kenners wat die bedreiging van KAI ernstig opneem, is die volgende vraag wanneer KAI ontwikkel sal word. Kurzweil (2012) skat dat KAI teen die jaar 2029 bereik sal word, terwyl Tegmark (2017) noem dat kenners die jaar 2047 voorstel, en ander glo KI sal menslike vermoëns eers teen die jaar 2075 bereik (Dwivedi ea 2019). McLean ea (2021) noem dat KAI iewers tussen die jare 2040 en 2060 verwag word. Volgens Dilmegani (2022) glo die meeste KI-kenners dat KAI bereik sal word, en dit voor die jaar 2060.
Aangesien KAI berus op ’n deurbraak wat nog nie gemaak is nie, is dit onmoontlik om ’n presiese datum te voorspel. Haney (2018) herinner ook dat skielike deurbrake wel moontlik is, wat die voorspelbaarheid van wanneer KAI bereik sal word, beperk.
Is ’n oorlog met die masjiene onafwendbaar?
Tegmark (2017) herinner daaraan dat ’n KAI nie noodwendig “boos” hoef te wees nie:
The real worry isn’t malevolence, but competence. A superintelligent AI is by definition very good at attaining its goals, whatever they may be, so we need to ensure that its goals are aligned with ours.
Sou ’n KAI byvoorbeeld ontstaan wat die mens se huidige klem op omgewingsbewaring deel, sou daardie KAI logies tot die gevolgtrekking kon kom dat die mens uitgewis moet word om die planeet te beskerm. Om hierdie rede bepleit Tegmark (2017) en ander dat navorsing gedoen moet word om ’n toekomstige KAI se doelwitte met dié van die mens te belyn. So ’n KAI sou dan byvoorbeeld moet weet dat die omgewing bewaar moet word, maar die mens ook. Die vraag is egter of die mens beheer sal kan uitoefen oor so ’n KAI as dit nie vir sy bestaan noodsaaklik is om sy doelwitte met die mens s’n te belyn nie.
Dit is onrealisties om te glo, soos die Terminator-films voorhou, dat die mens ’n konflik met ’n KAI sal kan wen. Neem byvoorbeeld Israel se Trophy Active Protection System wat op hul Merkava-tenks gemonteer is – die stelsel kan ’n inkomende projektiel binne minder as ’n sekonde identifiseer, volg en afskiet. Met ’n OODA- (Observe–Orient–Decide–Act) siklus van nanosekondes (Wyatt 2021) is daar geen manier hoe die mens robotte wat deur ’n KAI vervaardig is, sal kan beskadig nie. Boonop sal enigeen wat op ’n robot vuur, sterf voor sy projektiel ’n robot tref. Trouens, wanneer ’n KAI sensors en wapenstelsels ontwerp, sal die mens nie binne die nodige trefafstand kan kom om sy wapens te vuur nie.
Slot
Met die snelle ontwikkeling van tegnologie oor die afgelope dekade, word dit al hoe duideliker dat KAI iewers in die huidige eeu bereik sal word. Indien dit gebeur, verloor die mens sy posisie as die intelligentste wese op aarde, wat die vraag laat ontstaan oor hoe die mens steeds in beheer sal kan bly van ’n entiteit wat die mens se intelligensie oortref. Net die tyd sal leer of KAI ooit bereik sal word, en indien wel, wat daardie KAI omtrent sy grootste bedreiging en skepper – die mens – sal doen.
Bibliografie
Amarasinghe, A.M.S.N., Wijesinghe, W.A.C.H., Nirmana, D.L.A., Jayakody, A. en Priyankara, A.M.S. 2019. AI based cyber threats and vulnerability detection, prevention and prediction system. 2019 International Conference on Advancements in Computing (ICAC), 2019 International Conference on Advancements in Computing (ICAC), IEEE:363–368. doi: 10.1109/ICAC49085.2019.9103372.
Baum, S.D. 2017. A survey of artificial general intelligence projects for ethics, risk, and policy. SSRN Electronic Journal. doi: 10.2139/ssrn.3070741.
Boling, B., Boudreaux, B., Blanc, A.A., Foran, C., Geist, E., Kim, M., Klima, K., Leidy, E. N., McBirney, S. en Tarraf, D.C. 2022. Emerging technology beyond 2035: Scenario-based technology assessment for future military contingencies. Santa Monica: RAND Corporation. doi: 10.7249/RRA1564-1.
Cameron, J. 1984. The Terminator. Hemdale Pacific Western Productions.
Cameron, J. 1991. Terminator 2: Judgment Day. Carolco Pictures.
Caron, J.F. 2020. Defining semi-autonomous, automated and autonomous weapon systems in order to understand their ethical challenges. Digital War, 1(1–3):173–177. doi: 10.1057/s42984-020-00028-5.
Chowdhery, A., Narang, S., Devlin, J., Bosma, M., Mishra, G., Roberts, A., Barham, P., Chung, H.W., Sutton, C., Gehrmann, S., Schuh, P., Shi, K., Tsvyashchenko, S., Maynez, J., Rao, A., Barnes, P., Tay, Y., Shazeer, N., Prabhakaran, V., Reif, E. en Fiedel, N. 2022. PaLM: Scaling Language Modelling with Pathways. arXiv. doi: 10.48550/arxiv.2204.02311.
Dilmegani, C. 2022. When will singularity happen? 995 experts’ opinions on AGI. https://research.aimultiple.com/artificial-general-intelligence-singularity-timing/ (op 24 November 2022 geraadpleeg).
Dwivedi, Y.K., Hughes, L., Ismagilova, E., Aarts, G., Coombs, C., Crick, T., Duan, Y., Dwivedi, R., Edwards, J., Eirug, A., Galanos, V., Ilavarasan, P.V., Janssen, M., Jones, P., Kar, A.K., Kizgin, H., Kronemann, B., Lal, B., Lucini, B., Medaglia, R. en Williams, M.D. 2019. Artificial Intelligence (AI): Multidisciplinary perspectives on emerging challenges, opportunities, and agenda for research, practice and policy. International journal of information management. doi: 10.1016/j.ijinfomgt.2019.08.002.
Fei, N., Lu, Z., Gao, Y., Yang, G., Huo, Y., Wen, J., Lu, H., Song, R., Gao, X., Xiang, T., Sun, H. en Wen, J.R. 2022. Towards artificial general intelligence via a multimodal foundation model. Nature Communications, 13(1):3094. doi: 10.1038/s41467-022-30761-2.
Fjelland, R. 2020. Why general artificial intelligence will not be realized. Humanities and Social Sciences Communications, 7(1):10. doi: 10.1057/s41599-020-0494-4.
Haney, B.S. 2018. The perils & promises of artificial general intelligence. SSRN Electronic Journal. doi: 10.2139/ssrn.3261254.
Hossain Faruk, M.J., Shahriar, H., Valero, M., Barsha, F.L., Sobhan, S., Khan, M.A., Whitman, M., Cuzzocrea, A., Lo, D., Rahman, A. en Wu, F. 2021. Malware detection and prevention using Artificial Intelligence techniques. 2021 IEEE International Conference on Big Data (Big Data), 2021 IEEE International Conference on Big Data (Big Data), IEEE:5369–5377. doi: 10.1109/BigData52589.2021.9671434.
Kurzweil, R. 2012. How to create a mind: The secret of human thought revealed. Londen: Penguin Books.
Ma, Y.W., Chen, J.L., Kuo, W.H. en Chen, Y.C. 2022. AI@nti-Malware: An intelligent framework for defending against malware attacks. Journal of Information Security and Applications, 65:103092. doi: 10.1016/j.jisa.2021.103092.
McLean, S., Read, G.J.M., Thompson, J., Baber, C., Stanton, N.A. en Salmon, P.M. 2021. The risks associated with Artificial General Intelligence: A systematic review. Journal of Experimental & Theoretical Artificial Intelligence, 1–15. doi: 10.1080/0952813X.2021.1964003.
Miller, T. 2019. Terminator: Dark Fate. Paramount Pictures.
Mostow, J. 2003. Terminator 3: Rise of the Machines. Columbia Pictures.
Nichol, J. M. 2009. Terminator Salvation. Columbia Pictures.
Patil, S., Varadarajan, V., Walimbe, D., Gulechha, S., Shenoy, S., Raina, A. en Kotecha, K. 2021. Improving the robustness of AI-Based malware detection using Adversarial Machine Learning. Algorithms, 14(10):297. doi: 10.3390/a14100297.
Schwartz, B. 2022. How Google uses artificial intelligence in Google Search. https://searchengineland.com/how-google-uses-artificial-intelligence-in-google-search-379746 (op 7 April 2022 geraadpleeg).
Shevlin, H., Vold, K., Crosby, M. en Halina, M. 2019. The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge. EMBO Reports, 20(10):e49177. doi: 10.15252/embr.201949177.
Taylor, A. 2015. Terminator Genisys. Skydance Productions.
Tegmark, M. 2017. Life 3.0: Being Human in the Age of Artificial Intelligence. New York: Knopf.
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.N., Kaiser, L. en Polosukhin, I. 2017. Attention is all you need. CoRR, abs/1706.03762.
Wang, Y. en Xu, J.Y. 2019. RTPA-based Software Generation by AI Programming. 2019 IEEE 18th International Conference on Cognitive Informatics & Cognitive Computing (ICCI*CC), 2019 IEEE 18th International Conference on Cognitive Informatics & Cognitive Computing (ICCI*CC), IEEE:41–46. doi: 10.1109/ICCICC46617.2019.9146036.
Weng, J., Zheng, Z., Wu, X. en Castro-Garcia, J. 2020. Autonomous programming for general purposes: theory and experiments. 2020 International Joint Conference on Neural Networks (IJCNN), 2020 International Joint Conference on Neural Networks (IJCNN), IEEE:1–8. doi: 10.1109/IJCNN48605.2020.9207149.
Wu, Y., Schuster, M., Chen, Z., Le, Q.V., Norouzi, M., Macherey, W., Krikun, M., Cao, Y., Gao, Q., Macherey, K., Klingner, J., Shah, A., Johnson, M., Liu, X., Kaiser, Ł., Gouws, S., Kato, Y., Kudo, T., Kazawa, H., Stevens, K. en Dean, J. 2016. Google’s Neural Machine Translation System: Bridging the gap between human and machine translation. arXiv eprint.
Wyatt, A. 2021. The disruptive impact of lethal autonomous weapons systems diffusion: modern Melians and the dawn of robotic warriors. Londen: Routledge. doi: 10.4324/9781003172987.
Lees ook:
Die Terminator-scenario: Is dit ons toekoms? (Deel 1: Terminators)
Die eerste KI-gedig in Afrikaans: "Silwerwit in die soontoe"
AfriKI: Kunsmatige Intelligensie-gedigte in Afrikaans | Videolesing in Engels en Afrikaans
Replika: ’n Kunsmatige Intelligensie- (KI-) metgesel in ’n gebroke wêreld