Kunsmatige intelligensie (KI) het in 'n groot mate deel van ons alledaagse lewens geword namate ons toenemend daarvan afhanklik is. Moet ons bang wees vir KI en die tempo waarteen dit vorder? Sal ons beheer oor ons toekoms verloor of sal KI menslike intelligensie komplementeer en aanvul? In ʼn meningsartikel vir die Daily Maverick (20 November 2023) het Lisa Esterhuyzen van die Departement
Ondernemingsbestuur hierdie kwessies van naderby bekyk.
- Lees die vertaalde weergawe van die artikel hier onder of klik hier vir die stuk soos geplaas.
Lisa Esterhuyzen
Baie van ons is waarskynlik al goed vertroud met verskeie KI-toepassings, hoewel ons dalk nie eens weet wanneer ons dit gebruik nie., Google Search, strooiposfiltrering op e-pos, Netflix-filmaanbevelings en Facebook-feeds gebruik byvoorbeeld almal KI-tegnologie. Hoewel ons ver van die skep van 'n masjien met sy of haar eie gedagtes (genoem kunsmatige algemene intelligensie (KAI) af is, slaan ons die verrysing van 'n nuwe era van intelligente masjiene gade wat kan leer, kan aanpas en probleme onafhanklik kan oplos.
Die Turing-toets, wat in die 1950's deur die Koninklike Vereniging-genoot Alan Turing geskep is, is geruime tyd al 'n maatstaf vir masjienintelligensie. Die Turing-toets stel die vraag: “Kan masjiene dink?" Die idee is dat dit veronderstel kan word dat 'n masjien kan dink as dit 'n intelligensie toon wat 'n mens sou dink eintlik menslik was. In werklikheid dui dit dalk net op die idee dat mense liggelowig is eerder as wat dit 'n goeie waarneming van masjienintelligensie is.
Onvoorwaardelike vertroue
KI is as 'n tegnologie nie intrinsiek goed of kwaad nie. Die besluit hang van ons, die gebruikers van die tegnologie, af. Ons kan dit ten goede gebruik, of ons kan dit misbruik. Daar is risiko's van swak ontwerpte KI-stelsels, veral dié wat verkeerdelik-gespesifiseerde doelwitte nastreef. Die mite van koning Midas is 'n voorbeeld van 'n doelwit wat inderdaad nie werklik belyn is met wat bedoel is nie. Die legende lui dat koning Midas die volgende gewens het: “Ek wil hê dat alles wat ek aanraak, in goud moet verander." En hy het presies dít gekry waarvoor hy gevra het. Sy wens was die doel wat hy as't ware in die masjien geplaas het. Maar aangesien sy kos, drank en familielede ook in goud verander het, hy het van ellende en hongersnood gesterf.
Net so vind baie mense, selfs kundiges soos dokters of regters, deesdae inligting met behulp van 'n KI-stelsel wat hulle dan behandel asof hulle dit by 'n betroubare kollega gekry het. Hierdie onvoorwaardelike vertroue in KI is kommerwekkend aangesien KI baie keer verkeerd is. KI kan 'n kragtige, onbewuste vooroordeel skep wanneer dit 'n voorwerp identifiseer. KI-navorsers is trots op die akkuraatheid van resultate. Maar tensy dit egter spesifiek ondersoek word, kan navorsers en ontwikkelaars onbewus wees van die vooroordele in die data wat aan die algoritme(s) gevoer word nie.
Op 29 Maart 2023 het verskeie vooraanstaande KI-navorsers, ingenieurs en entrepreneurs 'n ope brief onderteken waarin hulle 'n oproep doen vir 'n ses maande lange onderbreking in die ontwikkeling van KI-stelsels wat tot meer as OpenAI se nuutste GPT-4-taalvoortbrenger in staat is. Hulle het aangevoer dat KI so vinnig en onvoorspelbaar vorder dat dit talle werksgeleenthede kan uitskakel en onder meer die samelewing met 'n stortvloed waninligting kan bombardeer. Die brief het egter nie die ontwikkeling van KI onderbreek of selfs die ontwikkelingspoed tot 'n meer gematigde tempo te verlangsaam nie. Maatskappye het eerder hulle pogings versnel om meer gevorderde KI te ontwikkel. Elon Musk, een van die prominentste ondertekenaars, het self nie lank gewag om sy eie oproep tot 'n verlangsaming te ignoreer nie. Hy het in Julie xAI, 'n nuwe maatskappy wat bestaande KI wil verbysteek en met OpenAI, Google en Microsoft wil meeding, aangekondig.
Regulasies
Tegnologiese ontwikkeling het ook 'n positiewe kant. Dit kan ons help om doeltreffender modelle vir probleemoplossing te skep en om uitdagings op nuwe maniere aan te pak om die samelewing in die algemeen te bevoordeel. Daarom wek baie navorsers wêreldwyd daaraan om gesofistikeerde kunsmatige intelligensie-modelle te help ontwikkel om sommige van ons grootste uitdagings die hoof te bied. Nietemin glo sommige mense ons het swak-ontwerpte KI-stelsels te lank 'n vrypas gegee. Dit het al voorheen gebeur. Eens op 'n tyd het ons farmaseutiese maatskappye 'n vrypas gegee. Daar was geen voedsel- en medisyne-reguleerder of enige ander agentskap wat medisyne gereguleer het nie. Honderde duisende het weens swak-geformuleerde of nagemaakte medisyne gesterf of ernstige newe-effekte ervaar. Uiteindelik is 'n reguleringstelsel vir medisyne oor die verloop van sowat 'n eeu ontwikkel. Hoewel dit duur is, glo die meeste mense die voordele daarvan maak dit die moeite werd.
Op 17 Mei 2023 het Sam Altman van OpenAI, Christina Montgomery van IBM en professor Gary Marcus van die Universiteit van New York met die Amerikaanse kongres oor die regulering van KI-modelle vergader. Hulle het eenparig aanbeveel dat KI op 'n globale vlak gereguleer moet word, maar terselfdertyd wil hulle nie hê dat KI-regulering die ontwikkeling of innovasie moet vertraag nie. Die voorgestelde regulasies sluit die totstandkoming van 'n nuwe agentskap in wat enige pogings bo 'n bepaalde skaal van vermoëns lisensieer, maar wat ook lisensie kan wegneem en voldoening aan veiligheidstandaarde kan verseker. Die volgende stap is om 'n stel veiligheidstandaarde te skep deur byvoorbeeld te kyk of 'n model homself kan repliseer.
Daarbenewens moet onafhanklike oudits oor of die model aan hierdie gestelde veiligheidsdrempels en prestasiepersentasies voldoen, verpligtend wees. En laastens moet daar deursigtigheid rondom hierdie modelle wees, veral ten opsigte van die openbaarmaking van die data wat gebruik word om die KI-model op te lei. Dit is onduidelik wanneer hierdie regulasies – indien ooit – geïmplementeer gaan word.
Alliansie met KI
Ons hele beskawing en alles waaraan ons waarde heg, is op menslike intelligensie gegrond. As ons toegang tot baie meer intelligensie kry, is daar geen perke op wat mense kan doen nie. Tog bestaan daar 'n vrees dat sodra KI-stelsels hoogs gevorderd is, dit buite ons beheer kan funksioneer, wat moontlik onbedoelde skade kan veroorsaak of besluite kan neem wat moreel problematies is. Hierdie onsekerheid sê ons dalk dat ons verhouding met KI net so betekenisvol is as die relatiewe intelligensie van die masjien self.
Namate die gebruik van kunsmatige intelligensie toeneem en deur die samelewing versprei, hoe voel ons daaroor dat dit namens ons besluite neem? Kom ons benader hierdie vraag met 'n gesonde dosis skeptisisme teenoor hierdie stelsels en opportunistiese vertroue. Nie vrees nie. Om 'n beroep op almal te doen om op te hou met innovasie en mekaar op te werk oor wat verkeerd kan gaan, is nutteloos. Laat ons eerder op ons alliansie met KI wêreldwyd fokus. Om skepties te wees oor inligting wat deur KI gevind is en om vroeër, eerder as later wêreldwye regulasies in te stel, kan help om die risiko's te verminder en struktuur aan 'n oënskynlik onbeheerbare wêreld van tegnologie te gee. Struktuur skep vertroue.
*Lisa Esterhuyzen is 'n junior dosent in die Departement Ondernemingsbestuur by die Universiteit Stellenbosch. Sy skryf in haar persoonlike hoedanigheid.