Abonneer Log in

De onstuitbare opkomst van de spraakrobots

  • Thomas Goorden - Activist in het PFAS-dossier en auteur van ‘Alles komt goed’ (epo, 2022)
  • 20 april 2023

ChatGPT haalt al 10% van het aantal bezoeken van Facebook en kent daarmee de snelste doorbraak van eender welke technologie ooit. Het zet heel wat op losse schroeven.

'Dit opiniestuk werd geschreven zonder hulp van een AI.'

Het is een zinnetje dat enkele maanden geleden nog volstrekt absurd klonk, maar vandaag al relevant is voor nagenoeg alles wat u online en offline leest.

Even enkele ontnuchterende cijfers. ChatGPT haalt ondertussen al 10% van het aantal bezoeken van Facebook. De website werd in maart 2023 naar schatting 1,6 miljard keer aangeklikt. Dat is de snelste doorbraak van eender welke technologie ooit, inclusief software die specifiek gebouwd is op basis van verslavingsmechanismen zoals TikTok of Facebook. Het is een technologische ontwikkeling die zo heftig is dat grote techreuzen zoals Google er heuse 'code rood' meetings over hebben gehouden en er tienduizenden IT-jobs in de hele sector geherstructureerd worden op dit eigenste moment.

Het is nog wachten op wetenschappelijk onderzoek, maar anekdotisch is het duidelijk dat deze technologie aan een ridicule snelheid ingang vindt in het onderwijs. Wie dat niet gelooft, moet eens rondvragen bij studenten of leerkrachten. Ook in software-ontwikkeling zal het nu al moeilijk zijn om iemand te vinden die er niet op zijn minst cursorisch al eens gebruik van heeft gemaakt. En dan zijn er nog de 'stille sectoren', zoals media en PR, waar de meeste ontwikkelingen op dit vlak met een rookgordijn worden afgeschermd. De gebruikscijfers verraden echter dat een gigantisch aantal mensen er stiekem mee aan het experimenteren is.

Voor een dergelijke (r)evolutie is geen precedent, toch niet qua snelheid. Waar de uitvinding van het wiel enkele eeuwen nodig had om verspreid te worden, duurde het voor bijvoorbeeld de drukpers of nog veel later elektriciteit 'slechts' enkele decennia. De smartphone, één van de meest recente technologische omwentelingen, had er enkele jaren voor nodig. De eerste algemeen inzetbare AI lijkt het klusje te gaan klaren op minder dan een jaar tijd.

De grens tot waar je redelijkerwijs kan voorspellen hoe deze maatschappij er binnenkort zal uitzien, is hierdoor plots kleiner dan een jaar. Exponentiële versnelling brengt de zichtbare horizon schrikwekkend dichterbij. En, in dit geval wordt de technologie zelfs gebruikt om de technologie zelf te verbeteren. AI-software helpt bij het schrijven van AI-software, aan een steeds hoger tempo. Die eenvoudige feedbacklus zorgt voor versnellingseffecten die de meeste mensen wellicht niet voor mogelijk houden.

WAT IS CHATGPT EIGENLIJK?

Maar voor we over de eigen benen struikelen, eerst even terug naar het begin: Wat is ChatGPT eigenlijk? In eerste instantie leek het niet zo bijzonder. De makers van ChatGPT (OpenAI) hadden de massale belangstelling zelfs niet zien komen. Dat komt omdat ChatGPT gebaseerd is op de technologie van neurale netwerken, meer specifiek de 'grote taalmodellen' (Large Language Models, oftewel LLM's), waar al jarenlang vooruitgang in wordt gemaakt. Het leek dus, voor mensen in de sector, gewoon een zoveelste 'kleine verbetering'. Tot blijkt dat OpenAI er als eerste organisatie in was geslaagd om iets te maken dat zo extreem breed 'bruikbaar' is.

Waarom ervaren we deze laatste generatie taalmodellen als zoveel beter? Dat kan teruggebracht worden tot twee fundamentele redenen: schaal en opvoeding. Het maken van zo'n taalmodel ('training' genoemd in het wereldje) vergde lange tijd niet alleen heel veel trainingsdata, maar ook enorme hoeveelheden computerkracht. In 2017 kwam er echter een research paper uit genaamd 'Attention Is All You Need' die drastisch het mes zette in hoeveel rekenkracht er nodig was om een neuraal netwerk van het 'Transformer' type snel bruikbaar te maken. Dit maakte het mogelijk voor OpenAI om - mede dankzij goed gevulde zakken investeringsgeld - gigantische datasets te gebruiken als trainingsdata. Anders gesteld hebben ze dus meer informatie en rekenkracht gestoken in het trainen van zo'n transformer dan wie ook tevoren. Brute kracht dus.

De resultaten van deze inspanningen, de gigantische 'GPT' taalmodellen, waren echter nog steeds niet bruikbaar. Na de training is het immers de bedoeling dat zulke taalmodellen tekst gaan genereren, gebaseerd op een willekeurige voorzet. Oftewel, wanneer een stukje tekst wordt ingevoerd in het taalmodel, probeert het het 'meest waarschijnlijke' vervolg terug te geven. GPT staat trouwens voor 'Generative Pre-trained Transformer', waarmee elk deel van het acroniem verklaard is.

Maar, in hun 'ruwe' vorm zijn GPT's nauwelijks bruikbaar. De kritiek is bekend voor wie het verhaal de voorbije weken heeft gevolgd: Generatieve taalmodellen hebben van nature de neiging om te 'hallucineren'. Ze 'antwoorden' met tekst die erg plausibel klinkt, maar inhoudelijk compleet verzonnen kan zijn. Anders gezegd, ze zijn gemaakt om het 'meest waarschijnlijke' antwoord te produceren, ook als het onderliggende model niet over voldoende informatie beschikt. Het kan, op een bepaalde manier, moeilijk 'nee, dat weet ik niet' zeggen. En dat ervaren veel mensen als 'dom', ook al is 'wenselijk antwoorden' ten dele ook een cultureel fenomeen. Om maar te zeggen: In sommige landen kan je beter de weg niet vragen.

Er zit ook een donker kantje aan. Een 'ruwe GPT' kan prima meegaan in de meest ideologisch aangebrande gedachtegangen.

Daarnaast zit er ook een donker kantje aan het trainen met door mensen geschreven tekst. Het betekent immers dat een 'ruwe GPT' prima kan meegaan in de meest ideologisch aangebrande gedachtegangen. Voor een bepaald segment van de mensheid was dat ook dé uitdaging natuurlijk: kijken hoe extreem racistisch, seksistisch of algemeen gevaarlijk ze de output van de software konden krijgen. Dit is politiek niet houdbaar.

Om deze twee problemen aan te pakken, voegde OpenAI een extra ingrediënt toe aan de brute kracht aanpak: menselijke bijsturing. Ook hier ligt een doorbraak uit 2017 aan de bron: een research paper genaamd 'Deep reinforcement learning from human preferences' (RLHF). Eenvoudig gesteld wordt de output van het neurale netwerk door mensen beoordeeld op hun wenselijkheid en wordt het ruwe model bijgeschaafd richting dat resultaat. Het bijzondere aan dit proces is dat de taalmodellen effectief een stuk kleiner worden gemaakt, maar dat ze tegelijkertijd door gebruikers toch als 'beter' worden geëvalueerd. Deze aanpak wordt 'alignment' genoemd, wat kan begrepen worden als het aligneren van de output naar onze verwachtingen. Het taalmodel wordt vrij letterlijk opgevoed om zich beter te gedragen.

Sam Altman, de CEO van OpenAI, haalde daaruit de opmerkelijke observatie dat 'alignment' veel dichter ligt bij onze perceptie van intelligentie ('capaciteit') dan je intuïtief zou verwachten. Anders gezegd, we beschouwen iets dat onverwachte of ongewenste antwoorden geeft doorgaans als 'dom'. Het is een filosofische oplawaai van jewelste, maar 'intelligentie' blijkt dus voor een flink stuk een cultureel-ideologisch gegeven, eerder dan objectief meetbaar. Een computerprogramma dat voortdurend onwenselijke antwoorden geeft, zouden we wellicht nooit gebruiken.

ChatGPT is dus een cultureel-ideologisch gesnoeide versie van een statistische samenvatting van gigantische hoeveelheden menselijke teksten. En die magische combinatie zorgt voor iets waar je werkelijk van alles mee kan doen. Een waarschijnlijkheidsmachine die bovendien weet welke antwoorden meer of minder wenselijk zijn. Het grappige is dat het cultureel-ideologisch kader van Silicon Valley hierdoor vrij diep ingebakken zit, waardoor de machine bijvoorbeeld bijzonder veel moeite heeft om het woord 'seks' uit te schrijven, in feite een uiting van een typisch Amerikaans puritanisme dat mee gesukkeld is in de opvoeding.

WAT KAN JE ERMEE DOEN?

Maar goed, wat kan je er mee doen? Buiten relatief onschuldige activiteiten zoals het produceren van programmeercode of het analyseren en samenvatten van teksten, zijn er enkele gebruikspatronen te horen in de vele anekdotes van gebruikers met verregaande gevolgen.

In het onderwijs kraakt ongeveer alles. Eén zo'n anekdote gaat over een student die alle transcripties van een bepaald vak liet samenvatten door een stuk AI. Daarna liet hij ChatGPT op basis van die samenvatting en de cursustekst speculeren wat de meest relevante elementen zouden kunnen zijn voor een examen. Het resultaat? Op drie dagen tijd had hij een vak van 30 lesuren verwerkt, en een propere 94% behaald op het bijhorende examen. Omgekeerd zijn talloze lesgevers hun lessen aan het voorbereiden op basis van bullet points en, ja hoor, ChatGPT. Een absurd inefficiënte lus dus, die smeekt om een snoeischaar. Hoe kan ons model van onderwijs - dat eigenlijk nog afstamt van laat 19e eeuws industrieel denken - dit soort omwenteling overleven, tenzij met extreem brutale maatregelen?

Een ander fenomeen in deze context kan het best omschreven worden als 'HustleGPT'. Samengevat gaat het over een klein leger mensen die op dit eigenste moment aan het proberen zijn om ChatGPT op de één of andere manier semiautomatisch geld te laten verdienen. Het is een extreme uitloper van het schuldgebaseerde hyperkapitalisme waar we met z'n allen in gesukkeld zijn, want wat is hier zelfs nog de meerwaarde van? Sam Altman geeft zelf aan dat dit soort software het kapitalisme zou kunnen 'breken', wat wijst op de kans dat autonome AI-geldmachines tot de mogelijkheden behoren. De eerste die daar in slaagt, zou immers zulke grote kapitaal-aggregatie kunnen veroorzaken dat het hele systeem in elkaar stuikt. Het 'red team' van OpenAI is slechts één van de vele partijen die dit scenario uittesten, al is er voorlopig nog geen aanwijzing dat het iemand al gelukt is.

Waar het bijzonder stil blijft, is de politieke sector, meer bepaald de onuitroeibare particratie.

Waar het bijzonder stil blijft, is de politieke sector, meer bepaald de onuitroeibare particratie. Nochtans wordt er door partijen achter de schermen al jaren gebruikgemaakt van algoritmes en de meest geavanceerde PR-technieken. Waarom zouden ze de kans laten liggen om op een nog hoger tempo ideologische propaganda te produceren met behulp van zo'n geloofwaardige tekstgeneratoren, om het vervolgens via sociale media over iedereen heen te gieten? Het is zelfs weinig waarschijnlijk dat het niet reeds aan het gebeuren is, politieke kabinetten zitten immers vol met communicatiemensen die niet terugdeinzen om donkere PR-technieken in te zetten. Als marktonderzoek gericht op polariserende onderwerpen, dark PR, microtargeting, fake news en intimidatie van redacties allemaal kunnen - betaald door belastinggeld bovendien - waarom zouden ze dan terugdeinzen voor een potje AI-gegenereerde propaganda? De politieke stilte over dit onderwerp is in het licht van dat alles eerder verontrustend. Toch bestaat ook hier de mogelijkheid dat AI, net zoals voor de immer wankelende economie en het vastgeroeste onderwijs, ook voor een falend politiek systeem de ultieme doodsteek blijkt.

APOCALYPTISCH OF NET HOOPVOL?

Afhankelijk van je houding tegenover deze systemen kan dit ofwel erg apocalyptisch of net hoopvol klinken. Hoe het ook afloopt, vast staat nu al dat sommige decennia-oude discussies en probleemdossiers door ChatGPT en co zwaar onder druk zullen komen te staan. Ook het hele concept dat je eigenaar kan zijn van ideeën, de bron van de meest vervelende aspecten van auteursrechten, staat onder beenharde spanning. De reactionaire kramp kan je nu al gemakkelijk voorspellen, maar of ze deze revolutie zal kunnen tegenhouden is twijfelachtig. GPT-5 wordt eind dit jaar reeds verwacht en de prognose is dat het dan al een 'compleet menselijk aanvoelend' intelligentieniveau zal bereiken.

GPT-5 wordt eind dit jaar reeds verwacht en de prognose is dat het dan al een 'compleet menselijk aanvoelend' intelligentieniveau zal bereiken.

De grootste revolutie zou bovendien nog de meest persoonlijke kunnen zijn. De filosofische impact van deze technologie valt niet te onderschatten. Het roept enorme vragen op over wat ons bewustzijn nu eigenlijk is en schopt onderweg heel wat heilige huisjes omver. De rekenkracht die nodig is om menselijke praat te verkopen, blijkt bijvoorbeeld stukken kleiner dan vroeger gedacht. Bovendien is er ook veel minder 'emergent' aan intelligentie dan we dachten, het is mogelijk nog veel meer 'nurture' eerder dan 'nature'. En wat met religieuze denkbeelden zoals de ziel onder dit soort omstandigheden? En bestaat zelfbewustzijn eigenlijk wel, of is dat ook gewoon een complexe hallucinatie van onze eigen neurale netwerken? Als de mens van hun podiumplekje op aarde wordt geduwd door artificiële intelligentie, kan je dat zowel als problematisch als hoopvol ervaren. Misschien helpt het om beter voor elkaar en de planeet te zorgen, als we terug met de voetjes op de aarde staan? Een mens mag hallucineren, uh, dromen hé.

Abonneer je op Samenleving & Politiek

abo
 

SAMPOL ONLINE

40€/jaar

  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
MEEST GEKOZEN

SAMPOL COMPLEET

50€/jaar

  • Je ontvangt het magazine in de bus
  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
 

SAMPOL STEUN

100€/jaar

  • Je ontvangt het magazine in de bus
  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
  • Je krijgt een SamPol draagtas*
 

SAMPOL SPONSOR

500€/jaar

  • Je ontvangt het magazine in de bus
  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
  • Je krijgt een SamPol draagtas*

Het magazine verschijnt 10 keer per jaar; niet in juli en augustus.
Proefnummer? Factuur? Contacteer ons via info@sampol.be of op 09 267 35 31.
Het abonnementsgeld gaat jaarlijks automatisch van je rekening. Het abonnement kan je op elk moment opzeggen. Lees de Algemene voorwaarden.

Je betaalt liever via overschrijving?

Abonneren kan ook uit het buitenland.

*Ontdek onze SamPol draagtas.