Steeds vaker hoor ik om mij heen iemand zeggen: “Ik vraag het wel even aan Chat” om vervolgens snel een vraag in te typen op de mobiele telefoon of laptop. Ongeacht het onderwerp wordt in negen van de tien gevallen vervolgens aangenomen dat het antwoord van ‘Chat’ correct is. Dat is niet zo verwonderlijk, als je vrijwel continue jubelberichten in de media ziet over hoe ‘slim’ de nieuwste AI-bots zijn, maar is het terecht? 

Freek Vos
Freek Vos, Specialist Online en ICT A&O fonds Gemeenten.

Als je de jubelaars moet geloven, is het een kwestie van hooguit enkele maanden totdat AI is geëvolueerd tot AGI, artificial general intelligence en daarmee daadwerkelijk ‘slimmer’ is dan wij simpele mensen. 

Met AGI kan een computer iedere intellectuele taak beter uitvoeren dan dat een mens dat zou kunnen. Je zou bijna gaan geloven dat we straks allemaal overbodig worden. Want waarom zou je dan nog tijd en energie steken in een studie of zelf op zoek gaan naar antwoord op Wikipedia? Vraag het gewoon de alwetende Chat, dan krijg je een beter antwoord dan je zelf ooit zou kunnen verzinnen. Tenminste, als al die jubelverhalen waar zijn. 

Je vermoedt waarschijnlijk al dat ik dit blog niet geschreven heb omdat ik dit volmondig beaam, want mijns inziens moet je deze verhalen met een flinke korrel, nee, eerder een grote schep zout nemen. Er zijn namelijk gegronde redenen om te twijfelen aan dit toekomstscenario. 

Wie roept er het hardst? 

Allereerst is het interessant om eens te kijken naar wie achter de glazen bol in de huidige tijd zit. Het is niet verwonderlijk dat het vaak de leiders van de grote techbedrijven zijn, die om het hardst roepen dat de doorbraak nabij is en dat we nu echt op de grens van een nieuwe toekomst staan. Want die bedrijven hebben er al het belang bij dat de wereld blijft geloven in de grenzeloze mogelijkheden van AI. 

Dan gaat het vooral om het geloof bij de investeerders, die vele miljarden in AI hebben gepompt en waarschijnlijk nog gaan pompen. Geen van de bedrijven die nu in de AI-rat-race zijn beland, zal willen toegeven dat echte grote doorbraken nog wel eens decennia op zich zouden kunnen laten wachten. Laat staan dat je zou stellen dat echte artificial general intelligence met de huidige technologie helemaal niet haalbaar is. 

Want dat is eigenlijk de centrale vraag: kan een AI wel echt slim worden, zelfs slimmer dan een mens? Daar zijn de meningen toch echt wel over verdeeld. Naast de hierboven benoemde techbazen zijn er ook experts die denken dat het met de huidige opzet van AI helemaal niet mogelijk is om tot AGI te komen.  

Freek Vos

Om te komen tot echte artificiële intelligentie, AGI dus, is er meer nodig dan een taalmodel.

Freek Vos, AI-expert en IT-specialist van A&O fonds Gemeenten

Hoe werkt generatieve AI nu eigenlijk? 

De argumentatie voor dit laatste standpunt is eigenlijk niet heel ingewikkeld als je kijkt naar hoe de huidige generatieve AI eigenlijk werkt. Bij generatieve chatbots zoals ChatGPT, is de achterliggende ‘intelligentie’ een taalmodel. Weliswaar een heel geavanceerd en zelflerend taalmodel, maar het blijft een model. 

Echt ‘intelligent’ is een model per definitie niet. Een taalmodel herkent woorden en zinnen en kan op basis van een enorme database antwoorden formuleren die passen bij de herkende tekst. Maar echt begrijpen wat de vraag en het antwoord is, kan een taalmodel niet. 

Daar zit volgens de critici nu precies het probleem. Om te komen tot echte artificiële intelligentie, AGI dus, is er meer nodig dan een taalmodel. Hoewel mensen natuurlijk ook misleid kunnen worden, hebben die wel het vermogen om na te denken over een antwoord en daar kritisch over te zijn en dat is iets wat een taalmodel niet kan. 

Accepteer onze cookies om deze inhoud te kunnen bekijken.

Een recept voor tomatensoep 

Een simpel voorbeeld. Stel, je krijgt een recept voor tomatensoep en daarin staat dat je een kilo zout in een pan met vijf liter water moet doen. Bij vrijwel iedereen die ook maar in de buurt van een keuken is geweest, zal op dat moment een alarmbel afgaan. Omdat wij begrijpen wat de instructie is en deze kunnen toetsen aan eerdere kennis en logica, signaleren we dat hier iets fout moet zijn. Zelfs mensen die nog nooit wat gekookt hebben en voor het eerst van het zout proeven, zullen zich waarschijnlijk afvragen of dit wel zo’n heel slim idee is. 

Een taalmodel kan natuurlijk het recept ook toetsen in zijn database en in dit geval zal ook generatieve AI waarschijnlijk wel signaleren dat het niet klopt. Maar bij complexere vragen, waar veel minder data voor beschikbaar is, is dat heel vaak niet het geval. 

Je leest vaak dat AI kan gaan ‘hallucineren’ en daarbij hele vreemde antwoorden geeft. Maar eigenlijk is het geen ‘hallucinatie’, maar het gevolg van het feit dat het taalmodel niet tot de juiste selectie uit zijn dataset kan komen en veel belangrijker, dat het niet in staat is dat zelf te beseffen.  

Feiten genereren? 

Juist bij vragen over feiten wordt dat heel snel duidelijk. Op simpele vragen, waar veel bronnen van op het internet staan, geeft een chatbot vaak wel het goede antwoord. Maar zodra je dieper op de materie ingaat en gaat doorvragen op details, of vragen stelt over minder algemene onderwerpen, raakt AI in veel gevallen snel het spoor bijster. 

Het gaat dan zelf ‘feiten’ genereren, op basis van het taalmodel en de dataset. Daarin schuilt nu precies het gevaar. Als een menselijke gesprekspartner iets niet weet of twijfelt aan de juistheid van zijn eigen kennis, dan zal die dat meestal ook in het antwoord laten blijken. “Ik dacht dat collega X voor het laatst aan dat document heeft gewerkt, maar ik zou dat wel even checken.”, zou dan een antwoord kunnen zijn. De huidige AI doet dat niet. Het is geprogrammeerd om altijd antwoord te geven en kan simpelweg niet ‘twijfelen’, omdat je pas kan twijfelen als je de vraag en het antwoord echt begrijpt.  

AI beeld Freek blog 1000
Beeld door ChatGPT gegenereert. Prompt: Move beyond AI hype.

Moet je AI dan wel gebruiken? 

In tegenstelling tot wat je misschien zou verwachten, ben ik wel heel enthousiast over AI. Als je het goed gebruikt, kan het je enorm helpen in je productiviteit en ook in je creativiteit. Maar dat vereist een realistische kijk op AI, met kennis van hoe AI is opgezet en vooral wat de beperkingen zijn van de werking van een taalmodel en een dataset.  

AI is geen duizend-dingen-doekje en zal het mijns inziens ook niet snel worden. Terwijl dat eigenlijk wel de claim is van artificial general intelligence: een alwetende, superslimme digitale entiteit. Ik denk dat het tegenovergestelde waar is: hoe specifieker en gerichter je aan AI-tool bouwt en inzet, des te beter zal deze functioneren. 

Als een AI vast en afgebakende taak heeft, kun je hele specifieke en heldere instructies geven en precieze controle houden over de data die de AI mag gebruiken bij zijn antwoord. Maar om dat te doen, heb je zelf natuurlijk ook kennis nodig over het betreffende onderwerp.  

Want als je zelf niet in staat bent om het antwoord van Chat te controleren, hoe herken je dan wanneer Chat foutieve informatie teruggeeft? Dit brengt mij terug naar het begin van mijn blog. Als je iets aan Chat gaat vragen, hou dan dit blog in het achterhoofd en blijf zelf kritisch op het antwoord dat je krijgt. Want helaas is niet alles zo simpel als een recept voor tomatensoep. 

Tips voor goede inzet van AI 

Wil je zelf AI beter inzetten, heb je misschien wat aan onderstaande tips: 

  • Bekwaam je in het schrijven van prompts, de precieze formulering van de vraag die je aan een chatbot stelt.
  • Als je de chatbot kan beperken tot specifieke bronnen, waarvan je weet dat ze betrouwbaar zijn, doe het dan (dit kan bijvoorbeeld bij Copilot).
  • Bedenk goed hoe je AI in je werkprocessen een plek geeft. Is er genoeg kennis en kunde bij de mensen die met AI moeten werken? Is er menselijke controle op de output van generatieve AI? Wie is uiteindelijk verantwoordelijk.
  • Blijf zelf kennis vergaren, blijf je ontwikkelen en blijf vooral zelf kritisch denken. 

Misschien vind je dit ook interessant