AI: briljant tot het breekt
18 februari 2026 · AI & Tools
AI versterkt wat je erin stopt
AI is het beste gereedschap dat ik de afgelopen jaren aan mijn toolset heb toegevoegd. Maar ook het gevaarlijkste. Niet omdat AI kwaadaardig is, maar omdat het precies datgene versterkt wat je erin stopt. Als je gestructureerd en zorgvuldig te werk gaat, krijg je snellere en betere resultaten. Maar als je vaag of slordig bent, dan krijg je onvolledigheden en onwaarheden terug, verpakt in nette zinnen en met een enorm zelfverzekerde toon.
AI-tools kunnen echt voelen als magie, maar bij verkeerd gebruik eindig je met zelfsabotage. Ik gebruik AI daarom liever niet als antwoordmachine, maar als een manier om mijn denkproces te structureren en versnellen.
Wanneer mensen boos worden over AI-gebruik
Net als bij elke andere technologie kent AI zowel positieve als negatieve kanten. Dat is niets nieuws. Als we specifiek kijken naar het output-aspect van AI-tools en de kwaliteit van die output, gaat het (als je doorvraagt) voor de meeste tegenstanders eigenlijk niet meer over de technologie als tool op zichzelf. Het gaat dan meer over wat ermee gedaan wordt, en over hoe AI en de output ervan in de markt worden gezet. Niemand wordt boos op de magnetron. Mensen worden boos op de chef die magnetronlasagne presenteert als haute cuisine.
Neem de game 'Call of Duty: Black Ops 7': er was bij de lancering flinke verontwaardiging omdat bepaalde in-game art er volgens spelers extreem 'AI-achtig' uitzag. Voor veel spelers voelt dit als die magnetronlasagne: low effort verpakt als premium. En dat effect bestaat niet alleen in entertainment. Er zijn inmiddels meerdere rechtszaken bekend waarin advocaten AI gebruikten voor een pleidooi of verzoekschrift, en vervolgens met volle overtuiging jurisprudentie citeerden die simpelweg niet bestond.
Wat geldt voor de entertainmentindustrie, geldt nog veel meer voor de rechtspraak: vertrouwen en kwaliteitsperceptie zijn fragiel. Als het gevoel ontstaat dat je minder moeite doet, of dat je niet transparant bent, krijg je gedoe. En terecht.
Van plausibel naar bruikbaar: expertise, context en precisie
AI-tools zijn pas echt nuttig, als je in ieder geval een basisbegrip hebt van hoe ze functioneren en hoe je ze het beste kunt sturen. Het gaat daarbij niet per se om de exacte onderliggende techniek; hoe een neuraal netwerk tot in detail werkt, is hier niet zo relevant. Wel is het belangrijk om de gevolgen te begrijpen van een paar technische eigenschappen die aan AI-tools vastzitten. En als je die gevolgen eenmaal scherp hebt, wordt ook duidelijk waarom er drie kerningrediënten nodig zijn om AI bruikbaar en praktisch toepasbaar te maken: expertise, context en precisie.
AI onder de motorkap
Om te snappen waarom het gebruik van AI tools zo ontzettend mis kan gaan, helpt het om heel kort te kijken naar hoe een AI-model eigenlijk functioneert. Onder de motorkap is een AI-model in de basis een geavanceerde kansberekening: het voorspelt steeds wat de meest waarschijnlijke volgende passage is, op basis van de input die je geeft.
Dat voorspellen gebeurt niet met 'woorden', maar met 'tokens'. Een token is eigenlijk niets meer dan een cijfermatige representatie van stukjes tekst: soms een heel woord, soms een deel van een woord, soms een spatie of leesteken. Waar wij een zin zien, ziet het model een reeks cijferblokjes die het achter elkaar moet leggen. Bij elke stap rekent het uit: gegeven alles wat er al staat, welk token is nu het meest waarschijnlijk als volgende? Daarna plakt het dat token eraan vast en herhaalt het proces. Dat is alles. Autocomplete op steroïden.
Dat is de belangrijkste reality check: AI is niet automatisch waar, het is automatisch plausibel. En dat is 'by design'. Een AI-model is in de kern gemaakt om een geloofwaardig vervolg te produceren, niet om de waarheid te bewaken.
Als je wil dat de output van goede kwaliteit is, moet je er dus voor zorgen dat het antwoord dat je nodig hebt het meest waarschijnlijke antwoord wordt, op basis van de input die je het model geeft. En daar zit precies de uitdaging: de output van het model staat of valt bij de kwaliteit van jouw input én jouw vermogen om die output te beoordelen. Als je de drie kerningrediënten — expertise, context en precisie — mist, dan veroorzaak je blunders, hallucinaties, en sluipen onzorgvuldigheden je output in.
Expertise
Uiteindelijk ben je altijd zelf verantwoordelijk voor de output van je tools. Je zit zelf achter het stuur, en je bent dus ook zelf de kwaliteitscontrole. En kwaliteit krijg je vooral als je al kunt herkennen wat kwaliteit is. Zonder die herkenning kun je niet sturen en ook niet goed inschatten waar het fout gaat. Je bent door AI niet opeens een goede marketeer, developer of UX-designer. AI geeft versnelling aan mensen die al weten wat ze doen. Het geeft je niet opeens gefundeerde nieuwe vaardigheden.
Dit is een bekend principe uit de cognitieve psychologie, ook wel het 'Dunning-Kruger' effect genoemd; mensen die minder vaardig zijn in een domein hebben vaak meer moeite om hun eigen fouten te herkennen, waardoor de eigen inschatting te rooskleurig wordt. Daar komt 'automation bias' dan nog bovenop: de neiging om aanbevelingen van een geautomatiseerd systeem te volgen en tegenstrijdige signalen te negeren, juist omdat de machine zo zeker overkomt. Combineer dat met het feit dat AI vrijwel altijd vloeiend en overtuigend formuleert, en je brein krijgt precies het verkeerde signaal: "dit klinkt goed, dus het zal wel kloppen".
Met andere woorden: AI kan je heel efficiënt richting de verkeerde conclusie duwen, vooral als jij niet goed kunt zien dat je verkeerd zit. Daarom is het essentieel dat je altijd zelf aandachtig controleert op de inhoud. Hoe minder zeker ik ben van het onderwerp, hoe meer ik AI dwing om onzekerheid expliciet te maken. Laat het aannames opschrijven, laat het alternatieven geven, laat het bronnen of checks voorstellen. En als ik iets alsnog niet goed kan beoordelen, dan is het antwoord van het AI-model geen antwoord maar een startpunt voor verder onderzoek.
Context
Om te illustreren hoe AI met context omgaat, doe ik graag een klein gedachte-experiment. Stel: je krijgt twee cijfers uit een reeks en je krijgt de opdracht om de reeks af te maken. Wat is dan het juiste antwoord? En belangrijker: hoe weet je dit?
Startcijfers uit reeks van 6 cijfers: 01 02 __ __ __ __
Welke is correct?
- 01 02 03 04 05 06 (opvolgend)
- 01 02 03 05 08 13 (Fibonacci)
- 01 02 04 08 16 32 (verdubbelen)
- 01 02 12 45 74 42 (willekeurig)
Het eerlijke antwoord is: ze zijn allemaal tegelijk correct én fout. Zolang je niet genoeg context hebt om een voorspelling te doen, zijn die twee startcijfers onderdeel van een soort Schrödinger-reeks. Net zoals Schrödingers kat tegelijk dood en levend is zolang je de doos niet openmaakt, is deze reeks tegelijk opvolgend, Fibonacci, verdubbelend of zelfs volledig willekeurig zolang je geen extra context toevoegt.
Zonder extra context zit een AI-model in precies dezelfde positie als wij bij die twee cijfers. Het model 'weet' niet welke reeks jij bedoelt, maar het moet wel iets kiezen dat plausibel is als vervolg. Dus als jij geen richting, criteria of voorbeelden geeft, dan gokt het model het meest waarschijnlijke vervolg op basis van patronen die het eerder heeft gezien in zijn trainingsdata.
En omdat het antwoord er zelfverzekerd uitrolt, lijkt het alsof er maar één logisch vervolg is. In zo'n situatie kan een AI-model, bewijze van spreken, probleemloos een opvolgende reeks produceren, zonder erbij te zeggen dat Fibonacci, verdubbelen of iets totaal anders ook prima mogelijkheden zijn. En zolang jij hier niet expliciet naar vraagt, zal het model niet snel met alternatieven komen of aangeven dat het antwoord onzeker is.
Precisie
Dit brengt ons op het derde basis ingrediënt: precisie. Want zelfs als je genoeg expertise hebt en de juiste context geeft, kan het nog steeds misgaan als je vraag ruimte laat voor interpretatie.
Om dat te illustreren kun je een bekend experiment doen: laat iemand een handleiding schrijven voor het smeren van een boterham pindakaas, en voer die instructies daarna letterlijk uit. Dus zoals een machine het zou doen: exact wat er staat, en niets wat er niet staat. In het beste geval, als de instructie heel precies is, krijg je een boterham. In het slechtste geval eindigt de pindakaas in je haar.
In de praktijk vullen mensen, bij het uitvoeren van een opdracht, op basis van ervaring en intuïtie automatisch allerlei gaten in. We doen aannames zonder het te merken: dat je een mes gebruikt, dat de boterham al gesneden is, dat 'smeren' betekent 'op het brood', en niet 'op de tafel'. Een machine doet dit niet. En daar valt een AI-model in deze context ook onder. Achter het rookgordijn voert het AI-model een opdracht uit zoals die er staat, niet zoals jij hem bedoelde.
Software developers zullen dit principe meteen herkennen, omdat het in de kern hetzelfde probleem is dat je in softwareontwikkeling steeds opnieuw tegenkomt. Een computer raadt niet wat je bedoelt. Een computer voert exact de instructie uit die je hem geeft. Een instructie geven in natuurlijke taal, zoals je dat doet met een AI-model, maakt dit probleem alleen maar groter. Natuurlijke taal is van zichzelf ambigu, waar een programmeertaal expliciet is.
Expliciete requirements zijn binnen veel projecten niet voor niks continue een discussiepunt. En als het voor mensen onderling niet altijd duidelijk is wat er bedoeld wordt, hoe moet het dan duidelijk zijn voor een AI-model dat onder de motorkap wiskundige berekeningen uitvoert en op basis daarvan een plausibel vervolg kiest?
Expertise, context en precisie vormen samen drie onderdelen van hetzelfde spectrum. Zonder context gokt het model welke richting je bedoelt en zonder precisie vult het model de benodigde aannames zelf voor je in. Altijd met dezelfde brutale zelfverzekerdheid. En zonder de juiste expertise merk je dit pas als het te laat is.
In de praktijk
Nu we weten wat zo'n model onder de motorkap eigenlijk doet, en wat dat van jou als gebruiker vraagt, wordt de volgende vraag natuurlijk: 'hoe ziet dat er dan uit in de praktijk?'. Ik neem je mee binnen mijn denkproces en laat zien hoe ik AI toepas binnen mijn werk als User Experience Designer en hoe de eerder besproken basisprincipes daarbij terugkomen.
AI als 'extended mind'
Ik experimenteer eigenlijk al vrij lang met verschillende AI-tools en toepassingen en ben ze gaandeweg steeds meer gaan gebruiken in mijn dagelijkse werk. Op een gegeven moment realiseerde ik me dat ik AI vooral prettig vind als hulpmiddel om mezelf, mijn werkwijze en mijn denkproces te organiseren en te structureren.
In de cognitieve psychologie bestaat daar een mooie term voor: 'cognitive offloading'. Je verplaatst denkwerk naar buiten, zodat je hoofd capaciteit overhoudt voor de lastige stukken en het nemen van beslissingen. Dat kan zo simpel zijn als iets opschrijven, een reminder op een post-it op je scherm, of je planning eerst op papier zetten voordat je daadwerkelijk begint.
Dit sluit aan op een bekend idee uit de filosofie en cognitiewetenschap: de 'extended mind'. Het beschrijft dat hulpmiddelen buiten je hoofd soms functioneel onderdeel worden van hoe je denkt en beslist. In de praktijk kunnen ze dezelfde rol vervullen als een intern proces. AI is voor mij precies dat: gereedschap om extern denken te faciliteren, structuur aan te brengen, varianten te genereren, taal te verfijnen en ideeën sneller toetsbaar te maken.
Er is alleen één cruciaal verschil tussen een AI-model en een agenda: een agenda verzint niets. Zoals eerder vastgesteld berekent een AI-model steeds de meest waarschijnlijke volgende passage op basis van de input. Je moet je constant afvragen: 'klopt dit wel?' en 'ben ik het hiermee eens?'. Het is een andere manier van omgaan met je denkproces, maar het helpt mij om tot nieuwe inzichten te komen en het biedt me mogelijkheden die ik zonder AI-tools niet zou hebben gehad.
Van frustratie naar controle
Met hulp van AI heb ik aan verschillende persoonlijke programmeer projecten gewerkt. Dat was fantastisch, omdat ik ineens dingen kon maken waar ik dat eerder, zonder gebruik van AI, simpelweg helemaal niet kon. Maar het was ook precies de plek waar ik het hardst onderuit ging.
Dit is een perfect voorbeeld waar uit blijkt dat voorgaande expertise echt een essentieel onderdeel is voor het succesvol gebruik van een AI-model; omdat ik geen programmeur ben en ik de nodige expertise dus niet voldoende bezit, ben ik niet in staat om de output van het AI-model goed te beoordelen. Op dat moment is een AI-model geen versneller meer maar een soort slotmachine: je probeert iets, het faalt, je vraagt om een fix, er verschuift iets anders, en opeens ben je meerdere uren verder terwijl je niet eens zeker weet wat er nu precies verkeerd is gegaan. Bloed onder de nagels en de laptop door het keukenraam.
Hoe groot mijn frustratie ook was, ik merkte wel een patroon op: hoe groter en abstracter mijn opdracht, hoe groter de chaos die terugkwam. Als ik AI een lang maar werkend script gaf en vroeg om een wijziging of verbetering, herschreef het soms vrolijk stukken die al gewoon naar behoren werkten. Resultaat: regressies op plekken waar ik niet aan wilde komen. En vanwege het gebrek aan expertise, totaal geen idee waarom of waar dit was gebeurd.
Mijn oplossing was kleiner knippen; kleine stukjes code met elk specifieke 'subtaken' in aparte bestanden. En één bestand dat alle subtaken aanroept. Daardoor werden veranderingen lokaal, beter controleerbaar en omkeerbaar als dit nodig was. Dat maakte een groot verschil: ik hoefde niet opeens een goede developer te zijn, ik hoefde het probleem alleen klein genoeg te maken om aanpassingen concreet en controleerbaar te houden.
Maar hoe gaaf ik het ook vind dat ik met AI zelf aan de slag kan met techniek en programmeercode, laat ik over één ding heel duidelijk zijn. Mijn programmeer projecten bestaan gegarandeerd nog steeds niet uit 'goede' code. Het werkt, het is leerzaam en ik kom verder dan ik zonder AI ooit was gekomen, maar je mag het absoluut niet verwarren met vakmanschap. Ik ben gewoonweg geen doorgewinterde developer. Hoewel AI voor veranderingen zorgt is dát er in ieder geval niet één van.
Geen prompts schrijven, maar processen bouwen
De les uit mijn persoonlijke programmeer projecten bleek niet alleen handig om mezelf op dat moment uit de frustratie te trekken. Het werd de basis voor hoe ik AI inzet in werk dat wél serieus af moet, met stakeholders en deadlines.
Recent schreef ik een volledig marktanalyse-rapport waarbij het principe van 'klein knippen' enorm heeft geholpen om op een gestructureerde manier tot kwalitatieve inzichten en conclusies te komen. Ik werkte met één primaire chat-thread waarin ik regie hield over het proces: wat is het doel, wat is de structuur, welke aannames doen we, welke vragen moeten beantwoord worden, en welke onderdelen zijn afhankelijk van elkaar. Vanuit die hoofdthread formuleerde ik steeds kleine, afgebakende deelopdrachten. Niet 'schrijf een rapport', maar: 'zoek dit uit', 'structureer dat onderdeel', en 'zoek informatie over dit onderwerp'.
Die deelopdrachten draaide ik vervolgens in aparte chats binnen hetzelfde project. Daarmee bleef de scope klein en controleerbaar, terwijl de juiste context beschikbaar bleef. Het grote voordeel is dat je nooit het gevoel hebt dat je één enorme blob aan het managen bent. Je bouwt aan een stapel kleine, valideerbare blokken die je later kunt samenvoegen.
Procesmatig denken is een belangrijk onderdeel van de vereiste expertise voor succesvol AI gebruik: je moet overzicht houden, de kern van een project kunnen definiëren en weten wát je op welk moment moet opzoeken. En uiteindelijk moet je de individuele onderdelen op een effectieve manier tot elkaar kunnen brengen om tot een goed eindresultaat te komen.
Daarnaast is het belangrijk dat je het proces wat je hanteert goed kunt documenteren. Door alle tussenstappen en subtaken vast te leggen, zowel de gebruikte prompts als de output, wordt je resultaat betrouwbaar en reproduceerbaar. Het is een meer 'wetenschappelijke' insteek die je helpt om een audit trail te creëren die je later kunt gebruiken om inzichten verder te verscherpen of om vervolgonderzoek op te baseren. Als je later dan moet uitleggen waarom iets in je rapport staat, of waar een conclusie vandaan komt, dan heb je niet alleen een eindtekst, maar ook een spoor terug naar het denkproces. Voor wie zich vroeger afvroeg waarom je bij de wiskundeles zo veel moeite moest steken in het uitschrijven van je berekeningen; dit is precies waarom.
Je kunt natuurlijk variëren op basis van doelstelling en scope over hoe ver je hier precies in gaat. Maar op kleinere schaal werkt deze aanpak ook. Zo heb ik inmiddels voor meerdere (potentiële) klanten gebruik gemaakt van AI-assisted research tools om tot eerste versies van doelgroepomschrijvingen en bijbehorende buyer journeys te komen. Niet per se als eindantwoord of absolute waarheid, maar als fundering om grip te krijgen op de vraag van de klant en de marktcontext waarin zij opereren.
AI helpt om snel het speelveld te schetsen, waarna ik met mijn eigen expertise scherpstel welke aannames er nog in zitten en waar we eventueel verder onderzoek naar moeten doen. De echte waarde zit niet in die eerste versie, maar in het gesprek dat je ermee kunt voeren met de klant: 'klopt dit?', 'waarom wel?', 'waarom niet?', en waar zitten precies de gaten of interne meningsverschillen?
AI vraagt vakmanschap
Uiteindelijk is dit rode draad: een AI-model is geweldig in het produceren van plausibele output, maar het kan niet voor jou bepalen wat waar is of wat klopt binnen jouw context. Die verantwoordelijkheid blijft altijd bij jou als gebruiker van de tool. Daarom werkt AI het beste als je het inzet als onderdeel van een proces dat je kunt sturen, controleren en herhalen. Gebruik het om sneller te denken, niet om minder te denken. AI is een prachtige tool, maar wel een die kundigheid vraagt om goed te bedienen.
Geef een kettingzaag aan een peuter en je hebt gegarandeerd een stuk minder peuter.