Iteratie als dialoog

Niet sleutelen aan output, maar feedback geven. AI leert wat je bedoelt.

Bouwt voort op
De eerste AI-output die niet helemaal klopt
Wanneer is dit relevant?
Situatie

Je krijgt output van AI. Het is 60% van wat je zoekt. De reflex is om het zelf aan te passen: woorden veranderen, zinnen herschrijven.

De neiging

Solo-werk. Je pakt de output en sleutelt tot het past. AI is klaar, jij neemt het over.

Het principe

AI output is eigenlijk nooit helemaal klaar. Het is input voor een dialoog. Door feedback te geven in plaats van te sleutelen, leert AI werken met jouw specifieke behoeften. Het resultaat is beter dan wat je in je eentje had gemaakt. Én je leert woorden te geven aan wat je eigenlijk wilt hebben.

Vraag

Geef ik feedback of ga ik zelf sleutelen?

Het verhaal: twaalf rondes

Een transformatieplan voor een mentaal gezondheidsnetwerk. Dertig stakeholders hadden input gegeven. Nu moest dat omgezet worden naar een document dat de zorgverzekeraar zou accepteren.

Er was al een goedgekeurd transformatieplan uit een andere regio. De vraag: hoe schrijf je nieuwe deelplannen in dezelfde stijl?

Dit werd geen eenmalige prompt. Het werd twaalf rondes.

Ronde

1

Ik beschrijf wat ik wil.

2

AI stelt een stappenplan voor.

3

Ik voeg het draaiboek toe voor context.

4

AI past de prompts aan op het draaiboek.

5

Ik vraag om drie specifieke prompts.

6

AI levert drie prompts, maar de stijl zit nog niet goed.

7

Ik vraag om universele versies.

8

AI past aan, maar mist nog iets.

9

Cruciale correctie: "De stijl moet IN de prompt, want AI heeft geen toegang tot het voorbeeld."

10

AI verwerkt de correctie.

11

Ik verduidelijk de context-window situatie.

12

Prompts zijn klaar.

Vier concrete correcties die het verschil maakten. De rode draad: je denkt dat AI weet wat je weet. AI weet enorm veel — maar niet jouw specifieke context: de documenten die jij hebt, de afspraken die je maakte, de stijl die je zoekt. Wat je niet expliciet meegeeft, bestaat niet voor AI.

  • "De AI heeft geen toegang tot het voorbeeldplan, dus neem de schrijfstijl mee IN de prompt"
  • "Maak de prompts universeel: de AI kan zelf het thema detecteren uit het transcript"
  • "Prompt 2 moet vooral vragen genereren voor de volgende groep"
  • "De AI heeft toegang tot volledige transcripten, niet fragmenten"

Dit inzicht — dat je AI expliciet moet vertellen wat het moet weten — komt ook terug bij Brondocument-stijl klonen, waar het de kern van de techniek is.

Toen ik hierop terugkeek, zag ik een patroon: een prompt ontstaat niet in ronde 1. De prompt evolueert door de correcties.

Bron: Iteratieproces dat ik doorliep bij transformatieplan-ontwikkeling (GGZ Centraal Gelderland)

De shift: van sleutelen naar sturen

❌ Sleutelen: AI-output krijgen → Zelf gaan aanpassen → Klaar
✅ Itereren: AI-output krijgen → Pauzeren → Feedback geven → Herhalen

Het verschil is subtiel maar fundamenteel. Sleutelen is solo-werk. Itereren is samenwerken.

Hoe sleutelen eruit ziet:

Je krijgt een samenvatting van AI. De toon is te formeel.

Je opent het document en begint zinnen te herschrijven. "Stakeholders" wordt "betrokkenen". "Geïmplementeerd" wordt "ingevoerd".

Na twintig minuten is het klaar. AI heeft niks geleerd. Jij hebt het werk gedaan.

Hoe itereren eruit ziet:

Je krijgt dezelfde samenvatting. De toon is te formeel.

Ronde 1: "Dit voelt als een beleidsdocument. Ik zoek de toon van een gesprek tussen collega's die elkaar al lang kennen en transparant zijn over hun behoeften. Gebruik gewone woorden, geen jargon. Probeer opnieuw." Dertig seconden later: nieuwe versie. Beter, maar nog niet helemaal.

Ronde 2: "Beter. Maar de eerste alinea is nog te afstandelijk. Maak het persoonlijker." Weer dertig seconden. Nu klopt het.

Waarom dit werkt:

  • Lerende context AI leert jouw behoeften binnen het lopende gesprek
  • Scherper formuleren je formuleert scherper wat je wilt — voor jezelf en voor AI
  • Gecombineerde capaciteit het eindresultaat combineert AI's capaciteit met jouw richting
  • Volgende iteratie de volgende keer kun je al zeggen: "toon van een gesprek tussen collega's die elkaar lang kennen, transparant over behoeften, geen jargon"

Let op: start je een nieuw gesprek, dan is de context window weer leeg en begin je opnieuw. Daarom loont het om binnen één sessie te blijven itereren.

Dictatie als versneller

De drempel om feedback te geven is typen. Als je elke correctie moet uittypen, voelt itereren als werk. Maar dicteren verandert dat.

De workflow: AI geeft output → je spreekt je reactie in → binnen een seconde staat het er als tekst

Je hoeft niet te formuleren terwijl je typt. Je spreekt gewoon uit wat je denkt: "Nee, dit is te formeel. Ik zoek meer de toon van een gesprek aan de keukentafel." Dat is sneller dan typen, en het voelt natuurlijker, meer als een gesprek.

Zie Transcriptie voor tools en setup.


Iteratie vooraf: laat AI jou de vragen stellen

Tot nu toe ging het over iteratie op output: je krijgt iets van AI, je geeft feedback, AI past aan. Maar er is nog een andere vorm: iteratie vooraf. Daar laat je AI jou eerst helpen om scherp te krijgen wat je wilt, vóórdat er output komt. Het heen en weer werken met AI is een vaardigheid op zich.

De techniek: vraag AI om jou vragen te stellen met steeds twee opties. Dat dwingt je om positie te kiezen. En de nuances die je toevoegt bij je keuze — "ik wil allebei", "maar dan vanuit het positieve", "ik bepaal zelf hoe ik ze deel" — maken de prompt scherper dan hij zonder dialoog was geweest.

Voor het volledige verhaal van hoe dit eruit zag in de praktijk — drie vragen, drie keer bijsturen, een prompt die precies deed wat Maarten nodig had — zie Wat er nog meer in zat.

De prompt waarmee je AI jou vragen laat stellen

Dit gedrag (AI die jou vragen stelt met A/B opties) moet je expliciet triggeren. Hier is de prompt die dat doet:

Ik werk aan [PROJECT/DOEL].
Huidige stand van zaken:
  • Doel: [wat je wilt bereiken]
  • Doelgroep: [voor wie]
  • Waar ik mee worstel: [open vragen, twijfels]
Stel me 3-5 scherpe vragen die me helpen om:
  1. Mijn doel helderder te krijgen
  2. Cruciale keuzes expliciet te maken
  3. Blinde vlekken te identificeren
Waar relevant: presenteer keuzes (A vs B) in plaats van alleen open vragen. Dit dwingt me om positie te kiezen.
Na mijn antwoorden: stel follow-up vragen op basis van wat ik heb gekozen.

De kracht zit in "presenteer keuzes (A vs B)". Dat dwingt je om positie te kiezen, en de nuances die je toevoegt bij je keuze zijn precies waar de waarde zit.


De gereedschapskist

Het twaalf-rondes verhaal hierboven toont iteratie op output. Iteratie vooraf laat zien hoe je richting geeft vóórdat er output komt. Maar wat als je concreet wilt weten hoe je feedback geeft? Of hoe je leert van je eigen aanpassingen? Hier zijn de methodes die ik gebruik.

Feedback-formules

Wanneer AI output niet klopt, geef specifieke feedback. Spreek het uit alsof je het dicteert:

Voor toon:

Maak het warmer, alsof je het aan een collega vertelt.
Dit voelt als consultant-taal, kun je de woorden van de deelnemers gebruiken?

Voor structuur:

Te lang, kun je minder bullets geven en meer verhaal?
De volgorde klopt niet, kun je beginnen met X in plaats van Y?

Voor inhoud:

Dit mist de nuance over X, kun je dit en dit en dit toevoegen alsjeblieft?
Dit is 70% wat ik zoek. Wat mist is X, kun je het opnieuw proberen?

Voor framing:

Dit is te negatief geformuleerd, kun je het framen vanuit wat mensen willen?
Dit klinkt alsof AI het weet, kun je 'mogelijk' en 'het lijkt alsof' gebruiken?

Als je niet weet wat je wilt:

Dit is niet wat ik zoek qua toon en structuur, maar ik weet niet helemaal wat ik wel wil. Kun je me vragen stellen om helder te krijgen welke opties er zijn en welke beter voor mij werkt?

Als je tussen opties twijfelt:

Ik twijfel tussen deze twee formats. Kun je ze allebei beknopt uitwerken zodat ik het voorbeeld kan lezen en daar feedback op kan geven?

De feedback-loop prompt

Stel je voor: je hebt AI output flink aangepast. Je hebt zinnen herschreven, structuur veranderd, toon aangepast. In plaats van dat werk te "verliezen", kun je het terugvoeren naar AI zodat je prompt de volgende keer beter werkt.

Dit was de originele output: [plak AI output]
Dit is wat ik ervan heb gemaakt: [plak jouw verbeterde versie]
Analyseer de verschillen:
  1. Wat heb ik veranderd?
  2. Waarom denk je dat ik dat veranderde?
  3. Hoe moet ik de prompt aanpassen om de volgende keer dichter bij mijn gewenste output te komen?
Geef concrete suggesties voor prompt-verbeteringen.
  • Origineel naast revisie dwingt AI om concreet te vergelijken, niet abstract te adviseren
  • Drie analysevragen structureren de reflectie van observatie naar actie
  • Prompt-verbeteringen als einddoel maken elke iteratie cumulatief beter

Dit is een suggestie: pas aan op jouw specifieke situatie.

Dit lijkt extra werk, maar het is een investering. Elke iteratie maakt je prompts scherper.

Prompt-test-cyclus

Wanneer gebruik je dit?

  • Je hebt bestaande transcripten en wilt testen of een nieuwe prompt werkt
  • Er is een nieuw AI-model en je wilt checken of je prompts nog goed werken
  • Je wilt systematisch verbeteren in plaats van ad hoc

Bijvoorbeeld: je hebt een prompt die prima werkte met Gemini 2.5, maar nu is er een nieuw model. Werkt je prompt nog? Of je hebt tien transcripten van vorige sessies en wilt testen of je nieuwe analyse-prompt de juiste dingen eruit haalt.

De aanpak: test je prompt op echte data en laat AI het eigen werk evalueren.

De stappen:

  1. Maak de prompt samen met AI: bijvoorbeeld een prompt voor transcript-analyse
  2. Test op echte data: voer de prompt uit op een relevant transcript
  3. Verzamel de output: wat kwam eruit?
  4. Voer terug naar de AI die de prompt maakte:
Ik heb de prompt die we samen maakten getest op een echt transcript.
Dit is de output die eruit kwam: [plak de output]
Vragen:
  1. Hoe goed heeft onze prompt gepresteerd voor wat we wilden bereiken?
  2. Wat ontbreekt er in de output?
  3. Hoe moeten we de prompt aanpassen om dichter bij ons doel te komen?
  • Echte data als toets voorkomt dat je prompt alleen in theorie werkt
  • Drie evaluatievragen dwingen reflectie op prestatie, lacunes en verbetering
  • Cyclisch ontwerp maakt de prompt zelf het object van iteratie

5. **Verfijn de prompt**: laat AI de originele prompt aanpassen op basis van de test

Dit is anders dan de feedback-loop hierboven. Daar pas jij de output aan en laat je AI leren van jouw aanpassingen. Hier test je de prompt zelf en laat je AI evalueren hoe goed de prompt presteerde.

*Bron: Werkwijze die ik ontwikkelde voor het itereren van Dembrane-prompts.*

Cross-model kritiek (geavanceerd)

Dit is een tijdsintensieve techniek voor werk dat je echt tot in de puntjes wilt uitwerken: twee AI's elkaars werk laten reviewen. Ik gebruikte dit voor workshop-ontwerp: ChatGPT en Gemini reviewden elkaars output tot ze convergeerden naar 98/100.

Waarom dit werkt:

  • Modeldiversiteit verschillende modellen hebben verschillende biases en sterke punten
  • Peer-kritiek kritiek van "peer-AI" helpt blinde vlekken identificeren
  • Convergentie toont robuustheid van resultaat

Wanneer te overwegen:

  • Werk waar je echt diepgang in zoekt (strategische plannen, workshop ontwerpen)
  • Complexe analyses waar je meerdere perspectieven wilt
  • Als check of één AI je misleidt

Stap 1: Vraag beide AI's om samenvatting

Aan beide AI's (apart):

We hebben samen gewerkt aan [PROJECT/VRAAG].
Maak een samenvatting van:
  • De kernvraag die we probeerden te beantwoorden
  • De aanpak die we hebben gekozen
  • De belangrijkste inzichten die naar voren kwamen
  • De zwakke punten of blinde vlekken in onze analyse
  • Een rating (0-100) voor de kwaliteit van ons werk
Wees kritisch en eerlijk over beperkingen.
  • Zelfkritiek afdwingen via "wees kritisch" voorkomt zelfgenoegzame output
  • Rating dwingt de AI tot een kwantitatief oordeel over eigen werk
  • Vijf dimensies dekken van kernvraag tot blinde vlekken het hele spectrum

Stap 2: Laat ze elkaar reviewen

Voer samenvatting A aan Model B:

Een andere AI heeft deze samenvatting gemaakt van werk aan dezelfde vraag:
[KOPIEER SAMENVATTING A]
Review deze samenvatting:
  1. Wat zijn sterke punten die wij niet hebben?
  2. Wat zijn zwakke punten die zij niet zien?
  3. Welke blinde vlekken heeft deze analyse?
  4. Hoe zou je onze aanpak combineren met hun inzichten?
  • Externe review doorbreekt de bias van één model
  • Vier gerichte vragen sturen de kritiek van sterke punten tot synthese
  • Combinatie-vraag dwingt constructieve integratie, niet alleen kritiek

Doe hetzelfde andersom.

Stap 3: Integreer

Ik heb nu twee analyses en wederzijdse kritiek.
Analyse A: [SAMENVATTING A] Kritiek van B op A: [KRITIEK B→A]
Analyse B: [SAMENVATTING B] Kritiek van A op B: [KRITIEK A→B]
Syntheseer tot één geïntegreerd perspectief dat:
  • De sterke punten van beide behoudt
  • De zwakke punten van beide adresseert
  • Nieuwe inzichten toevoegt die uit de confrontatie ontstaan

Dit is tijdsintensief. Gebruik het spaarzaam, voor werk waar het echt toe doet. Of waar je nieuwsgierigheid je drijft :)


Spanningen

Direct sleutelen De eerste reflex is om output aan te passen in plaats van feedback te geven. Maar dan leert AI niks en doe ik het werk zelf.

Mijn aanpak: Ik pauzeer. Ik vraag mezelf: "Kan ik dit als feedback formuleren?" Als ja, dan feedback. Als nee, dan is het misschien beter om opnieuw te beginnen met een scherpere prompt.

Eindeloos itereren Soms is 80% goed genoeg. Perfectie kan verlammen.

Mijn aanpak: Ik stel mezelf de vraag: "Is dit goed genoeg om de volgende stap te zetten?" Zo ja, ga door.

Vage feedback "Dit klopt niet" is wat ik voel. Maar AI weet niet wat er moet veranderen.

Mijn ervaring: Wanneer ik gefrustreerd ben over output, merk ik dat mijn feedback ook vaag wordt. Wat helpt: even pauzeren en benoemen wat er precies niet klopt. "De toon is te formeel" werkt beter dan "dit voelt niet goed."

Feedback zonder richting De neiging is om te zeggen wat er mis is zonder te zeggen wat ik wel zoek.

Mijn ervaring: Ik merk dat AI beter reageert op "ik zoek [X]" dan op "dit is niet wat ik wil." En eerlijk: het dwingt mij ook om helder te krijgen wat ik eigenlijk wil.


Veilige uitgangspunten

Voor privacy-afwegingen bij het delen van transcripten, lees Veilig werken met AI.

  • Feedback specifiek geformuleerd?
  • Richting gegeven, niet alleen kritiek?
  • Gepauzeerd voordat je ging sleutelen?
  • Bij significant aanpassen: feedback-loop prompt gebruikt?

Filosofische verdieping

Het proces IS de waarde

In de twaalf-rondes-iteratie was ronde 9 het keerpunt: "De stijl moet IN de prompt, want AI heeft geen toegang tot het voorbeeld."

Dit inzicht kwam niet uit het niets. Het kwam omdat de output van ronde 6 niet klopte: de stijl zat er niet in. Zonder die fout, geen correctie. Zonder die correctie, geen werkende prompts.

De waarde zat niet in de eerste poging. De waarde zat in het proces van ontdekken wat er miste.

Dialoog creëert commitment

Er is een diepere laag. Wanneer je AI feedback geeft, formuleer je wat je wilt. Die formulering maakt je intentie expliciet, voor jezelf, niet alleen voor AI.

Dit is hetzelfde mechanisme als bij mensen. Dialoog creëert helderheid. Het feit dat je moet uitleggen wat je bedoelt, dwingt je om te weten wat je bedoelt.

Iteratie als dialoog | Social AI Veldgids