Veilig werken met AI

Privacy, grenzen en verantwoord gebruik.


De basisprincipes

Werken met AI en gevoelige gesprekken vraagt om bewuste keuzes. Niet omdat AI inherent onveilig is, maar omdat de drempels zo laag zijn dat het makkelijk is om te vergeten wat je deelt.

1. Weet waar je data naartoe gaat

Cloud vs Lokaal:

  • Cloud-diensten (ChatGPT, Claude, Notion.ai) slaan data op servers
  • Lokale tools (MacWhisper) verwerken alles op je eigen apparaat

De keuze:

SituatieAanbeveling
Gevoelige gesprekken (therapeutisch, personeels-issues)Lokaal
Interne organisatie-zakenOverwegen, check beleid
Openbare of minder gevoelige contentCloud kan
TwijfelLokaal

2. Vraag toestemming

Bij opnemen:

"Ik neem dit gesprek op zodat we later terug kunnen kijken naar wat er gezegd is. De opname blijft bij mij en wordt alleen gebruikt voor [doel]. Is dat voor iedereen oké?"

Let op non-verbale signalen. Niet iedereen zegt hardop als ze oncomfortabel zijn.

Bij delen met AI: Als je transcripten naar cloud-diensten stuurt, weten deelnemers dat? Expliciet maken is respectvol.

3. Anonimiseer waar nodig

Wat te anonimiseren:

  • Namen van personen
  • Identificerende details (functies, afdelingen, specifieke situaties)
  • Alles wat naar individuen te herleiden is

Wanneer:

  • Altijd bij gevoelige content
  • Altijd bij delen buiten directe context
  • Bij twijfel: anonimiseren

De prompt-randvoorwaarden

Bij elke prompt voor gevoelige gesprekken, gebruik deze randvoorwaarden:

Strikt op transcript

Baseer je strikt op wat er staat, geen verzinsels.

Dit voorkomt dat AI informatie toevoegt die er niet is.

Bij twijfel benoemen

Bij twijfel: formuleer als "mogelijk" of "het lijkt alsof" in plaats van stellige beweringen.

Dit voorkomt dat AI zekerheid simuleert die er niet is.

Taal behouden

Gebruik de exacte woorden en formuleringen van deelnemers. Geen parafrase naar professionele taal.

Dit voorkomt dat eigenaarschap verdwijnt door vertaling.

AI markeren

Maak expliciet onderscheid tussen wat deelnemers zeiden en wat AI observeert.

Dit voorkomt dat AI-interpretaties verward worden met wat er echt gezegd is.


Checklist per sessie

Voor de sessie

  • Toestemming voor opname voorbereid
  • Besloten: cloud of lokaal verwerken
  • Duidelijkheid over wie toegang heeft tot output

Na de sessie

  • Transcript/opname veilig opgeslagen
  • Anonimisatie waar nodig
  • Deelnemers geïnformeerd over wat er met hun input gebeurt

Bij elke prompt

  • "Strikt op transcript" instructie toegevoegd?
  • "Bij twijfel: mogelijk" instructie toegevoegd?
  • Taal-behoud instructie meegenomen?
  • AI-output duidelijk als AI gemarkeerd?
  • Privacy gecheckt voor de tool die je gebruikt?

Tool-keuzes

ToolTypePrivacy-niveau
MacWhisperLokale transcriptieHoog: alles blijft op je apparaat
DembraneCloud + real-timeHoog-midden: gebouwd voor facilitatie, gericht op privacy, Europese servers
Notion.aiCloud transcriptieLager: data op externe servers
ChatGPT/ClaudeCloud AILager: data kan gebruikt worden voor training*
Lokale LLM'sLokale AIHoog: alles blijft lokaal

*Check actuele voorwaarden, deze veranderen regelmatig.


Wanneer niet met AI werken

Sommige gesprekken horen niet in een AI-verwerking, ook niet lokaal:

  • Crisisinterventies: focus moet 100% op de mens zijn
  • Wanneer vertrouwelijkheid absoluut is: sommige dingen horen alleen bij de mensen in de kamer
  • Wanneer je het gevoel hebt dat het niet past: vertrouw dat gevoel

AI is een tool. Niet elke situatie vraagt om een tool.


De ethische laag

Eigenaarschap respecteren

Wanneer je output genereert op basis van andermans woorden, is die output niet van jou. Het is een bewerking van hun input.

Implicatie: Deel niet zomaar. Check of mensen zich herkennen. Vraag toestemming voor gebruik.

Transparantie

Mensen hebben recht om te weten:

  • Dat er opgenomen wordt
  • Wat er met de opname gebeurt
  • Dat AI betrokken is bij de verwerking
  • Wat er met de output gedaan wordt

Mens blijft eindverantwoordelijk

AI genereert, jij beslist. De output is een suggestie, geen conclusie.

Implicatie: Review wat AI maakt. Check of het klopt. Neem verantwoordelijkheid voor wat je deelt.


De grenzen van AI

AI is krachtig maar heeft grenzen die relevant zijn voor veilig werken:

AI kan stellig klinken maar het fout hebben: Een zekere toon is geen garantie voor waarheid. Controleer alles dat ertoe doet.

AI mist wat niet in woorden gevangen werd: Het leest wat er staat, niet wat er hing: de blik, de zucht, de sfeer in de kamer.

AI vindt vaak iets, de vraag is of het betekenisvol is: Niet alles wat AI ziet is een patroon. Controleer tegen je eigen ervaring.

AI weegt ethiek niet automatisch af, en draagt de consequenties niet: Jij kent de mensen, jij staat in relatie met hen, jij bent degene die ze in de ogen kijkt. Die verantwoordelijkheid blijft bij jou.


Samenvatting

De kern: Weet waar je data naartoe gaat. Vraag toestemming. Anonimiseer waar nodig. Gebruik randvoorwaarden in je prompts. Markeer AI-output als AI. Blijf verantwoordelijk.

De houding: AI als krachtige tool, niet als autoriteit. Mens blijft eindverantwoordelijk.

De check: Bij twijfel, vraag jezelf: "Zou ik comfortabel zijn als de mensen in dit gesprek precies wisten wat ik hiermee doe?"

Veilig werken met AI | Social AI Veldgids