AI veiligheid: je data is veiliger dan je denkt
Veel professionals vermijden AI uit angst voor datalekken. Maar de grote aanbieders hebben hun zaken beter op orde dan je denkt. Een concreet overzicht van wat OpenAI, Microsoft, Google en Anthropic wel en niet doen met je data.
“Ik gebruik geen AI op werk, want ik weet niet wat er met mijn data gebeurt.”
Ik hoor het elke week. Bij trainingen, in workshops en vaak een van de eerste vragen die een ondernemer heeft. De angst is begrijpelijk. Je stopt bedrijfsinformatie in een tool van een Amerikaans techbedrijf en hoopt maar dat het goed komt.
Maar die angst is grotendeels achterhaald. De vier grote AI-aanbieders hebben hun privacy serieuzer genomen dan veel mensen beseffen. En het verschil tussen veilig en onveilig werken is vaak niet meer dan het juiste account kiezen.
De grote vier naast elkaar
Ik heb de data policies van OpenAI, Microsoft, Google en Anthropic naast elkaar gelegd. Niet de marketingpagina’s, maar de juridische documenten, de compliance-certificeringen en de technische documentatie.
De conclusie: op zakelijke accounts trainen alle vier niet op je data. Standaard. Zonder dat je iets hoeft aan te vinken.
OpenAI (ChatGPT Business en Enterprise)
Op Business- en Enterprise-accounts worden je prompts en responses niet gebruikt voor modeltraining. Dat geldt ook voor de API. Data wordt maximaal 30 dagen bewaard voor misbruikdetectie en daarna verwijderd. Voor bepaalde API-endpoints kunnen Enterprise-klanten na goedkeuring zelfs Zero Data Retention instellen.
OpenAI heeft SOC 2 Type II, ISO 27001, ISO 27018 en ISO 27701 certificeringen. Alles is na te lezen op hun Trust Portal.
Belangrijke nuance: ChatGPT Plus (het persoonlijke betaalde account) heeft dezelfde standaardinstellingen als de gratis versie. Training staat daar standaard aan. Je kunt het uitzetten via Settings > Data Controls, maar het is niet automatisch. Pas bij een Business- of Enterprise-account is training standaard uitgeschakeld.
Microsoft 365 Copilot
Microsoft is expliciet: prompts, responses en data uit Microsoft Graph worden niet gebruikt voor training van de onderliggende modellen. Je data wordt verwerkt via Azure OpenAI, niet via de publieke OpenAI-dienst, en er wordt niets gecached.
Sinds februari 2025 is de EU Data Boundary actief. Data van Europese klanten blijft in Europa. Dat is voor veel organisaties een belangrijke voorwaarde.
Certificeringen: SOC 2, ISO 27001, ISO 42001, FedRAMP, en HIPAA-eligible. Audit reports en compliance-documenten zijn beschikbaar via het Service Trust Portal.
Let op: bij Copilot met een persoonlijk Microsoft-account wordt je data in de chatfunctie in principe gebruikt voor training. Maar voor gebruikers in de EU geldt dit momenteel niet: Microsoft sluit EEA-inwoners uit van consumer AI training. Buiten de EU kun je het handmatig uitzetten via profielicoon > Privacy > “Training on conversation activity”. Binnen Microsoft 365-apps (Word, Excel, etc.) wordt je data ook bij persoonlijke accounts niet voor training gebruikt. De volledige set aan enterprise-garanties geldt alleen voor organisatie-accounts met Entra ID.
Google Workspace met Gemini
Google’s boodschap voor Workspace-klanten: je data is van jou, wordt niet gebruikt voor training en wordt niet door mensen gereviewed. Admins hebben volledige controle over dataretentie en kunnen zelfs client-side encryption inschakelen, waarbij alleen de klant de sleutel heeft.
Certificeringen: SOC 1/2/3, ISO 27001, ISO 42001, FedRAMP High. Details staan in de Workspace AI Privacy Hub.
Ook hier dezelfde kanttekening: Gemini Advanced (het persoonlijke betaalde account via Google One) heeft niet dezelfde bescherming. Gesprekken kunnen standaard gebruikt worden voor training, tenzij je Gemini Apps Activity uitzet in je privacy-instellingen. Let wel: Google verwerkt ook geanonimiseerde data om hun diensten te verbeteren, ongeacht deze instelling.
Anthropic (Claude Team en Enterprise)
Anthropic gaat nog een stap verder. In hun Commercial Terms staat letterlijk: “Anthropic may not train models on Customer Content from Services.” Niet we doen het niet standaard, ze mogen het contractueel niet.
Enterprise-klanten kunnen eigen retentieperiodes instellen, met een minimum van 30 dagen.
Qua certificeringen: SOC 2 Type II, ISO 27001, en als een van de eersten ook ISO 42001, de internationale standaard specifiek voor verantwoord AI-management. Alles verifieerbaar via hun Trust Center.
Het patroon is duidelijk
Alle vier de aanbieders hanteren hetzelfde onderscheid: zakelijke accounts zijn beschermd, persoonlijke accounts vereisen actie van de gebruiker.
Dat is logisch. Zakelijke klanten eisen contractuele garanties. Ze hebben compliance-afdelingen die SOC-rapporten opvragen en DPA’s tekenen. Die druk heeft gewerkt. De grote aanbieders hebben massaal geinvesteerd in certificeringen, trust portals en juridisch waterdichte voorwaarden.
Concreet betekent dit voor de meeste organisaties:
Stap over naar een zakelijk account. Bij Microsoft en Google zit het in je bestaande 365- of Workspace-abonnement. Bij OpenAI is dat Business (vanaf $25 per gebruiker), bij Anthropic Team (vanaf $30 per gebruiker).
Controleer de instellingen. Zelfs op zakelijke accounts zijn er opties voor dataretentie en logging die je wilt reviewen met je IT-afdeling.
Documenteer je keuze in je AI beleid. Welke tool, welk account type, welke instellingen. Niet voor de bureaucratie, maar zodat iedereen in je bedrijf weet wat wel en niet mag.
En als je nog meer controle wilt?
Er is een groeiende groep organisaties die zegt: we willen niet afhankelijk zijn van de beloftes van een externe partij. Hoe betrouwbaar ook.
Voor hen is er een alternatief dat steeds volwassener wordt: open-source modellen die je volledig op eigen infrastructuur draait. Geen data die je netwerk verlaat. Geen externe partij die toegang heeft. Volledige controle.
Daar schrijf ik binnenkort meer over. Want de status van open-source AI in 2026 is indrukwekkender dan de meeste mensen beseffen.
Wil je weten hoe je AI veilig kunt inzetten in jouw organisatie? Neem contact op voor een vrijblijvend gesprek of bekijk onze trainingen.