Microsoft verbetert de privacy rond zakelijk gebruik van CoPilot
Afgelopen donderdag (11.09.2025) publiceerde SURF een hernieuwde DPIA rond het gebruik van Microsoft CoPilot binnen het hoger onderwijs.
De DPIA, een uitgebreid document van 217 paginas, concludeert dat het gebruik van de betaalde versie van Microsoft 365 Copilot binnen onderwijsinstellingen onder strikte voorwaarden aanvaardbaar is. Na overleg met SURF heeft Microsoft maatregelen genomen die de oorspronkelijk geïdentificeerde hoge risico’s hebben verlaagd. Desondanks blijven er risico’s bestaan.
De uitkomst is dat er geen hoge risicos meer zijn, maar wel 2 medium risicos en 9 lage risicos. De veiligheid en rechtmatigheid van het gebruik hangen sterk af van de maatregelen die de onderwijsinstelling (de verwerkingsverantwoordelijke) zelf neemt.
Is Microsoft Copilot veilig te gebruiken?
Ja, maar onder strikte voorwaarden. De DPIA stelt dat de geïdentificeerde hoge risicos door Microsoft zijn gemitigeerd. Het gebruik wordt als aanvaardbaar beschouwd, mits de onderwijsinstelling zelf proactief de aanbevolen technische en organisatorische maatregelen treft (zie ook pagina 10 en 12 van het rapport).
De twee overgebleven medium risicos zijn:
- Onjuiste persoonsgegevens: Het risico dat Copilot onjuiste, incomplete of verouderde persoonsgegevens genereert, wat kan leiden tot aanzienlijke sociale of economische nadelen voor de betrokkene.
- Retentie van data: De lange en weinig granulaire bewaartermijn van 18 maanden voor gepseudonimiseerde diagnostische data (Required Service Data en Telemetry Data), wat het risico op her-identificatie verhoogt.
De conclusie is dat de veiligheid niet inherent is aan het product zelf, maar het resultaat is van een combinatie van de waarborgen van Microsoft én het actieve privacybeheer door de gebruikerorganisatie.
De 5 belangrijkste aandachtspunten voor bedrijven en gebruikers.
Uit de DPIA komen de volgende cruciale aandachtspunten naar voren die elke organisatie moet adresseren:
- Blokkeer de toegang tot Bing (web chat): Standaard staat de koppeling met Bing aan. Wanneer deze actief is, treedt Microsoft op als data controller (zie pagina 8 en 40) voor de verwerkte data, en zijn de consumentenvoorwaarden van toepassing, niet de zakelijke overeenkomst. Dit leidt tot een verlies van controle over de data. Het blokkeren van Bing is een van de belangrijkste aanbevelingen (pag. 10, 12, 40 en 64).
- Beheer de data in de Microsoft Graph: De kracht van M365 Copilot is de toegang tot interne bedrijfsdata (e-mails, documenten in SharePoint, OneDrive). Dit is tevens het grootste interne risico. Zonder adequaat rechtenbeheer (Role-Based Access Control) en het opschonen van verouderde data, kan Copilot informatie ontsluiten voor gebruikers die daar geen toegang toe zouden moeten hebben (oversharing). (pag. 10, 11, 12)
- Stel een duidelijk gebruiksbeleid op (Governance): Organisaties moeten zelf heldere regels opstellen voor het gebruik van generatieve AI. Hierin moet worden vastgelegd voor welke taken Copilot mag worden ingezet, welk type data (niet) mag worden ingevoerd, en hoe de output moet worden geverifieerd (pag. 10, 11, 12.)
- Verifieer de output en wees bewust van onnauwkeurigheden: Dit is één van de medium risicos. De DPIA toont aan dat Copilot bronnen kan hallucineren of feitelijke onjuistheden kan produceren. Gebruikers moeten getraind worden om de output, met name als het persoonsgegevens bevat, altijd kritisch te beoordelen en te controleren met betrouwbare bronnen (pag. 10, 11, 75 en 80).
- Blokkeer consumentenversies en beheer feedbackstromen: Microsoft faciliteert standaard de toegang tot gratis consumentenversies van Copilot en publieke feedbackfora. Ook hier treedt Microsoft op als controller. Organisaties moeten deze toegangspunten technisch blokkeren om te voorkomen dat bedrijfsdata onbedoeld in een consumentenomgeving terechtkomt (pag. 10, 12 en 117).
Wanneer moet men Microsoft Copilot absoluut niet gebruiken?
Op basis van de risico’s in de DPIA zijn er duidelijke situaties waarin het gebruik van M365 Copilot sterk wordt afgeraden of zelfs onacceptabel is:
- Zonder de aanbevolen privacy-instellingen te implementeren: Het out-of-the-box gebruiken van Copilot, zonder de toegang tot Bing en andere consumentendiensten te blokkeren, is onverantwoord omdat de organisatie dan de controle over haar data verliest aan Microsoft als controller (pag. 10 en 12).
- Voor beslissingen met een hoog risico zonder menselijke tussenkomst: Gezien het medium risico op onjuiste data, is het onacceptabel om Copilot te gebruiken voor beslissingen met grote impact op individuen, zoals het (voor)selecteren van sollicitanten , prestatiebeoordelingen van medewerkers of het stellen van medische diagnoses, zonder een grondige en gedocumenteerde menselijke verificatie (pag. 16 en 58).
- Als de interne datahuishouding (Microsoft Graph) niet op orde is, of een niet weet of deze op orde is: Als een organisatie weet dat de toegangsrechten in SharePoint en OneDrive niet goed zijn ingesteld en er veel verouderde, gevoelige data rondslingert, is het uitrollen van Copilot een recept voor datalekken en onbedoelde openbaringen van vertrouwelijke informatie (pag.13, 42 en 57).
Algemene Privacy-overwegingen voor het gebruik van LLM’s.
Wat te overwegen bij de inzet van LLM’s in een bedrijfsmatige omgeving?
De inzet van LLM’s, zoals Copilot, vereist een strategische aanpak vanuit privacy- en security-oogpunt. Organisaties (Enterprise, Onderwijs, MKB) moeten de volgende zaken overwegen:
- Doelbinding en Noodzakelijkheid (AVG Art. 5 & 6): Waarom wilt u een LLM inzetten? Is de verwerking van (persoons)gegevens noodzakelijk voor een welbepaald, gerechtvaardigd doel? Zonder een duidelijk doel is de inzet per definitie niet rechtmatig.
- Data Governance: Bepaal welke data het LLM mag verwerken. Voorkom dat gevoelige persoonsgegevens, intellectueel eigendom of bedrijfsgeheimen worden ingevoerd in publieke modellen die deze data kunnen gebruiken voor trainingsdoeleinden.
- Keuze van de Leverancier en het Model: Maak een onderscheid tussen publieke consumentendiensten (bv. gratis ChatGPT, Gemini) en zakelijke (API/Enterprise) diensten (bv. M365 Copilot, OpenAI API). Binnen consumentendiensten wordt data vaak gebruikt voor modeltraining. Absoluut ongeschikt voor bedrijfsgegevens. Zakelijke diensten bieden contractuele garanties (een verwerkersovereenkomst) dat uw data niet wordt gebruikt voor training. Een DPIA is hierbij essentieel. Daarnaast is het ook mogelijk en voor sommige typen data zelfs wenselijk om te kiezen voor een privaat gehoste LLM.
- Transparantie: Wees transparant naar medewerkers en klanten over het gebruik van het LLM, de beperkingen (risico op onjuistheden, bias) en welke data wordt verwerkt.
- Rechten van Betrokkenen (AVG Hoofdstuk III): Zorg dat u kunt voldoen aan verzoeken om inzage, rectificatie en verwijdering. Dit kan complex zijn, omdat een LLM-output niet altijd direct herleidbaar is naar een specifieke dataset.
- Accuraatheid en Bias: LLM’s kunnen feitelijk onjuiste informatie genereren (‘hallucineren’) en bestaande vooroordelen (bias) uit hun trainingsdata versterken. Implementeer processen voor menselijke controle en validatie.
- Training en Bewustwording: Train medewerkers in verantwoord gebruik: hoe schrijf je goede prompts, hoe herken je onjuistheden en hoe ga je om met gevoelige informatie. Hiermee wordt meteen voldaan aan AVG Artikel 5, 25 en 32. Daarnaast schrijft de Europese AI verordening voor dat bedrijven hun medewerkers trainen in AI geletterdheid.
De verplichtingen hangen af van de context waarin u AI-tools zoals Copilot inzet. Het is cruciaal om nu al uw AI-toepassingen te inventariseren, het risiconiveau te bepalen, en te investeren in de AI-geletterdheid van uw medewerkers.
Vergelijking van privacywaarborgen: Microsoft vs. Andere Publieke LLM’s.
De belangrijkste scheidslijn loopt tussen consumentendiensten en zakelijke diensten.
Zakelijke waarborgen (Enterprise/API): Sterk, data van klanten (prompts, responses, Graph-data) worden contractueel niet gebruikt voor het trainen van de basismodellen. Dataverwerking vindt plaats binnen de EU Data Boundary (Zie pag. 32, 33 en 146 van het rapport). Hierop zijn uitzonderingen van toepassing. Toegang tot consumentenversies moet zakelijk worden geblokkeerd. Indien gebruikt, gelden consumentenvoorwaarden.
Zakelijke waarborgen (Enterprise/API): Sterk, OpenAI biedt een “zero retention” beleid voor de API en Enterprise-klanten, wat betekent dat data niet wordt opgeslagen of gebruikt voor training. Een verwerkersovereenkomst is beschikbaar. Voor de consumenten versie is deze zwak. Data wordt standaard gebruikt voor het trainen van modellen, tenzij de gebruiker dit via de instellingen uitschakelt.
Google (Gemini / in Workspace)
Zakelijke waarborgen (Enterprise/API): Sterk, Google garandeert in zijn Workspace-voorwaarden dat data van zakelijke klanten niet wordt gebruikt voor het trainen van modellen. Conversaties met de consumentenversie van Gemini kunnen worden geanalyseerd en gebruikt voor productverbetering, tenzij de activiteit wordt gepauzeerd. Deze versie is ongeschikt voor bedrijfsgegevens.
Zakelijke waarborgen (Enterprise/AI): Sterk, voor betaalde diensten via hun platform (“La Plateforme”) en API’s wordt contractueel vastgelegd dat klantdata niet wordt gebruikt voor het trainen van de modellen. Een verwerkersovereenkomst (DPA) is beschikbaar. Voor de gratis chatdienst (“Le Chat”) kunnen conversaties worden gebruikt voor trainingsdoeleinden, hoewel gebruikers een opt-out mogelijkheid hebben. Deze dienst is daardoor niet geschikt voor vertrouwelijke bedrijfsdata.
Conclusie van de vergelijking
Voor zakelijk gebruik bieden de grote spelers (Microsoft, Google, OpenAI en het Europese Mistral AI) in hun betaalde/enterprise-versies vergelijkbare, sterke contractuele waarborgen dat bedrijfsdata niet wordt misbruikt voor het trainen van hun algemene modellen. Dit is een cruciale voorwaarde om aan de AVG te kunnen voldoen.
De consumentenversies van al deze aanbieders zijn fundamenteel ongeschikt voor de verwerking van enige vorm van vertrouwelijke of persoonsgegevens uit een bedrijfscontext, omdat data standaard wordt gebruikt voor productverbetering.
Mistral AI onderscheidt zich door zijn Europese oorsprong en het aanbieden van open-source modellen, wat organisaties de optie geeft tot volledige soevereiniteit door de modellen zelf te hosten. Bij het gebruik van hun commerciële API’s bieden ze echter, net als hun Amerikaanse concurrenten, de noodzakelijke privacygaranties voor zakelijk gebruik.
Wanneer moet men een privaat LLM overwegen?
Een privaat LLM (een (open-source) model dat u host op uw eigen servers of in een ‘eigen’ afgeschermde cloudomgeving) is het overwegen waard in de volgende scenario’s:
- Maximale Controle en Data Soevereiniteit: Wanneer zelfs de verwerking door een vertrouwde externe partij (zoals Microsoft binnen de EU Data Boundary) onacceptabel is. Dit geldt voor staatsgeheimen, zeer concurrentiegevoelig intellectueel eigendom of data onderworpen aan specifieke wetgeving die externe verwerking verbiedt.
- Verwerking van Extreem Gevoelige Data: Bij de structurele verwerking van grote hoeveelheden bijzondere persoonsgegevens (bv. medische dossiers, strafrechtelijke gegevens), waarbij elk risico op een datalek bij een derde partij moet worden uitgesloten.
- Diepgaande Aanpassing (Fine-tuning): Wanneer u het model wilt trainen op uw eigen omvangrijke, vertrouwelijke datasets om een zeer gespecialiseerde AI-assistent te creëren, zonder deze data ooit extern te hoeven delen.
- Voorkomen van Vendor Lock-in: Als u strategisch onafhankelijk wilt blijven van de ecosystemen en prijsmodellen van de grote tech-bedrijven.
Het opzetten en onderhouden van een privaat LLM brengt echter aanzienlijke kosten, complexiteit en de noodzaak voor gespecialiseerde expertise met zich mee. De volledige verantwoordelijkheid voor security, onderhoud en compliance ligt dan bij de eigen organisatie.
Bron en verdiepende informatie
De volledige analyse is te vinden in het door SURF gepubliceerde rapport:
Update DPIA Microsoft Copilot voor onderwijs (11 september 2025, PDF, 217 pagina’s)

