AI data en privacy

Duizenden ChatGPT-gesprekken vindbaar in Google: zo voorkom je een AI-datalek

Begin augustus bleek dat één eenvoudige site:chat.openai.com/share-zoekopdracht genoeg was om duizenden gedeelde ChatGPT-gesprekken in Google tevoorschijn te halen. In die chats stonden cv’s, interne product-roadmaps, financiële cijfers, emotionele onthullingen en zelfs medische gegevens. OpenAI haalde de optie “Make this chat discoverable” onmiddellijk offline en werkt nog steeds met Google aan de-indexering.

Plan een adviesgesprek over AI-privacy

Hoe kon dit gebeuren?

  • Deel-link met verborgen valkuil
    Bij het delen van een chat kreeg je een publieke URL en een optionele schakelaar “discoverable by search”. Wie dat vinkje actief liet, gaf Google’s crawler vrij spel.

  • Onbegrip over de bereik
    Veel gebruikers dachten te delen met een kleine groep. Pas toen journalisten en security-onderzoekers de massale lekken blootlegden, drong de omvang door.

Het risico voor bedrijven

  • Gevoelige bedrijfsinformatie in openbare zoekresultaten. Interne bedrijfsgegevens kunnen mogelijk ingezien worden.
  • Overtreding van de GDPR. Publiek toegankelijke chats met persoonsgegevens gelden als datalek en kunnen hoge boetes opleveren.
  • Reputatieschade en vertrouwenverlies. Klanten en partners twijfelen aan je beveiliging zodra jouw merknaam naast gelekte gesprekken verschijnt.
  • Verhoogde phishing- en social-engineeringkansen. Aanvallers gebruiken vrijgekomen details om geloofwaardige fraude-mails of telefoontjes op te zetten.
  • Verlies van octrooibescherming. Ideeën die al online staan kunnen ‘nieuwheidswaarde’ verliezen en dus moeilijker te patenteren zijn.
Genoemd worden in ChatGPT

Waar staan we nu?

OpenAI heeft de discoverability-functie verwijderd en plaats een noindex-tag op alle nieuwe deel-links. Toch blijven caches, archieven en Wayback-kopieën nog weken zichtbaar.

Het verwijderen van een gesprek uit je ChatGPT-geschiedenis wist de gedeelde URL ook niet automatisch.

Belangrijke vervolgstappen voor deze lek

  1. Controleer je privacy-instellingen
    • Open ChatGPT → Intstellingen → Gegevensbeheer.
    • Zorg dat ‘Het model verbeteren voor iedereen’ uit staat. Staat hij nog aan? Zet hem dan uit.
  2. Verwijder gedeelde links
    • Ga naar ‘Gedeelde links’.
    • Verwijder alle gedeelde gesprekken waar gevoelige data in staat.
Plan een gratis adviesgesprek

Zijn alle privacy problemen nu opgelost?

Dit is helaas niet het geval. De lek in gedeelde gespreken zijn niet het enige probleem.

Door een lopende auteursrechtzaak met The New York Times moet OpenAI alle consumenten-chats (ook verwijderde) tijdelijk bewaren onder “legal hold”. Enterprise-, EDU- en Zero-Data-Retention-klanten zijn uitgezonderd, maar voor standaardgebruikers betekent dit dat gesprekken langer dan de beloofde 30 dagen op Amerikaanse servers blijven staan. Dit geldt ook voor niet gedeelde gesprekken.

Daarmee stapelen de privacy­risico’s zich op: overheden kunnen de gegevens opeisen, inlichtingendiensten en techbedrijven kunnen ze inzetten voor grootschalige surveillance, en de data valt buiten de beschermende kaders van de Europese wetgeving.

Datacenter

Wat kun je vandaag nog doen?

  • Audit je zichtbaarheid. Zoek op bedrijfs- en projectnamen binnen de ChatGPT-share-domeinen en vraag verwijdering aan via Google’s Removal-tool.
  • Update je AI-beleid. Update je instellingen in ChatGPT.
  • Ga over op een private AI Server. Zo blijven alle gegevens strikt binnen je eigen, afgeschermde infrastructuur en worden nooit publiek opgeslagen.
  • Train medewerkers. Leg uit hoe snel een onschuldig linkje een wereldwijde publicatie wordt.

Waarom een private-AI server de beste volgende stap is

  • Volledige datacontrole. Elk prompt en antwoord blijft op je eigen hardware of in een dedicated EU-cloudomgeving. Er is geen enkele externe partij die de ruwe content kan inzien.

  • Compliance uit de doos. Door data lokaal te houden voldoe je moeiteloos aan GDPR-eisen rond datalokalisatie en bewaartermijnen.

  • Retentie op maat. Jij bepaalt hoe lang logs bewaard blijven, realtime purging of versleutelde back-ups zijn met eenn policy in te stellen.

  • Geen CLOUD-Act-risico. Omdat de server zich buiten de VS bevindt, kunnen Amerikaanse subpoenas je data niet bereiken.

  • Veilige finetuning. Je kunt het model trainen op proprietary datasets zonder angst dat gevoelige informatie in een publiek model opduikt.

Digitale weerbaarheid

Veelgestelde vragen

Is ChatGPT Enterprise wel veilig?

Enterprise biedt kortere retentie en contractuele bescherming, maar data blijft in de VS gehost.

Waar kan ik controleren of mijn eigen of bedrijfschats nog steeds online vindbaar zijn?

Typ in Google site:chat.openai.com/share "bedrijfsnaam" (of een uniek project- of productkeyword). Herhaal dit met varianten zoals afkortingen. Vind je een link, open hem om te controleren welke informatie zichtbaar is en dien vervolgens direct een verwijderverzoek in via Google’s Removal Tool.

Vergeet ook niet caches en archieven (bijv. Wayback Machine) kort na te lopen op dezelfde trefwoorden.

Even sparren?

Wil je sparren over wat wij voor jouw bedrijf kunnen betekenen? Kom langs voor een kop koffie of plan een Teams-afspraak met onze chief nerd Joost. We helpen je graag te voorkomen dat jouw volgende brainstorm in de zoekresultaten belandt.