Begin augustus bleek dat één eenvoudige site:chat.openai.com/share
-zoekopdracht genoeg was om duizenden gedeelde ChatGPT-gesprekken in Google tevoorschijn te halen. In die chats stonden cv’s, interne product-roadmaps, financiële cijfers, emotionele onthullingen en zelfs medische gegevens. OpenAI haalde de optie “Make this chat discoverable” onmiddellijk offline en werkt nog steeds met Google aan de-indexering.
Deel-link met verborgen valkuil
Bij het delen van een chat kreeg je een publieke URL en een optionele schakelaar “discoverable by search”. Wie dat vinkje actief liet, gaf Google’s crawler vrij spel.
Onbegrip over de bereik
Veel gebruikers dachten te delen met een kleine groep. Pas toen journalisten en security-onderzoekers de massale lekken blootlegden, drong de omvang door.
OpenAI heeft de discoverability-functie verwijderd en plaats een noindex
-tag op alle nieuwe deel-links. Toch blijven caches, archieven en Wayback-kopieën nog weken zichtbaar.
Het verwijderen van een gesprek uit je ChatGPT-geschiedenis wist de gedeelde URL ook niet automatisch.
Dit is helaas niet het geval. De lek in gedeelde gespreken zijn niet het enige probleem.
Door een lopende auteursrechtzaak met The New York Times moet OpenAI alle consumenten-chats (ook verwijderde) tijdelijk bewaren onder “legal hold”. Enterprise-, EDU- en Zero-Data-Retention-klanten zijn uitgezonderd, maar voor standaardgebruikers betekent dit dat gesprekken langer dan de beloofde 30 dagen op Amerikaanse servers blijven staan. Dit geldt ook voor niet gedeelde gesprekken.
Daarmee stapelen de privacyrisico’s zich op: overheden kunnen de gegevens opeisen, inlichtingendiensten en techbedrijven kunnen ze inzetten voor grootschalige surveillance, en de data valt buiten de beschermende kaders van de Europese wetgeving.
Volledige datacontrole. Elk prompt en antwoord blijft op je eigen hardware of in een dedicated EU-cloudomgeving. Er is geen enkele externe partij die de ruwe content kan inzien.
Compliance uit de doos. Door data lokaal te houden voldoe je moeiteloos aan GDPR-eisen rond datalokalisatie en bewaartermijnen.
Retentie op maat. Jij bepaalt hoe lang logs bewaard blijven, realtime purging of versleutelde back-ups zijn met eenn policy in te stellen.
Geen CLOUD-Act-risico. Omdat de server zich buiten de VS bevindt, kunnen Amerikaanse subpoenas je data niet bereiken.
Veilige finetuning. Je kunt het model trainen op proprietary datasets zonder angst dat gevoelige informatie in een publiek model opduikt.
Enterprise biedt kortere retentie en contractuele bescherming, maar data blijft in de VS gehost.
Typ in Google site:chat.openai.com/share "bedrijfsnaam"
(of een uniek project- of productkeyword). Herhaal dit met varianten zoals afkortingen. Vind je een link, open hem om te controleren welke informatie zichtbaar is en dien vervolgens direct een verwijderverzoek in via Google’s Removal Tool.
Vergeet ook niet caches en archieven (bijv. Wayback Machine) kort na te lopen op dezelfde trefwoorden.
Wil je sparren over wat wij voor jouw bedrijf kunnen betekenen? Kom langs voor een kop koffie of plan een Teams-afspraak met onze chief nerd Joost. We helpen je graag te voorkomen dat jouw volgende brainstorm in de zoekresultaten belandt.