Deze chatbots, zoals ChatGPT en Copilot, worden vaak gebruikt voor het beantwoorden van klantvragen of het samenvatten van grote bestanden. Hoewel dit tijd kan besparen, brengt het ook aanzienlijke risico’s met zich mee, waarschuwt de privacytoezichthouder.
Volgens de AP leidt het invoeren van persoonlijke gegevens in AI-chatbots ertoe dat de bedrijven achter deze chatbots ongeoorloofde toegang tot deze gegevens kunnen krijgen. In veel gevallen gebruiken medewerkers deze chatbots op eigen initiatief en in strijd met de afspraken met hun werkgever, wat resulteert in datalekken. Soms maakt het gebruik van AI-chatbots deel uit van het beleid van organisaties, wat vaak niet wettelijk toegestaan is.
De meeste bedrijven die AI-chatbots aanbieden slaan alle ingevoerde gegevens op. Hierdoor belanden deze gegevens op de servers van technologiebedrijven, vaak zonder medeweten van de persoon die de gegevens invoerde en zonder dat duidelijk is wat er met die gegevens gebeurt. Dit betekent ook dat de betrokkenen zelf niet op de hoogte zijn.
Datalekken
Een van de gemelde datalekken betrof een medewerker van een huisartsenpraktijk die medische gegevens van patiënten invoerde in een AI-chatbot, wat een grote schending van privacy is. Een ander geval betrof een telecombedrijf waar een medewerker klantadressen invoerde, meldt de toezichthouder.
De AP wijst er op dat het cruciaal is dat organisaties duidelijke afspraken maken over het gebruik van AI-chatbots en aangeven welke gegevens wel en niet mogen worden ingevoerd. Bij datalekken is het vaak verplicht om de AP en de betrokkenen te informeren.
Geef een reactie