
De toepassing van kunstmatige intelligentie (AI) stelt AFM en DNB voor uitdagingen, zo laten beide toezichthouders weten. Ze hebben een rapport gepubliceerd met uitgangs- en aandachtspunten voor het vormgeven van het toezicht op AI en willen daarover de dialoog aangaan met de sector.
Nederlandse financiële instellingen zijn inmiddels aan het experimenteren met meer geavanceerde AI-modellen, wat doet vermoeden dat het gebruik ervan in de komende jaren verder toeneemt, aldus beide toezichthouders. ‘AI wordt bijvoorbeeld ingezet voor fraudepreventie en -detectie, het tegengaan van witwassen en terrorismefinanciering en cybercriminaliteit, kredietbeoordelingen en identiteitsverificatie. Ook helpt AI medewerkers om efficiënter te werken.’ Wel is er nog terughoudendheid met het gebruik van generatieve AI. ‘Sommige zetten het langzaamaan in voor ondersteunende processen.’
Meer kennis nodig
DNB en AFM zien in het gebruik van AI risico’s op het gebied van datakwaliteit, gegevensbescherming, uitlegbaarheid, incorrecte resultaten, discriminatie en uitsluiting en een hogere mate van afhankelijkheid van enkele grote partijen. ‘Deze risico’s kunnen een impact hebben op financiële instellingen en hun klanten en bevinden zich daarmee ook in het toezichtdomein van de AFM en DNB.’
Van financiële instellingen mag verwacht worden dat zij AI verantwoord inzetten en bestaande regelgeving geldt ook voor AI-toepassingen. De toezichthouders moeten hun kennis op dat terrein wel uitbreiden en sommige toezichtmethoden en procedures nieuw moeten ontwikkelen of aanpassen. ‘De introductie van de AI-Verordening zal van financiële instellingen die AI toepassen extra aandacht vergen voor een goede bescherming van grondrechten. Voor zover AI wordt ingezet voor financiële dienstverlening, is uitgangspunt van de AI-Verordening dat bestaande financieel toezichthouders ook het toezicht op de regels van de verordening op zich nemen. In Nederland zijn dat de AFM en DNB.’
Risico’s vooral in krediet- en verzekeringshoek
Met name banken en verzekeraars staan in het vizier: de Europese AI-verordening wijst AI-systemen die gebruikt worden voor kredietwaardigheidstoetsen van natuurlijke personen en voor premiebepaling en risicobeoordeling voor levens- en ziektekostenverzekeringen aan als hoog risico. ‘Dit betekent dat nadere vereisten zullen gelden voor de ontwikkeling en het beheerst en verantwoord gebruik van deze AI-toepassingen. De vereisten sluiten grotendeels aan op bestaande regels voor risicobeheer en governance.’
Uitsluiting en uitlegbaarheid
Risico’s van het gebruik van AI zitten verder onder meer in het gebruik van historische data, waardoor bestaande ongelijkheden in een AI-model worden overgenomen. Dat kan ertoe leiden dat bepaalde sollicitanten in een geautomatiseerd selectieproces worden uitgesloten. Als AI als ‘black box’ wordt gebruikt, kunnen instellingen daarnaast problemen krijgen om uit te leggen waarom bepaalde beslissingen zijn genomen. ‘Een AI-model bestaat vaak uit een netwerk van meerdere lagen die aan elkaar verbonden zijn en bevat soms wel honderden kenmerken die bijdragen aan het leveren van een resultaat. Het is daardoor niet altijd mogelijk om resultaten van AI-modellen te herleiden tot één kenmerk waarmee aan een klant uitgelegd kan worden waarom een bepaalde beslissing is genomen.’ Het niet inzetten van AI kan overigens ook een risico zijn: ‘Door het innovatiepotentieel van AI niet te benutten kunnen instellingen inboeten aan concurrentievermogen.’
Geef een reactie