KPMG heeft de tool AI In Control ontwikkeld. Die helpt organisaties bij het controleren van de algoritmen die worden gebruikt bij de inzet van kunstmatige intelligentie.
Met het hulpmiddel wil KPMG een verantwoord en betrouwbaar gebruik van kunstmatige intelligentie in de besluitvorming bij publieke diensten waarborgen. AI In Control bestaat uit een aantal instrumenten die helpen bij het beheren en beschermen van de integriteit, de kwaliteit en de nauwkeurigheid van beslissingen die op basis van AI-technologieën worden gegenereerd.
Algoritmen dicteren het leven
Volgens Sander Klous, partner bij KPMG en internationaal verantwoordelijk voor de dienstverlening op het gebied van AI-Assurance, dicteren algoritmen steeds meer ons leven. “Zij bepalen hoeveel krediet je kunt krijgen, naar welke school iemand gaat, stellen gezondheidsdiagnoses en voorspellen criminele activiteiten. Het toenemende gebruik van kunstmatige intelligentie vereist dat de technologie betrouwbaar is en het gebruik ethisch verantwoord.”
Daarom is er steeds meer behoefte aan het kunnen vertrouwen van de beslissingen die door AI worden gegenereerd en daarmee meer aandacht voor organisaties die deze technologieën ontwikkelen en hun verantwoordelijkheid voor het waarborgen van de kwaliteit.
Amsterdam zet AI In Control in
De gemeente Amsterdam is een van de eerste organisaties die AI In Control gebruiken. Daarvoor is een open-sourcesysteem ontwikkeld waarbij bewoners en bedrijven eenvoudig online meldingen kunnen indienen, bijvoorbeeld over afval op straat. Zodra het verzoek is ingediend, identificeert een (zelflerend) algoritme het soort melding en adviseert welke afdeling het verzoek afhandelt. Op termijn zal ook de prioriteit van de aanvraag volledig automatisch worden bepaald. Amsterdam heeft samen met Barcelona en New York de ‘Cities Coalition for Digital Rights’ opgericht. Die samenwerking is erop gericht om de digitale rechten van alle inwoners te beschermen.
Ethiek en verantwoording
AI In Control is ontwikkeld in samenwerking met wiskundige Cathy O’Neil, die onlangs nog waarschuwde voor de gevaren van algoritmen. “De samenwerking stelt ons in staat om ons te concentreren op de ethiek en verantwoording rond het gebruik van algoritmen en het beoordelingsproces te combineren met de ervaring die KPMG heeft op het gebied van governance en assurance. In het huidige AI-landschap is er een dringende behoefte om vooringenomenheid, rechtvaardigheid en verantwoordelijkheid te beheren. Dit soort samenwerking stelt ons in staat in deze behoefte te voorzien”, aldus O’Neil.
Geef een reactie