Steggelen over RGS is niet moeilijk. Maar er zijn inmiddels voldoende toepassingsmogelijkheden waarmee gebruikers nu al echt enorme sprongen kunnen maken. Denk aan nu beschikbare toepassingen voor dashboarding en data-analyse. Deze zijn nog niet collectief omarmd, maar liggen wel binnen handbereik.
Een leuk kinderraadsel waar nog steeds geen antwoord op is: de eeuwenoude vraag wat er het eerst was, de kip of het ei. Diezelfde vraag zou nu kunnen worden gesteld in de Accountancy, wat zal er eerst zijn, succesvolle adoptie van RGS (waar Gerard Bottemanne deze week over rapporteerde) of data-analyse?
Data-analyse als impuls voor normalisatie
Data-analyse draagt bij aan de kwaliteit en effectiviteit van interne en externe beheersing. Door daar eerst mee te beginnen wordt de toegevoegde waarde van genormaliseerde gegevens duidelijk. Daardoor komen mensen vanzelf in beweging om gegevens te normaliseren. De praktijk wijst uit dat er succesvolle voorbeelden zijn, maar dat vraagt doorgaans een sterke focus en geduld. Het verkrijgen van data blijkt toch vaak iets bewerkelijker dan verwacht. De definitie van een audit file zou hier een aanknopingspunt voor een oplossing kunnen bieden. Moeilijker nog is het ontwerpen van analyses waarvan leiding en toezichthouders accepteren dat zij bestaande samenstel- of controlewerkzaamheden vervangen. Dat komt aan op de bereidheid stokpaardjes die soms als sinds het begin van de carrière zijn gekoesterd, de vrije loop te laten. Een belangrijk initiatief op dat gebied is de Analytics Library.
RGS verlaagt drempel toepassen data-analyse
Anderen zien het startpunt in normalisatie. Door RGS in te voeren, wordt de drempel om data-analyse toe te gaan passen verlaagd. Dan komt het proces van verandering van het beroep vanzelf op gang. Door een goede identificatie van gegevens kunnen financiële rapportages en aangiftes in een vloeiende stroom worden verzorgd en kan data-analyse met een beperkte investering worden ingezet.
In de praktijk blijkt echter dat het de kip, het ei én de stal tegelijk moeten zijn voor een succesvolle verandering. De inhoud van de in de praktijk uit te voeren werkzaamheden kan daarbij het aanknopingspunt zijn. Onderwerp voor onderwerp zouden de volgende stappen moeten worden doorlopen:
- Wat wil je analyseren
Identificatie van de door middel van data-analyse uit te voeren werkstappen op basis van tijdsinvestering en toegevoegde waarde. Het zou misschien verwacht worden dat arbeidsintensieve onderwerpen als eerste moeten worden aangepakt, maar dat hoeft niet. Complexe analyses zijn soms moeilijker te doorgronden. Ze leiden daardoor mogelijk tot meer koud water vrees. Het is net zo zinvol om te beginnen met ‘kleine en simpele klusjes’. Die leiden namelijk ook af. Al is het een klein klusje ‘administratie openen -> tonen overzicht -> exporteren -> Kopieer en plak formule’, het kost toch zomaar 10 minuten inclusief documentatie, archiveren van de berekening en opstarten van de volgende taak. Op een samenstelportefeuille van 2.000 administraties zijn dat 9 werkweken waarvoor momenteel geen personeel te vinden is. Tijdens deze identificatie van onderwerpen kan overigens ook al blijken dat bepaalde complexere onderwerpen (nog) niet door middel van de audit file kunnen worden ingevuld. Zo ontbreken bijvoorbeeld de gegevens om een analyse van de omzet naar artikel te doen, of de gegevens om via de directe methode de operationele kasstroom te kunnen bepalen.
- Bouwen van de analyse
Momenteel deelt men via de Analytics Library de inhoud van verschillende soorten analyses die zijn bedacht. Dat stelt gebruikers in staat daarmee zelf aan de gang te gaan. Het in alle openheid delen van die inhoud is zeer waardevol, maar ik verwacht niet dat men daarmee in grote getalen aan de gang gaan. Een autodealer onderhoudt ook niet zelf op basis van open source code zijn diagnosesysteem. Ondertussen zijn er partijen genoeg, zoals Analys.io, Easy2Analyse, Invantive, The Audit File Factory en Continuous Auditor, die analyses, die worden ontworpen door inhoudelijk deskundigen, kunnen automatiseren. Laat een accountant zijn werk doen in het interpreteren en opvolgen van de uitkomsten.
- Testen en fijnslijpen van analyses
Dit betekent het draaien van een analyse op een grote hoeveelheid administraties om te kijken wat eruit komt. Dit proces heeft mij er al van overtuigd dat de kip én het ei er tegelijkertijd moeten komen. Soms brengt het testen van analyses hiaten in RGS aan het licht. Uit een analyse van rente op rekeningen courant met verbonden maatschappijen bleek bijvoorbeeld een asymmetrie tussen vorderingen en de rentebaten. Maar misbruik van RGS komt ook regelmatig voor. Zo leken wij te constateren dat er in een portefeuille sprake was van een cliënt met een enorme post goodwill zonder enige vorm van afschrijving. Bij nader onderzoek bleek dat men een pand op grootboekrekening 0100 (goodwill) had gezet. De omschrijving van die rekening was wel aangepast naar een pand, maar grootboekrekening 0100 stond in het standaard mapping schema gekoppeld aan BIvaGooVvp. Hier brengt het uitvoeren van een data-analyse het onjuist mappen naar RGS aan het licht. De lijst met voorbeelden op dit gebied is zo lang, dat het mij heeft overtuigd dat in ieder geval niet de kip óf het ei eerder zal zijn. Data-analyse en normaliseren door middel van RGS versterken elkaar en hebben elkaar nodig. Maar die twee zullen samen niet genoeg zijn. Het brengt me bij de laatste stap.
- Valideren van de analyse
Dit is niet de kip of het ei, maar het nest. Het is het antwoord op de vraag: ‘Stel dat deze analyse is uitgevoerd, wat hebben we daar dan aan?’. Het betekent het zoeken van een balans tussen het blind vertrouwen op een groen resultaat uit een computer om daadwerkelijk werkzaamheden achterwege te laten en het dunnetjes moeten overdoen van analyses om op de computer te mogen vertrouwen. Daarvoor is het mogelijk noodzakelijk dat in samenspraak met NBA en/of de Belastingdienst wordt afgestemd welke toegevoegde waarde een analyse heeft en welke randvoorwaarden moeten worden ingevuld om van de uitkomsten gebruik te mogen maken. Als er na succesvol invoeren van het RGS zinvolle data-analyses worden uitgevoerd, en daarover ontstaat discussie met leidinggevenden of toetsers, dan kan die onzekerheid de voortgang van dit proces vertragen.
Dit proces van inhoudelijk opbouwen en verfijnen van Analytics Library, definitie van Audit File en indeling van Referentie Grootboek Schema gaat zich hoe dan ook voltrekken. Een mogelijkheid is door een gestructureerde discussie tussen marktpartijen in de overlegstructuren die daar nu voor bestaan. Maar het kan ook zijn dat bepaalde partijen daarin het voortouw nemen en met een succesvolle toepassing de wal het schip laten keren.
Maar dat die toekomst onvermijdelijk is, snapt iedereen die heeft aanschouwd hoe in 5 minuten de kwartaalcontrole voor de BTW op 500 administraties integraal en in detail wordt uitgevoerd.
Tom Koning is werkzaam bij Cygnus Atratus, contentleverancier en adviesbureau op het gebied van kwaliteitsbeheersing bij accountantsorganisaties.
Geef een reactie