Bespaar tijd en geld met goede data

Een aantal jaren geleden las ik een artikel in de Harvard Business Review dat begint met een verschijnsel dat ik vaak in de praktijk tegen kom. Namelijk dat gegevens voor gebruik door de betreffende afdeling worden geverifieerd en gecorrigeerd maar niet aangepast in het bronsysteem waarmee gewerkt wordt.

Door: Lotte van Lith

 

Zoals blijkt uit bovengenoemd artikel en ook uit latere onderzoeken is dat werknemers de helft van hun tijd kwijt zijn met het zoeken naar data, het verifiëren van de data en het herstellen van data.
Onderliggende oorzaken zijn processen die niet (duidelijk) zijn vastgelegd, verantwoordelijkheden die niet duidelijk zijn en onvoldoende kennis welke data van belang is voor processen later in de keten.

Een voorbeeld van datakwaliteit.

Een mooie test om te kijken hoe het met de datakwaliteit is gesteld is om 10 tot 15 essentiële velden te benoemen en dan te kijken bij de laatste 100 aangemaakte records. Bijvoorbeeld producten.
In die 100 records geef je aan welke duidelijke fouten er in zitten. Bijvoorbeeld lege velden, maten die duidelijk zijn omgedraaid, tikfouten in emailadressen, etcetera.
Tel dan alle records waar geen fouten in zitten en je hebt je percentage van records die correct worden gecreëerd. Wees streng voor je zelf, dus geen records goed rekenen om toch maar hoger te scoren!

Wat is een acceptabele foutmarge?

Mijn mening is dat minimaal 95% van de records correct moeten zijn gecreëerd.
Afhankelijk van de bedrijfstak kan dit percentage hoger liggen (denk aan bijvoorbeeld de zorg).
Dit percentage weerspiegelt het extra werk dat verzet moet worden om die fouten te corrigeren. Afhankelijk van waar in de keten de fouten ontdekt worden zijn er meer of minder afdelingen/personen (extra) tijd aan kwijt en is de kans op verkeerde beslissingen, het risico op boze klanten en extra kosten groter.

We hebben nu het aantal. Maar wat zijn de kosten van een incorrect gecreëerd record?
Sommigen houden aan 10x zo veel in verband met extra werk, anderen rekenen het om in tijd met standaard kosten van € 100,- per uur. Om het eenvoudig te houden kies ik hier voor de eerste optie:
Ieder correct gecreëerd record kost, laten we zeggen, € 1,-. Als alle 100 records correct zijn gecreëerd is dat €100,-. Een verkeerd record kost 10x zo veel, dus €10,-.
Stel dat 89 records correct zijn, dan zijn komen de kosten op (89 x €1,- + 11 x € 10,- =) € 199,-.
In die berekening is alleen het extra werk meegenomen. Nog niet de kosten van het verlies van klanten, slechte beslissingen of reputatieschade van het bedrijf.

Bovenstaand voorbeeld maakt duidelijk dat goede, correcte data kosten bespaard. Maar hoe verbeter je de datakwaliteit?
Allereerst, zorg dat duidelijk is wat de processen zijn, wie verantwoordelijk is voor welke handelingen, welke data cruciaal is en welke nice-to-have.
Communicatie is hierbij de belangrijkste factor, niet de technologie.
Technologie ondersteunt en zegt op zichzelf niets over de datakwaliteit.

Vaststellen van de verantwoordelijkheden

Met het vaststellen van de verantwoordelijkheden is een vaak ondergeschoven factor de verantwoordelijkheid voor de datakwaliteit.
Er zijn drie mogelijkheden:
-een gecentraliseerd stelsel met een master data persoon/afdeling die vanuit die centrale positie de processen bewaakt en een centraal punt van invoer vormt;
-een gedecentraliseerd stelsel waarbij de afdelingshoofden of vestigingen zelf verantwoordelijk zijn voor de datakwaliteit;
-een mix van de bovenste twee waarbij een centrale afdeling de processen bewaakt en standaarden uitzet en de uitvoering daarvan gedelegeerd wordt aan afdelingen/vestigingen.

Met het kiezen van een centraal stelsel of een mix van een centraal en decentraal stelsel, is het raadzaam om rekening te houden wie de belanghebbenden/eigenaren zijn bij het proces en goede datakwaliteit.
Door de verantwoordelijkheid te leggen bij de afdeling(en) waar de data gecreëerd en gebruikt wordt, is er een direct belang. De ICT-afdeling kan de verantwoordelijke(n) ondersteunen om gebrek aan kwaliteit inzichtelijk te maken.

Met het vaststellen van de processen en de verantwoordelijkheden wordt de invoer van incorrecte of onvolledige data voorkomen. De volgende stap is het opschonen van de ‘oude’ data en het verder optimaliseren van de afgesproken procedures en datakwaliteit.

Dit is nooit ‘af’, maar een ongoing proces dat leidt tot een professionalisering van de organisatie. Nu er op dit moment veel aandacht uitgaat naar de AVG is dit ook een uitgelezen moment om te starten met het verbeteren van de datakwaliteit.

Wil u hier mee starten? Neem dan contact op met DBHeroes om de mogelijkheden te bespreken.