Datacapturing en data-analyse

Datacapturing en data-analyse
Succesvolle toepassing van data-analyse is afhankelijk van een gestructureerde aanpak en methodiek. In dit artikel bieden we een structuur bestaande uit zeven stappen en drie faseringen, en drie voorbeelden van succesvolle data-analyse.
Arjen Korterink en Frank Zandhuis
De toenemende globalisering vraagt om efficiënter, sneller en flexibeler inspringen op vragen uit de markt. Dit gaat veelal gepaard met een toenemende automatisering, waardoor er steeds meer opslag plaatsvindt van data door verschillende systemen en processen binnen een onderneming. Deze data zijn doorgaans opgeslagen in de database van bronsystemen of in een datawarehouse. Van ondernemingen wordt verlangd dat zij sneller reageren en handelen. Hierdoor hebben ondernemingen steeds sneller juiste en accurate informatie nodig om beslissingen te nemen. Als deze informatie al beschikbaar is, is het vaak niet in de gewenste vorm. Door technische ontwikkelingen op IT-gebied is de toepassing van data-analyse en agile datawarehousing voor vrijwel elke onderneming binnen handbereik. Dit vraagt om een herevaluatie van de wijze waarop waarde en informatie op dit moment worden onttrokken uit beschikbare data.
Datawarehouses
In het verleden bleven data in de bronsystemen opgeslagen om vervolgens door medewerkers gebruikt te worden tijdens dagelijkse werkzaamheden. Er ontstond door de jaren heen een toenemende vraag naar rapportages en informatie uit deze systemen om betere beslissingen te kunnen nemen. Het bleef niet bij rapportages uit individuele bronsystemen, maar juist het samenvoegen van data en informatie uit verschillende systemen kon waarde toevoegen, iets wat daarvóór vrijwel onmogelijk was. Het combineren van rapportages en informatie is echter erg arbeidsintensief en heeft doorgaans een lange doorlooptijd. Door een combinatie van toenemende datavolumes, complexe vraagstukken, snelle reflexen en technologische ontwikkelingen ontstonden zogenoemde datawarehouses. Hierin werden de data uit bronsystemen verwerkt, gecombineerd en opgeslagen voor latere analyse. Opgeslagen data worden vervolgens vanuit datawarehouses gebruikt voor onder andere het genereren van (periodieke) rapportages.
Een andere ontwikkeling is die van het ‘agile’ concept in de softwareontwikkeling. Hierbij is sprake van een nauwe samenwerking tussen
business en IT. Dit proces wordt gekenmerkt door een korte doorlooptijd bij het ontwikkelen waarbij een iteratief proces van feedback/ afstemming en ontwikkeling wordt gevolgd. Als het ‘agile’ concept wordt toegepast op datawarehousing is het belangrijk om meerdere partijen (IT en business) vroegtijdig te betrekken. Open en directe communicatie en een nauwe samenwerking zijn hierbij heel belangrijk. Je begint in een vroeg stadium met het ontwikkelen van een (eind)product, terwijl nog niet alle specificaties bekend zijn. Daarom is het belangrijk een aantal basisvoorwaarden helder te definiëren voor je begint. Naast deze basisvoorwaarden kunnen genoeg opties opengelaten worden om later met voortschrijdend inzicht beter geïnformeerde beslissingen te nemen.
Voordelen data-analyse
In het verleden werd IT als ondergeschikt beschouwd in ondernemingen. Een IT-afdeling was vaak te vinden in een uithoek van het bedrijfsgebouw. De IT-afdeling was ondersteunend voor het primaire bedrijfsproces, maar maakte er zelf geen deel van uit. Tegenwoordig is de rol van IT veranderd. Ondernemingen zien in dat het juist integreren van een IT-afdeling met de business nieuwe mogelijkheden biedt, onder andere op het gebied van datacapturing en -analyse in aansluiting op een steeds meer toenemende informatiebehoefte. IT maakt door deze ontwikkelingen meer en meer deel uit van het primaire proces. Een juiste wisselwerking tussen IT en business, de zogenoemde alignment, waarbij de wensen van de business voorop staan, kunnen het onderscheidend vermogen betekenen van een onderneming.
Kenmerkend voor Nederland is een diversiteit aan financiële applicaties binnen het bedrijfsleven. Terwijl in het buitenland vooral gebruik wordt gemaakt van grotere applicaties zoals SAP en Oracle, zijn er in Nederland naast SAP en Oracle diverse andere en vaak kleinere applicaties van verschillende softwareleveranciers. Wij zien dat ondernemingen die actief zijn in eenzelfde sector vaak dezelfde applicaties gebruiken. Juist in situaties waarin concurrenten gebruik maken van dezelfde applicaties is het essentieel om applicaties goed en efficiënt in te richten om concurrerend te blijven. Volgens ons hoort hier het optimaal gebruik maken van de beschikbare data in de database(s) of het datawarehouse bij. Veel ondernemingen beseffen niet hoeveel waardevolle data er zijn opgeslagen in de databases die ten grondslag liggen aan hun (financiële) applicaties. Door hier kennis over te verkrijgen en met deze data slim aan de slag te gaan, kan een onderneming het verschil maken met zijn concurrenten. Data op een juiste wijze onttrekken uit de database in combinatie met goed doordachte data-analyse zorgt doorgaans voor betere en meer gedetailleerde informatie dan de beschikbare standaardrapportages. Door data-analyse op een juiste wijze in te zetten is het mogelijk om met dezelfde applicaties als de concurrenten sneller te reageren op veranderende interne of externe informatiebehoeften.
Een concreet voorbeeld is een grote handelsorganisatie in Nederland met meerdere vestigingen waarvan de systemen niet in staat bleken om specifieke informatie te verstekken omtrent de ouderdom van voorraden in relatie tot inkopen en verkopen van deze voorraden. Uit specifiek uitgevoerde data-analyse bleek dat nog steeds goederen werden ingekocht die al jaren op voorraad lagen terwijl er afgelopen jaar niets van deze goederen was verkocht. Op basis van deze informatie scherpte de handelsorganisatie haar procedures aan en bespaart ze jaarlijks enkele honderdduizenden euro’s door inkopen beter af te stemmen op verkopen en bestaande voorraadposities.
Een ander voorbeeld heeft betrekking op data-analyse rond btw. Een multinational verscheept goederen over de hele wereld, waarbij de btw/taxregelgeving van land tot land behoorlijk kan verschillen. Na via slimme data-analyse goederenstromen te hebben gekoppeld aan gps-data concludeerde het bedrijf dat het voor een aantal goederenstromen beter was om goederen te verschepen naar naastgelegen landen in verband met het belastingklimaat. Zo kon deze multinational miljoenen euro’s per jaar besparen. Naast sneller kunnen reageren op veranderende interne of exerne informatiebehoeften biedt data-analyse nog een aantal voordelen. Denk aan:
• Meer relevantie van informatievoorziening aan stakeholders;
• Beter inzicht in risico’s binnen processen;
• Vervangen van tijdrovende handmatige controles;
• Efficiëntie aanbrengen in werkzaamheden waardoor tijd en geld bespaard wordt.
Aandachtspunten en randvoorwaarden
Een dashboard dat ‘real time’ inzicht geeft in informatie die aansluit op uw informatiebehoefte: dat zal veel ondernemingen aanspreken. Real time betekent immers dat je direct kunt reageren en bijsturen waar nodig. Het blijkt in de praktijk niet altijd even eenvoudig om te komen tot een goede vorm van datacapturing en data-analyse die is afgestemd op de informatiebehoefte. De belangrijkste aandachtspunten hebben we weergegeven in figuur 1 .
Figuur 1. Belangrijkste aandachtspunten om te komen tot goede datacapturing en data-analyse die zijn afgestemd op de informatiebehoefte

Wij zijn van mening dat de aandachtspunten in figuur 1 geen gebrek aan kennis impliceren. Ze vragen ons inziens om een structuur die als leidraad dient binnen het proces, zonder dwingend te zijn.
Gestructureerde aanpak
Omdat ‘agile’ een korte doorlooptijd impliceert, is een te volgen structuur niet dwingend. Het is slechts een hulpmiddel dat ondernemingen in staat stelt snel te schakelen. Het kan echter voorkomen dat in bepaalde omstandigheden afgeweken wordt van de vooraf beoogde aanpak en structuur.
Voordat we ingaan op de structuur, is het belangrijk dat de juiste werknemers binnen een onderneming bij elkaar worden gebracht om de informatiebehoefte te analyseren, om te zetten naar een technische datascope en om vervolgens de data te analyseren. Het is van belang dat medewerkers uit de business samen optrekken met medewerkers van een IT-afdeling die enerzijds toegang hebben tot de database en anderzijds in staat zijn om een technische datascope te bepalen op basis van de informatiebehoefte. Als de juiste medewerkers vanuit de business en vanuit IT bij elkaar zijn gebracht, is het om snel te kunnen schakelen belangrijk enige structuur te hanteren. De structuur die wij hanteren en waar wij goede ervaringen mee hebben is onder te verdelen in zeven stappen (zie figuur 2) :
Figuur 2. Gestructureerde aanpak die het mogelijk maakt om snel te schakelen
 
1) Planning en helder definiëren van de informatiebehoefte;
2) Op basis van de informatiebehoefte een data-scope bepalen en een datarequest opstellen;
3) Datacapturing op basis van de datascope;
4) Datavalidatie met focus op volledigheid en juistheid van onttrokken data;
5) Gevalideerde data importeren in een passende tool voor data-analyse;
6) Uitvoeren van data-analyse in aansluiting op de vooraf gedefinieerde informatiebehoefte;
7) De communicatie van de resultaten van het doorgelopen proces.
Het proces van de zeven stappen kent drie faseringen:
Fase 1: Voorbereiding
Het ontbreken van een helder gedefinieerde vraag of informatiebehoefte is vaak de reden waarom data-analyse niet datgene brengt wat men vooraf had gehoopt. Het is erg belangrijk om hier aan de voorkant van het proces over na te denken. Dit voorkomt problemen in de vorm van verkeerde sturingsinformatie aan het einde van het proces. Een helder gedefinieerde vraag of informatiebehoefte moet worden bepaald door werknemers met voldoende kennis van de processen samen met werknemers van een IT-afdeling. Samen kunnen zij de functionele informatiebehoefte omzetten in een technische datascope waarbij wordt bepaald welke data onttrokken moeten worden uit de database.
Fase 2: Datacapturing, -validatie en -import
Als de technische datascope helder is, moet een IT-medewerker de data, de bron van de uiteindelijke waarde, op gestructureerde wijze onttrekken uit de database of het datawarehouse. Iedere applicatie beschikt over een brondatabase. Het kan echter voorkomen dat een onderneming ook beschikt over een datawarehouse – iets wat vaak voorkomt als een onderneming diverse applicaties heeft. Het datawarehouse verzamelt data uit diverse brondatabases en zorgt dat deze data op een juiste wijze op één plaats worden opgeslagen waardoor ze op een later moment kunnen worden gebruikt als input voor data-analyse. Het is dan ook van belang na te gaan of datacapturing moet worden uitgevoerd op een brondatabase of op een datawarehouse. Het spreekt in beide gevallen voor zich dat rond dit proces van datacapturing voldoende beveiligingsmaatregelen getroffen moeten worden zodat manipulatie van de data rechtstreeks in de database of datawarehouse niet mogelijk is. Een voorbeeld hiervan is het toekennen van zogenaamde ‘read only’-rechten aan de gebruiker die data rechtstreeks vanuit de database of het datawarehouse onttrekt. Dit onttrekken is onder andere mogelijk met queries of speciale data-extractietools. Het onttrekken van data is een belangrijke stap in het proces, dat met zorg moet worden uitgevoerd. Een ander aandachtspunt is het valideren van de onttrokken data. Eenmaal onttrokken data dienen gevalideerd te worden op volledigheid en juistheid voordat kan worden gestart met het importeren van de data in de analysetool.
Fase 3: Data-analyse en rapportering uitkomsten
Na het uitvoeren van validatie kunnen automatisch geprogrammeerde of manuele analyses plaatsvinden op de gevalideerde data. De vraag is welke tooling het best gebruikt kan worden voor data-analyse. Een onderneming kan gebruik maken van standaardtooling waarmee queries kunnen worden gemaakt. Dit is aantrekkelijk vanuit kostenperspectief en biedt mogelijkheden om flexibel in te spelen op een wijzigende informatiebehoefte. Een onderneming kan ook kiezen voor een doorgaans duurdere maatwerkoplossing. Het voordeel is dan dat een real time dashboard kan worden geprogrammeerd en ingericht, dat volledig is afgestemd op de vooraf gedefinieerde informatiebehoefte. De volgende vier aspecten moeten tegen elkaar worden afgewogen als het gaat om gebruik van tooling:
1) Vrijheid. Het is van belang na te gaan welke vrijheid de gebruiker heeft binnen de tooling voor data-analyse. Dit zijn de vragen die onder andere gesteld moeten worden: Kunnen data nog worden aangepast als ze eenmaal zijn ingelezen in de tool? Kunnen handmatig analyses worden samengesteld binnen een tool of moeten die worden ontwikkeld/geprogrammeerd door een IT-afdeling?
2) Mogelijkheid. Ga na welke soorten analyse kunnen of moeten worden uitgevoerd. Zet dit af tegen de mogelijkheden binnen een tool. Een aspect om tevens rekening mee te houden is de hoeveelheid en variatie van data ten opzichte van mogelijkheden binnen de tool.
3) Complexiteit. Het is belangrijk na te gaan wie de gebruiker van de tool is. Tools voor dataanalyse variëren van eenvoudig tot zeer complex. Complexe tools (bijvoorbeeld ACL/SQL) vereisen de nodige kennis en ervaring bij gebruikers, terwijl eenvoudige tools (bijvoorbeeld Excel/ Access) eenvoudig door veel werknemers kunnen worden gebruikt met beperkte instructies. Als wordt gewerkt met grote hoeveelheden data kan het interessant zijn om voor ACL/SQL te kiezen omdat u via een databasestructuur en indexen sneller kunt zoeken en analyses kunt uitvoeren.
4) Controleerbaarheid. Vanuit het oogpunt van interne controle is het belangrijk dat data-analyse op een gecontroleerde en beheerste manier wordt uitgevoerd, zodat achteraf kan worden vastgesteld wie welke databewerkingen heeft uitgevoerd. Het aspect controleerbaarheid draagt in belangrijke mate bij aan de betrouwbaarheid van analyses en informatie die daaruit naar voren komt. Uitgaande van deze vier aspecten in relatie tot agile moet worden geconcludeerd dat flexibiliteit het uitgangspunt moet zijn. Vanwege de vrijheden binnen tooling in combinatie met veel mogelijkheden en vanwege het snel en flexibel kunnen inspelen op veranderende informatiebehoeften concluderen wij dat tools als bijvoorbeeld ACL en SQL bij uitstek flexibiliteit bieden.
Wij concluderen voorts dat ACL bij de hiervoor beschreven tools de beste mogelijkheden biedt op het gebied van controleerbaarheid ofwel het creëren van een audit trail. De brondata worden bij het analyseren niet aangepast en middels gedocumenteerde scripts kan eenvoudig achterhaald worden welke bewerkingen zijn uitgevoerd op de brondata.
Omdat ACL en SQL complexer zijn dan de andere hiervoor beschreven tools is het van belang dat gebruikers vooraf de juiste scholing en instructie krijgen.
Nadat data-analyse heeft plaatsgevonden is het belangrijk de uitkomsten op een heldere en gestructureerde manier te presenteren. Het is belangrijk positieve en negatieve ervaringen te delen met elkaar. Door de stappen in het genoemde data-analyseproces te documenteren is het mogelijk om bij iedere volgende dataanalyse de ervaringen en lessen uit eerdere analyses mee te nemen zodat efficiëntie in het data-analyseproces wordt gerealiseerd. Als de
stakeholders tevreden zijn met de uitkomst van de data-analyse kan er overwogen worden om het voorgenoemde data-analyseproces te automatiseren. Hierbij bestaat de mogelijkheid tot het samenstellen van dashboards waarop real time de beschikbare data in de gewenste vorm worden gepresenteerd.
Agile is onlosmakelijk verbonden met flexibiliteit. De beschreven structuur is dus een hulpmiddel en geen dwingend voorschrift. Het kan voorkomen dat gedurende het proces geconstateerd wordt dat een eerder genomen beslissing moet worden heroverwogen. Onze ervaringen hiermee zijn meestal terug te voeren op de processtappen 4 en 5 in fase 2. Het komt voor dat wij onttrokken data ontvangen en dat achteraf blijkt dat de data niet juist of volledig zijn, bijvoorbeeld omdat een periode van correctieboekingen niet is meegenomen. Het komt ook voor dat wij data willen importeren in één of meerdere tools om te analyseren en dat de data niet het juiste format hebben, waardoor ze niet goed worden herkend. Daarnaast kan op basis van de behaalde resultaten worden bepaald dat de (technische) datascope aangepast dient te worden. Dit kan betekenen dat er data over een langere periode worden geanalyseerd, of dat er nieuwe dimensies voor analyse aan worden toegevoegd.
Het is ons inziens een illusie te denken dat agile datawarehousing, datacapturing en data-analyse altijd kunnen worden doorlopen zonder ‘issues’. Het is zaak om bij eventuele issues snel te kunnen blijven schakelen. Als een onderneming in staat is om snel en flexibel te blijven schakelen, zijn mooie resultaten mogelijk en kunnen de benoemde voordelen daadwerkelijk worden gerealiseerd.
Praktijkervaringen met data-analyse
Wij hebben veel ervaring in de praktijk opgedaan met datacapturing en data-analyse. We geven u een aantal recente voorbeelden van ondernemingen waar wij door data-analyse informatie hebben gegenereerd in aansluiting op de vooraf gedefinieerde informatiebehoefte. Het gaat om drie voorbeelden in verschillende sectoren, waarbij we telkens gebruik maakten van de in dit artikel beschreven structuur. Hierbij speelde het aspect ‘agile’ een belangrijke rol. Door elkaar aan te vullen, technisch dan wel analytisch, en door iteratie in ons proces toe te passen, kwamen we tot de juiste resultaten.
Sector: Gezondheidszorg
Achtergrond: Vanwege specifieke eisen in de zorgfinancieringssystematiek moet bij een klant de zogenoemde ‘onderhandenwerkpositie’ bepaald worden, ofwel de totale waarde van openstaande behandelingstrajecten. Wij worden ingeschakeld om aan de hand van data-analyse te assisteren bij het controleren van deze financiële positie. De waarde van deze positie is onder andere van belang bij het verkrijgen van zekerheid omtrent de continuïteit van de zorginstelling. Gezien de materiële impact vanuit financieel oogpunt is het belangrijk dat de waarde correct tot stand komt volgens vooraf vastgestelde rekenregels. De applicatie die de zorginstelling hanteert voor het registreren van zorgtrajecten wordt hoofdzakelijk gebruikt voor administratie en archivering, niet voor rapportering. Door het ontbreken van specifieke rapporteringsmogelijkheden is de klant genoodzaakt de onderhandenwerkpositie handmatig te berekenen. Wij toetsen de berekening van de klant via data-analyse. Het startpunt is een dataset met alle lopende zorgtrajecten.
Analyse: Na validatie van de dataset hebben wij een onderhandenwerkpositie berekend op cliënten totaalniveau. De berekeningswijze (journalisering) van de onderhandenwerkpositie is eerst afgestemd met experts. De goedgekeurde berekeningswijze hebben we in Excel geprogrammeerd, waarna het mogelijk was om uit de gevalideerde dataset geautomatiseerd een onderhandenwerkpositie te berekenen. Naast de controle van de onderhandenwerkpositie kunnen deze data gebruikt worden als sturingsinformatie voor het management. Werkelijke opbrengsten (subsidie) en kosten per cliënt en zorgtraject kunnen relatief eenvoudig inzichtelijk gemaakt worden.
Bevinding: Figuur 3 laat een verdeling zien van de onderhandenwerkpositie per cliënt. Een aantal zaken vallen direct op. De helft van de cliënten met de laagste onderhandenwerkpositie (onder de mediaan) is verantwoordelijk voor een klein aandeel in de totale onderhandenwerkpositie. De helft van de cliënten (boven de mediaan) met de hoogste onderhandenwerkpositie is verantwoordelijk voor het overgrote deel van de totale onderhandenwerkpositie. Er is ook een relatief groot aantal afwijkingen vastgesteld waarbij voor een aantal cliënten de onderhandenwerkpositie fors afwijkt van andere cliënten in de totaalpopulatie. Deze afwijkingen dienen nader onderzocht te worden.
Figuur 3. Verdeling van de onderhandenwerkpositie per cliënt middels een boxplot

In figuur 4 geven we de kosten per zorgtraject weer. Hierbij is een splitsing gemaakt tussen de gemaakte kosten voor aanvang van het huidige boekjaar, kosten tijdens het boekjaar en verwachte kosten na afsluiting van het boekjaar. Uit deze grafiek kan onder andere worden geconcludeerd:
• Voor een klein aantal zorgtrajecten ligt het grootste deel van de kosten in de toekomst;
• Een aantal zorgtrajecten maakt relatief veel kosten voorafgaand aan het zorgtraject;
• De kostendruk is voor het grootste deel van de zorgtrajecten niet evenredig verdeeld.
Op basis van deze informatie kan het management van de zorginstelling specifiek en per zorgtraject sturen. Aandachtspunt is de grote uitstroom van liquide middelen in de toekomst waarmee in de financiering rekening moet worden gehouden.
Figuur 4. Kostenanalyse per zorgtraject
 

Geleerde lessen: het bepalen van de juiste (technische) datascope bleek lastig. Daarnaast diende de dataset meermaals opgeleverd te worden. Er ontbraken data in de dataset, vandaar dat deze in het bronsyteem aangevuld moesten worden voordat een nieuwe dataset opgeleverd kon worden. Tot slot was een nauwe samenwerking met de klant en de controlerend accountant vereist zodat de financiële berekeningen van de onderhandenwerkpositie konden worden omgezet in een technische datascope.
Sector: Handelsonderneming
Achtergrond: In een grote handelsonderneming heerst een competitieve sfeer tussen salesmedewerkers. Een groot deel van de variabele beloning van salesmedewerkers wordt bepaald door het realiseren van vooraf door de directie gedefinieerde salestargets. Intern zijn salesmedewerkers bevoegd tot transacties van 50.000 euro. De directie heeft het vermoeden dat er medewerkers zijn die deze grens trachten te omzeilen om zo vlak voor jaareinde hun salestargets te kunnen halen.
Informatiebehoefte: Analyseer salestransacties van de maand december en breng ongebruikelijke transacties in kaart die erop kunnen duiden dat salesmedewerkers aan hen toegekende bevoegdheden te buiten gaan om salestargets te kunnen realiseren.
Analyse: Gegroepeerde en herhaalde transacties in de debiteuren subadministratie.
Bevinding: Uit analyse van de subadministratie debiteuren blijkt dat vier identieke transacties hebben plaatsgevonden van 45.965 euro (figuur 5) . Uit nadere analyse middels ‘drilldown’ blijkt dat alle transacties vlak voor jaareinde hebben plaatsgevonden in een tijdsbestek van vijf dagen. Met inachtneming van het feit dat salesmedewerkers bevoegd zijn tot transacties van 50.000 euro, dienen deze transacties nader onderzocht te worden.
Figuur 5. Analyse van de subadministratie debiteuren

Geleerde lessen: Doordat wij nauwgezet de vraag/informatiebehoefte hebben omgezet in een technische datascope werden de data in één keer juist en volledig opgeleverd. Daarnaast kan data-analyse in bepaalde gevallen gerelateerd zijn aan gevoelige onderwerpen. Het is belangrijk om nooit direct een conclusie te trekken op basis van de uitkomsten als je niet niet alle ins en outs kent. In bovenstaande analyse kan immers ook sprake zijn van meerdere identieke transacties met een valide reden.
Sector: Woningbouwcorporaties
Achtergrond: Een woningbouwcorporatie verhuurt naast woningen drie complexen met daarin appartementen. Het afgelopen jaar is erg turbulent geweest en de omzet blijft achter bij de vooraf opgestelde begroting. Er is onvoldoende informatie beschikbaar omtrent leegstand van woningen en appartementen. Een complicerende factor is dat data in meerdere brondatabases zijn opgeslagen. Om te komen tot een goede analyse moeten data uit meerdere databases worden onttrokken en samengevoegd voordat dataanalyse kan plaatsvinden. Samenwerking met medewerkers van de afdeling verhuur is nodig voor interpretatie van data, en samenwerking met de afdeling IT is noodzakelijk omdat de juiste data uit meerdere databases moeten worden onttrokken.
Analyse: Maak op gestructureerde wijze de leegstand van huurappartementen in complex A, B en C per kwartaal inzichtelijk (figuur 6) .
Figuur 6. Leegstand van huurappartementen in complex A, B en C

Bevinding: In 2011 had complex A een lage leegstand ten opzichte van de andere complexen. Dit complex is al een aantal jaren in gebruik en er is weinig verloop doordat het complex op een gunstig gelegen locatie ligt. De leegstand in complex B was aanzienlijk hoger. Dat komt door de noodgedwongen ontruiming in Q2 in verband met het verwijderen van asbest uit het complex. In complex C is de leegstand erg hoog. Hoewel het een nieuwbouwcomplex betreft, is het kennelijk niet gelukt voldoende nieuwe bewoners aan te trekken.
Geleerde lessen: Door een goede planning en communicatie vooraf zijn de juiste medewerkers van de afdelingen bij elkaar gebracht en kon de informatiebehoefte goed worden omgezet in een technische datascope. Voor het onttrekken van data uit de verschillende databases hebben wij data-extractietools gebruikt, wat voor veel efficiëntie zorgt. Een laatste belangrijke les is het visualiseren van uitkomsten omdat dit in veel gevallen meer zegt dan een tekstuele uitleg.
Deze drie voorbeelden zijn slechts enkele van de vele analyses die mogelijk zijn onder voorwaarde dat de problematiek en informatiebehoefte helder zijn. Data-analyse heeft daarnaast als groot voordeel dat het meer zekerheid geeft dan een deelwaarneming of een steekproef op een totale populatie. Door integraal een gevalideerde dataset te analyseren kan nauwkeurig worden aangegeven waar zich bijzonderheden voordoen. Het stelt in staat om in detail in te zoomen op data als hier aanleiding voor is. Bijzondere transacties of registraties kunnen direct worden uitgelicht voor nader onderzoek. Kortom, snel ingrijpen en bijsturen in processen wordt eenvoudiger gemaakt en een efficiënte wijze van werken wordt bevorderd.
Conclusie
Ondernemingen hebben behoefte aan specifieke informatie afgestemd op de business. Hoewel standaardrapportages uit applicaties hier op hoofdlijnen prima aan kunnen voldoen, is vaak nadere detailanalyse nodig om echt naar tevredenheid te kunnen voldoen aan de informatiebehoefte. De drie opgenomen analyses zijn slechts enkele van de vele mogelijkheden. Het is belangrijk te beseffen dat het succesvol toepassen van data-analyse afhankelijk is van een gestructureerde aanpak en methodiek. Het volgen van het stappenplan, zoals beschreven, kan hieraan bijdragen. Zorg ervoor dat niet direct wordt gestart met meerdere complexe analyses, maar bouw het op. Bepaal twee of drie belangrijke informatiebehoeften die niet ondervangen worden door standaardrapportages uit de applicatie en volg de in dit artikel beschreven aanpak. Op deze wijze kunnen datacapturing en data-analyse op gestructureerde wijze worden opgepakt en langzaam worden uitgebouwd tot real time dashboards, zodat een onderneming sneller beslissingen kan nemen op basis van de beschikbare data en beter kan inspringen op veranderende marktomstandigheden.
 
Drs. Arjen Korterink RA is werkzaam als manager bij Ernst & Young Advisory -IT Risk and Assurance. Bij de uitvoering van werkzaamheden combineert hij kennis van IT Audit en Financial Audit. E-mail: arjen.korterink@nl.ey.com
 
Frank Zandhuis is werkzaam als IT Auditor bij Ernst & Young Advisory-IT Risk and Assurance. Hij richt zich vooral op IT-gerelateerde audit- en adviesopdrachten. E-mail: frank.zandhuis@nl.ey.com

De auteurs schreven dit artikel op persoonlijke titel.
 
 

Tag

Onderwerp



Niet gevonden? Vraag het de redactie!

Heeft u het antwoord op uw vraag niet gevonden, of bent u op zoek naar specifieke informatie? Laat het ons weten! Dan zorgen we ervoor dat deze content zo snel mogelijk wordt toegevoegd, of persoonlijk aan u wordt geleverd!

Stel uw vraag