Big Data en de controller (1)

Big Data en de controller (1)

De controller speelt allang niet meer alleen een centrale rol bij de financiële sturing van een organisatie. Meer en meer heeft hij ook een rol in het analyseren van bedrijfsrisico's, het ontwikkelen en analyseren van strategische scenario's en het bepalen en beheersen van kritieke succesfactoren.

De controller is aan de ene kant consument van data uit bijvoorbeeld transactiesystemen. Aan de andere kant is hij producent van data. Hij maakt de rapportages voor het management, die de basis vormen van zijn advies. Hij leeft dus als het ware van data. Maar kun je ook teveel van het goede hebben? De hoeveelheid, snelheid en variatie aan data groeit ook voor controllers en financieel managers steeds harder en raakt de grenzen van wat organisaties kunnen verwerken qua techniek en infrastructuur. De controller loopt het risico de controle te verliezen. Het is een uitdaging en tegelijkertijd ook – en vooral – een gigantische kans. Maar hoe houd je grip op alle data? Hoe haal je de relevante informatie eruit? Hoe krijg je één versie van de waarheid? En welke kansen biedt het om business modellen te optimaliseren?

In een reeks artikelen in het Tijdschrift Controlling leggen Edwin van Unen en Paul Spoormans uit wat Big Data is en welke consequenties het heeft voor het financieel management van organisaties.
 

Big Data
Iedereen heeft het over Big Data, maar wat is het nu eigenlijk?
Van Big Data doen verschillende definities de ronde. Bij SAS definiëren we Big Data als “De situatie waarbij de hoeveelheid, snelheid en variatie aan data de normale opslag- en verwerkingscapaciteit van een organisatie overstijgt.” Daarmee vermindert het vermogen van de organisatie om snel correcte beslissingen te kunnen nemen. Ook de complexiteit en de relevantie van de gegevens voor de betreffende analyse spelen hierin een rol. Een andere definitie beschrijft Big Data als ‘elke situatie waarin het gebruik en de verwerking van data je buiten je comfortzone brengt’.


Volume, Variety, Velocity en Value
Terwijl verhalen over Big Data al snel over de hoeveelheid van data gaan, is dat niet het belangrijkst. De essentie van Big Data zit in de combinatie van groeiende volumes en de complexiteit van de data. Dit maakt de controle op de data moeilijk. Het is de uitdaging niet alleen de gestructureerde data, maar ook de ongestructureerde en semigestructureerde data snel te kunnen verwerken. De variëteit van de datastromen en de daaruit voortvloeiende complexiteit van de verwerking, vormen de kern van de uitdaging. Het kost veel tijd om alle data in het juiste formaat te krijgen en tot de juiste rapportages te komen. Wat als dit probleem zou worden opgelost en grote diversiteit en omvang van data zou toelaten? In de data zit een schat van informatie verscholen die de basis vormen voor goed advies.

Volume: Dit is een voor de hand liggend punt en het eerste waar iedereen aan denkt bij de term 'Big'. Een recente studie van McKinsey schat dat veel organisaties nu al meer dan 100 terabyte aan gegevens hebben, veel van hen zelfs meer dan een petabyte (een miljoen gigabyte). Nog indrukwekkender is het dat deze hoeveelheid naar alle waarschijnlijkheid ongeveer elke zes maanden verdubbelt!

Variatie: Zowel de interne als externe gegevens zijn zeer gevarieerd. Tot 85% van alle informatie binnen een organisatie wordt beschouwd als ongestructureerd. En ook extern zorgt de opkomst van sociale media voor een enorme vloedgolf aan ongestructureerde data. Vroeger was data vooral afkomstig uit gereguleerde processen zoals mutaties in administratieve processen en boekingen in het grootboek. De initiatie hiervan was altijd van binnenuit en de structuur van de uitkomst was voorspelbaar. Veel van de huidige informatie komt echter van buiten de organisatie en is daardoor ook minder gestructureerd en voorspelbaar.

Velocity (Snelheid): Niet alleen komt de data binnen in grotere hoeveelheden en in talloze variaties, het gaat ook steeds sneller. Financiële markten staan wereldwijd via netwerken met elkaar in verbinding en risico’s en waarderingen van bezittingen of schulden kunnen per seconde veranderen.

Value (waarde): En voor organisaties gaat het uiteindelijk om de extra V, de V van Value, waarde. Waarde is onlosmakelijk verbonden aan Big Data een ligt helemaal op het terrein van de controller. Hij moet erop toezien dat alles goed loopt om waarde te bereiken. Hij is als het ware een drijver achter het optimale uit gegevens halen. En tegelijkertijd identificeert hij de mogelijke risico’s die de organisatie kunnen bedreigen. De controller heeft de rol van business partner van het management. Hij adviseert hen op basis van de informatie zodat er op basis van op feiten gebaseerde informatie de juiste beslissingen worden genomen.

Tekstuele data
De toenemende datavolumes en benodigde verwerkingssnelheid zouden voor de controller nog niet zo hard aantikken, als hij zich zou beperken tot puur financieel management en controle. Zodra hij echter zijn adviserende rol oppakt, moet hij ook een beroep doen op andere soorten data, uit andere bronnen. Tekstuele data afkomstig van het internet of uit gespreksverslagen van contact centers zijn zeer waardevol om beslissingen te onderbouwen, maar dit vergt wel een andere manier van analyseren en rapporteren. Denk bijvoorbeeld aan de groeiende online discussies over leveringsproblemen van producten. Dit zou van invloed kunnen zijn op investeringsbeslissingen over extra capaciteit.

Beperkte analyses
Bij financiële systemen speelt het fenomeen dat door te langzame responstijden van systemen financieel managers bij hun analyses vaak gedwongen worden genoegen te nemen met het uitvoeren van beperkte analyses. De beschikbare informatie is gelaagd aanwezig. Vanwege de hoeveelheid en beperkte tijd wordt de data veelal geaggregeerd en gaan (belangrijke) details verloren. Er kan daardoor later niet meer op specifieke details worden ingezoomd. Dit kan leiden tot onnauwkeurige of foutieve uitkomsten, maar ook tot niet tijdig beschikbare rapportages waardoor organisaties kwetsbaar zijn. Denk bijvoorbeeld aan fair value calculaties op materiële of niet-materiële activa, of het aantal scenario’s dat gedraaid kan worden bij stress testing bij banken en verzekeraars. Vooral bij het afsluiten van financiële periodes zijn vertragingen hinderlijk en schadelijk.

Technologie
Om alle data effectief te verwerken en in te inzetten, is er nieuwe technologie beschikbaar in de vorm van High-Performance oplossingen. Daarbij moet je denken aan grid computing,  in-database analytics en in-memory analytics, waardoor verwerking vele malen sneller plaatsvindt. Bij een afsluiting betekent dit bijvoorbeeld het sneller koppelen van informatie uit sub-administraties aan multi currency consolidatiegegevens om afwijkingen te kunnen bekijken op het niveau van boekingen. Dit kan ook over langere perioden. Als controllers nu nog dagen moeten wachten op de resultaten van een risicoberekening of een geconsolideerd overzicht, dan kunnen maar een beperkt aantal scenario’s worden doorgerekend. Als je echter verschillende risicofactoren parallel kunt testen kun je veel sneller tot een goede strategie komen. En dit is nu al mogelijkheid. Er zijn nu al oplossingen op de markt die grote hoeveelheden data kunnen verwerken op betrouwbare manier. Hoeveelheden data die voor Excel onmogelijk zijn.

Reacties (1)

Reageren

  • HTML niet toegestaan. URL's worden automatisch clickable.
    * E-mail adres wordt niet getoond