ons Whitepaper

Download Report

Transcript ons Whitepaper

datazoo
Data Analytics by Topicus
data driven decision-making and how to achieve it
Inhoudsopgave
Inhoudsopgave
3
Inleiding
4
DataZoo
6
Het DataZoo-platform
8
Data-extractie
10
Data-verwerking
11
Continuïteit en adaptiviteit
Twee keuzes
Gebruikersinteractie
14
Dashboards
Rapportages
Analyse-omgeving
Lessons Learned
18
DataZoo @ Topicus
22
Razendsnelle gebruikersanalyses
22
NPS metingen
22
Bedrijfsmonitoring en optimalisatie
22
Met DataZoo ook inzage in uw eigen organisatie?
24
Over Topicus
24
Inleiding
Hoe neem je de juiste beslissingen binnen een organisatie? Waar stuur je op en hoe weet je of
een verandering ook daadwerkelijk verbetering brengt? Het beruchte ‘onderbuikgevoel’ heeft hierin
jaren prima volstaan, maar tegenwoordig is dat eigenlijk not done: ‘meten is weten’.
Het sturen op gegevens noemen we ‘data driven’ en een beetje organisatie kan niet meer zonder
dit fenomeen. Op basis van Big Data en dankzij Process Mining worden processen in kaart gebracht
en/of gebruikers geprofileerd om exact te kunnen analyseren hoe een organisatie of systeem
functioneert. Dit geeft een solide basis voor het bijsturen van bedrijfsvoering of het verhogen van
kwaliteit en geeft tevens direct inzage of veranderingen ook daadwerkelijk van invloed zijn geweest.
Er lijkt een nieuwe trend te ontstaan: een organisatie zonder ‘data driven decisions’ op basis van
‘Big Data’ en ‘Process Mining’ wordt eigenlijk niet meer serieus genomen. Of dat terecht is, blijft
natuurlijk voer voor discussies, maar dat er grote waarde zit in het goed analyseren en combineren
van gegevens mag duidelijk zijn.
Wat veel mensen zich niet beseffen, is dat hier potentieel een groot gevaar schuilgaat: statistiek
is een vak dat niet iedereen beheerst. Conclusies op basis van onvolledige gegevens of zonder het
bredere plaatje te beschouwen zijn aan de orde van de dag. Voor journalistiek en politiek werkt dit
prima, maar bij bedrijfsvoering kan dit funest zijn. Hierin ligt dan ook een sleutel om organisaties
succesvoller te laten zijn.
Een succesvolle organisatie is namelijk in staat om op basis van solide analyses betere beslissingen
te maken dan de concurrentie. Hierbij speelt de kwaliteit van data en statistiek een cruciale rol.
Dit whitepaper gaat in op de benodigdheden voor dergelijke data-analyse en uit welke stappen dit
proces bestaat. Op basis van de ervaringen van de afgelopen jaren schetsen we een beeld van de
praktijk van data-verwerking, de do’s en dont’s en over welke functionaliteiten danwel kennis er
beschikt dient te worden, om dit succesvol in te zetten.
5
DataZoo
DataZoo wordt ontwikkeld door Topicus, een ICT-dienstverlener voor onder andere het Nederlands
onderwijs, zorg, overheid en bankwezen. Op een gegeven moment kwamen we tot de conclusie dat
de dienstverlening naar klanten verder verbeterd kon worden door business intelligence (BI) in te
zetten. Hierbij werd als doel gesteld om gegevens uit verschillende pakketten samen te brengen
in één management informatiesysteem. Hiermee kunnen klanten zelf analyses uitvoeren op data
omtrent bedrijfsvoering en de kwaliteit meten van de geleverde diensten.
Dit betekende het realiseren van een oplossing waarbij data uit verschillende bronnen of systemen
gecombineerd moest worden. Echter, die bronnen worden zelf ook in hoog tempo doorontwikkeld,
zijn niet altijd bereikbaar, veranderen van datastructuur en staan soms bepaalde koppelingen niet
toe. Al deze afhankelijkheden dienen goed geborgd te worden om een goed platform voor BI neer te
zetten. Ook bleek al snel dat de data die opgeslagen wordt in een bronpakket niet altijd eenduidig is,
vaak niet volledig wordt ingevoerd door verschillende klanten en de betrouwbaarheid van gegevens
dus te wensen over liet.
Ondanks al deze (en nog vele andere) issues goed het hoofd te kunnen bieden, was er behoefte aan
een goed-doordachte architectuur voor het neerzetten van een data-analyse platform dat robuust,
correct en flexibel is. Er moest omgegaan kunnen worden met verschillende soorten data-bronnen
(databases, csv-bestanden, web services, etc), de data zelf zal kwalitatief hoogwaardig moeten zijn
waarbij excessen en onvolledigheden weggefilterd moeten worden (opschonen noemen we dat), er
zullen goed doordachte modellen ontworpen moeten worden waar de data een plek krijgt en het
geheel dient ook nog veel data aan te kunnen. Heel veel data.
In een periode van vier jaar, waarin er veel geleerd is, fouten zijn gemaakt en optimalisaties
doorgevoerd, zijn al deze onderdelen samengekomen in het DataZoo-platform.
7
Het DataZoo-platform
Een generiek platform vraagt om verschillende
mogelijkheden voor het kunnen verwerken
van data. Zowel voor de extractie van de
brondata uit allerlei verschillende systemen
of omgevingen als ook voor de gehele verdere
verwerking van de data, is het van belang om
de juiste keuzes te kunnen maken. Er is niet
één manier die in alle situaties volstaat.
Ditzelfde geldt voor het eindresultaat van het
platform: afhankelijk van het type gebruiker
zijn er visueel aantrekkelijke en eenvoudig
te lezen grafieken benodigd of is er behoefte
aan een omgeving waar onderzoek en ad hoc
analyses gewenst zijn. Het is van belang om
een goed beeld te hebben van wat de gebruiker
uiteindelijk wil bereiken. Op basis daarvan
worden de juiste componenten ingezet vanuit
een breed scala van mogelijkheden die al dan
niet op elkaar ingrijpen.
Het gehele platform is schematisch als volgt weer te geven:
RESTSoap
Hadoop
Oozie
Hive
Crunch
Spark
HDFS
FTP
Ambari
Zookeeper
Mapreduce
WorkflowMGMT
Tez
Open
data
JSON
Dashboard
Data analytics tools & processes
Apache
Drill
Apache
Zeppelin
Predictive
analysis
Information
models
MonetDB
Reporting
JDBC
REST-services
TXT CSV
Excel
IPsec
datazoo
MS windows server
MS SQL
Server 2014
SSIS
WorkflowMGMT
SQL
agent
OLAP
9
Data-extractie
Data-verwerking
De eerste stap is het verkrijgen van alle brondata. Aangezien dit op vele manieren beschikbaar
gesteld kan zijn, zijn er verschillende manieren noodzakelijk voor het ophalen, zoals:
Voor het verwerken van de data zijn meerdere mogelijkheden beschikbaar. Zo wordt er voor de
verwerking van relatief kleine hoeveelheden gestructureerde data gebruik gemaakt van Microsoft
SQL Server Integration Services (SSIS) om data te transformeren naar zogenaamde stermodellen. Dit
houdt in, dat de data vertaald wordt naar ‘feiten’ en ‘dimensies’ in plaats van bijvoorbeeld objecten
en relaties. Er wordt derhalve één waarheid gecreëerd die vanuit verschillende oogpunten bekeken
kan worden.
Webservices
SOAP, REST
Exportbestanden
CSV, JSON, XML
Wanneer er grotere hoeveelheden data verwerkt moet worden, dan kiezen we vaak voor een oplossing
binnen het Hadoop-platform. Hiermee wordt het mogelijk om de data-verwerking eenvoudig te
distribueren over verschillende servers/hardware heen en is de verwerking van data eenvoudig
horizontaal te schalen.
Database-koppelingen
Oracle, SQLserver, PostgreSQL, MySql, MonetDB
Open data
CBS, Eurostat, ...
Logdata
Server logs, audit logs
Hierbij geldt dat de frequentie van ophalen van iedere bron flexibel moet zijn. Sommige bronnen
worden realtime ververst (denk aan applicatielogs), maar veelal volstaat het periodiek bevragen
voor nieuwe data op dagelijkse basis.
De data-extractie wordt binnen DataZoo gecoördineerd door de Oozie Hadoop Workflow Scheduler.
Voor het bepalen van welke bronnen er op welke tijden en met welke configuraties worden bevraagd,
maakt Oozie onder andere verbinding met Ultimview, de applicatie voor de eindgebruikers. Binnen
Ultimview worden nieuwe bronpakketten geconfigureerd en/of nieuwe klanten ingericht voor onze
multi-tenant SaaS-oplossing. Hierdoor is het niet langer nodig handmatig configuratiebestanden
te bewerken om zo in sync te blijven met andere bronsystemen en kunnen workflows automatisch
worden gegenereerd.
Continuïteit en adaptiviteit
Voor beide oplossingen hanteren we de voorwaarden dat er modellen gerealiseerd worden die
uitbreidbaar, schaalbaar en toekomstgericht zijn. Dit is van groot belang aangezien de continuïteit
van de gerealiseerde oplossing een vaak onderschat aandachtspunt is. Foutafhandeling,
uitvalsrapportages en snelle herstelacties zijn cruciaal om deze continuïteit te kunnen waarborgen
en tevens de gebruiker het gevoel te geven dat de juiste informatie wordt getoond.
Bij het integreren van tientallen systemen gaat er altijd wel iets mis. Dit is niet te voorkomen vanwege
de vele afhankelijkheden die er onderling zijn, maar er valt wel op te acteren. Het achterhalen
waarom een eindgebruiker ergens een bepaald kengetal ziet staan dat in zijn ogen niet klopt, kost
zeer veel onderzoekstijd die zoveel mogelijk voorkomen dient te worden. Dankzij de uitbreidbaarheid
en adaptiviteit van de dataverwerking en modellen wordt ervoor gezorgd dat eventuele problemen
snel gepinpoint en hersteld kunnen worden.
Om dit nog verder in te bedden, proberen we een synergie te vinden waarbij domeinkennis en
technische kennis in evenwicht zijn. Zodoende kan er snel geschakeld kan worden tussen deze twee
expertises omdat er gedeelde kennis aanwezig is vanuit waar er verder gewerkt kan worden. Dit
wordt verder benadrukt door de iteratieve en gestructureerde manier van werken bij het opzetten
van een data-platform voor een grote organisatie, iets dat bij data analytics van cruciaal belang is.
11
Twee keuzes
Vanuit de optiek van dataverwerking zijn er grof gezegd twee invalshoeken:
1.
Schaalbare en complexe aggregatie uit diverse bronnen ten behoeve van Online Analytical
Processing (OLAP) waar de gegevens op het SSIS- of Hadoop-platform worden verwerkt tot schone
performante modellen die low-latency kunnen worden uitgevraagd via ons analytics-platform. Het
voordeel hiervan is dat deze oplossing onbeperkt is in de hoeveelheid data en de complexiteit van
verwerking en aggregaties. Daar staat tegenover dat de data periodiek moet worden verplaatst
naar een centraal datawarehouse of data-lake. Ook zal data in batches verwerkt worden waardoor
er tijd zit tussen de data-extractie en het beschikbaar hebben binnen de analyse-omgeving (vaak
maximaal één dag)
2. De andere invalshoek beschouwt het realtime integreren van diverse databronnen (zoals Oracle,
SQLServer, PostgreSQL, MonetDB, Hbase, HDFS) binnen één model. Uiteraard bepaalt de complexiteit
van de gewenste aggregatie of dit ook in realtime te realiseren is. Het voordeel van deze aanpak is
er direct op de brondata gewerkt wordt, maar de complexiteit van gegevensverwerking, analyse en
integratie zijn daarentegen beperkt. Uiteraard dienen ook de onderliggende bronsystemen geschikt
te zijn voor deze (relatief zware) workloads en zal de gebruiker over de juiste expertise dienen te
beschikken om met een dergelijke dataset om te kunnen gaan.
Apache Drill
Complexe analyse
Realtime analyse
Krachtige transformaties
Datawarehouse / data lake
Binnen het DataZoo-platform wordt in beide keuzes voorzien. De juiste aanpak wordt bepaald door
het specifieke doel dat bereikt dient te worden en hierin kunnen beide opties elkaar aanvullen. Zo
kan er dankzij de ad hoc tweede methode snelle analyses uitgevoerd en gevalideerd worden die de
basis leggen om deze structureel te verwerken via de eerste methode.
13
Gebruikersinteractie
Zoals eerder al aangegeven bepaalt het soort gebruiker de uiteindelijk gewenste interface voor
interactie. De gebruiker wil namelijk iets bereiken met de nieuwe mogelijkheden en inzages van zijn
data. Het DataZoo-platform voorziet in grofweg drie smaken:
Dashboards
Voor bijvoorbeeld management of operationeel verantwoordelijken is het van belang dat er in één
oogopslag inzicht is in de huidige status. Eventuele onverwachte afwijkingen dienen geanalyseerd
te kunnen worden, maar zonder veel inspanning. Dit is exact waarom Ultimview is gerealiseerd: het
bieden van hoogwaardige, overzichtelijke dashboards voorzien van veel standaardfunctionaliteit
en met de mogelijkheid om vanuit een high-level overzicht te kunnen inzoomen op specifieke
(afwijkende) onderdelen. Visueel aantrekkelijk presenteren van complexe gegevensstructuren
zodat er snel geschakeld kan worden zonder iets van de brondata te hoeven afweten. Desgewenst
zijn ook widgets vanuit Ultimview op te nemen in bestaande omgevingen middels onze JavaScriptbibliotheek genaamd ValorJS.
Analyse-omgeving
Tot slot biedt DataZoo een analyse-omgeving aan waarin gebruikers geheel zelf door alle beschikbare
(en geautoriseerde) data kunnen struinen om ad hoc analyses en visualisaties te maken. Deze ‘data
science’-omgeving is geheel flexibel in te richten en kan bijvoorbeeld worden gevoed met realtime
(log)gegevens of gegevens vanuit andere bronbestanden (denk aan de resultaten van een online
gehouden enquete die middels een CSV-bestand zijn aangeleverd). Voor deze omgeving maakt
DataZoo gebruik van Apache Drill in combinatie met Apache Zeppelin, waarmee zowel een krachtige
data-analyse tool alsook standaard visualisatiemethodes beschikbaar komen voor snelle, ad hoc
data analyse.
Met deze omgeving kan een organisatie geheel naar eigen wens de eigen data combineren en
aggregeren om zo de interne onderzoekscapaciteit naar een hoger plan te tillen. Het is hiermee
uiteraard geen omgeving voor de technische leek, maar de mogelijkheden voor analyses zijn hiermee
eindeloos!
Rapportages
Voor bijvoorbeeld verantwoording naar stakeholders zijn er vaak hele specifieke rapportages
gebruikelijk. Een dashboard voldoet in dit soort situaties vaak niet en hiervoor biedt DataZoo een
rapportage-mogelijkheid aan. Aangezien het hier vaak geen eenvoudige ad hoc rapportages betreft
gaan onze rapportagespecialisten aan de slag. Deze kunnen door middel van het domeinmodel
(universe) van de verwerkte data, rapportages ontwikkelen in SAP BusinessObjects.
Indien wenselijk kunnen deze rapportages via de Ultimview-applicatie worden uitgeserveerd aan
eindgebruikers, zodat autorisatie van gegevens geen enkel issue meer vormt. Zo kunnen bijvoorbeeld
generieke, organisatie-brede rapportages ontwikkeld worden die vervolgens door een specifieke
gebruiker opgeroepen kunnen worden zodanig dat de gegevens in de rapportage alleen de gegevens
bevat van de afdeling van de gebruiker (conform het ingerichte autorisatie-model).
15
Lessons learned
In de afgelopen jaren zijn er vele lessen geleerd omtrent data analytics in de breedste zin. De vele
valkuilen zijn vaak alleen maar te omzeilen door gedreven specialisten en een toegewijd team en
dan nog is er veel leergeld te betalen voordat er een oplossing staat die echt meerwaarde biedt. Een
aantal van deze valkuilen en mogelijkheden lichten we graag toe.
Voorkom specifieke tweaks
Als er data wordt onttrokken uit multi-tenant SaaS-systemen, betekent dat vaak dat de brondata op
een specifieke manier is ingericht, afhankelijk van de keuzes die de gebruiker van het bronsysteem
heeft gemaakt. Bij het opzetten van een generiek dataverwerkingsplatform zal hier rekening mee
gehouden moeten worden, want mogelijk niet iedere klant van het bronpakket heeft dezelfde data
op dezelfde plek staan.
Schoon data zo vroeg mogelijk op
Goede data analyse begint met correcte informatie. In de praktijk is het echter zo dat aanleverende
bronnen of systemen niet zijn ontwikkeld om de gegevens er netjes en gestructureerd weer uit te
halen. Dat betekent dat het voor komt dat de data niet helemaal overeenkomt met wat verwacht kan
of mag worden. Daar moet het proces echter wel mee om kunnen gaan! Een eenvoudig voorbeeld: je
hebt de leeftijd van een persoon nodig voor de verwerking en de brondata biedt de geboortedatum
aan. In de ETL-processen wordt deze geboortedatum netjes een aantal stappen doorgegeven tot
deze ergens wordt vertaald naar een leeftijd. Echter, dan blijkt dat er in de brondata ook gegevens
staan uit bijvoorbeeld de 17e eeuw. Een prima valide datum dat voldoet aan het date-format uit
de brondatabase, maar natuurlijk wel vreemd als je het over huidige personen hebt. Ook kan de
datum leeg zijn, of alleen een maand-jaar-combinatie bevatten (iets dat voor immigranten geen
uitzondering is). Als je hier geen rekening mee houdt, geeft dit natuurlijk problemen, bijvoorbeeld
als de gemiddelde leeftijd van toepassing is in de analyses.
In dit soort gevallen is het van belang dat
de data opgeschoond wordt. Hierbij is het
raadzaam om deze opschoning niet pas te
doen op het moment dat de data nodig is
in het verwerkingsproces, maar zo dicht
mogelijk bij de bron. Hoe eerder dergelijke
excessen verwijderd worden, hoe stabieler en
voorspelbaarder de (vaak complexe) ketens
worden.
Dit soort voorkomens geeft een uitdaging: aan de ene kant zal het platform zo generiek mogelijk
moeten functioneren, maar aan de andere kant wil je de klant ook de juiste data geven zodat er zoveel
mogelijk meerwaarde geboden kan worden. Het klinkt dan ook erg verleidelijk om ‘even’ een kleine
tweak in het verwerkingsproces in te bouwen die de data van die specifieke klant net iets anders
interpreteert. Echter, bedenk hierbij heel goed dat iedere tweak apart onderhouden moet worden
en bij iedere wijziging aan één van de verwerkingsstappen alle tweaks die later in het proces zijn
toegepast nagelopen moeten worden. Dit kost potentieel zeer veel effort en zorg voor een instabiel
systeem. Iets dat funest is voor een data analyse platform.
Best practises hierin zijn dan ook: het aantal tweaks zo klein mogelijk te houden, iedere tweak
zo vroeg mogelijk in de keten toe te passen en binnen de architectuur een staging-omgeving te
realiseren vanaf waar alle stappen generiek toepasbaar zijn. Na deze staging-omgeving hoeven
derhalve geen tweaks meer worden toegepast.
19
Gebruik een workflow-manager
Aangezien een data analytics platform al snel bestaat uit vele verschillende stappen die allemaal
op elkaar ingrijpen, is het noodzaak om de orchestratie hiervan goed te kunnen borgen. Het klinkt
verleidelijk om iedere stap ‘gewoon’ op de voorgaande stap te laten volgen, maar als er iets
onverwachts optreedt loopt het proces vast. Daarbij zijn herstelacties vaak handmatig of kennen
een hoge doorlooptijd waardoor de tijdige oplevering van overzichten en rapportages in gevaar
komt.
Om dit te voorkomen is het cruciaal om één workflow-manager te gebruiken die centraal alle
processen aanstuurt, zowel vanaf het inladen van de verschillende bronnen als het starten van
alle individuele verwerkingsketens. Op deze manier worden afhankelijkheden op ‘tijd’ voorkomen,
worden geen processen te vroeg gestart (als de voorgaande stap nog niet gereed is) en is er te
borgen dat het gehele proces gestopt wordt als er cruciale stappen niet uitgevoerd kunnen worden.
Realiseer buffers en fallbacks
In het data verwerkingsproces worden vaak vele stappen doorlopen om van ruwe brondata tot
waardevolle informatie te komen. Hierbij valt te denken aan het samenbrengen van verschillende
informatiebronnen of het wegschrijven van de bewerkte data naar het uiteindelijke datawarehouse.
Zoals het spreekwoord al zegt, is een ketting maar zo sterk als zijn zwakste schakel en dat geldt bij
data verwerking uiteraard ook. Wordt er uit twee bronsystemen data verwerkt, bedenk dan wat er
dient te gebeuren als één van beide bronnen door welke reden dan ook zijn data niet kan aanleveren.
De oorzaken kunnen legio zijn, bijvoorbeeld timeouts, netwerk niet beschikbaar, er wordt een release
neergezet, te veel synchrone aanroepen, etc. Het optreden van iets dergelijks betekent niet direct
dat er geen data teruggegeven wordt: ook onvolledige of lege databestanden kunnen een legitiem
resultaat zijn. Echter, een onvolledig bronbestand geeft uiteraard verderop allerlei problemen in de
dataverwerking: matches kunnen niet meer gemaakt worden, gegevens vallen weg en uiteindelijk is
er een onvolledige dataset.
Aangezien de meerwaarde van data analytics staat of valt met de kwaliteit van de analyses en
data, is een onvolledig resultaat niet acceptabel. Bij het realiseren van een data analytics platform
is het dus cruciaal dat er overal zekerheden, buffers en fallbacks worden ingebouwd. Zo kan het
bijvoorbeeld veel beter zijn om gegevens van één of meerdere dagen daarvoor te gebruiken dan
onvolledige recentere gegevens, of mogelijk zal er uberhaupt niets mogen gebeuren indien één van
de aanleverende bronnen de gegevens niet of niet op tijd teruggeeft.
21
DataZoo @ Topicus
Zoals eerder al aangegeven wordt DataZoo binnen Topicus voor een groot aantal zaken gebruikt.
Eén van de grote meerwaardes van het platform is dat alle loggegevens van de verschillende
applicaties verwerkt worden door DataZoo, waarmee het mogelijk wordt om snel analyses uit te
voeren op het gebruik van een applicatie. Dit is voor zowel software ontwikkelaars als bijvoorbeeld
business analisten van grote waarde aangezien hiermee nauwkeurig in kaart gebracht kan worden
welke stappen een gebruiker door een applicatie neemt, waar een gebruiker moeite mee heeft en
welke features er juist wel of niet gebruikt worden. Al deze informatie wordt weer gebruikt om de
applicaties van Topicus nog beter aan te sluiten op wensen van de eindgebruiker.
Tot slot staat het platform uiteraard aan de basis van een aantal commerciële oplossingen van
Topicus, waaronder ScreenIT en Ultimview (www.ultimview.nl) waarin voor zowel ParnasSys als
Qualiant management informatie wordt geboden met oog op de kwaliteit van onderwijs voor heel
Nederland.
Razendsnelle gebruikersanalyses
De grote sprong die we als organisatie hierdoor hebben kunnen nemen via het DataZoo-platform
is dat de doorlooptijd van vraag tot conclusie is gereduceerd van dagen tot minuten. Iets concreter:
Medewerkers kunnen nu in realtime (binnen enkele seconden) eenvoudig logdata van servers op
Hadoop-HDFS combineren met klantgegevens in meerdere Oracle en PostgreSQL databases om
een totaaloverzicht te krijgen van het klantgedrag. Dit alles met enkele kliks gevisualiseerd in één
grafiek binnen de analyse-omgeving zonder van te voren een proces op te hoeven tuigen en data te
verplaatsen.
NPS metingen
Ook wordt DataZoo ingezet voor het verwerken van bijvoorbeeld NPS-metingen. In combinatie met
alle andere gegevens die binnen DataZoo bekend zijn, geeft dit weer een compleet nieuwe dimensie
aan kwaliteitsmetingen. Denk hier bijvoorbeeld aan het vergelijken van gebruiksgedrag op basis van
logdata om verschillen te ontdekken tussen gebruikers met een hoge of lage NPS-score. Hieruit kan
worden afgeleid welke specifieke gebruikers trainingen en cursussen aangeboden kunnen worden
om daarmee Topicus-applicaties effectiever te kunnen gebruiken.
Bedrijfsprocesmonitoring en optimalisatie
Voor andere doeleinden als het inzichtelijk maken van de verschillende stappen in bijvoorbeeld een
hypotheekaanvraagproces wordt DataZoo gebruikt om nadrukkelijke analyses te kunnen maken
omtrent waar er eventuele vertraging in het proces zit en wat de eventuele oorzaak is. Met deze
wetenschap kan het proces optimaal worden ingezet en kunnen prognoses uitgevoerd worden om
bijvoorbeeld personeelsbezetting voor de aankomende tijd goed te kunnen plannen.
23
Met DataZoo ook inzage in uw eigen organisatie?
Zoals reeds verteld, is het tegenwoordig de norm om naast ‘gut-feeling’ te sturen op data. Datadriven beslissingen en big data analyses kunnen de strategie van een organisatie bepalen of op het
juiste moment bijsturen. Ook voor uw organisatie kan de stap naar data driven decision-making een
zeer waardevolle zijn en met het DataZoo-platform zijn daar snel stappen in te zetten. Vraagstukken
als autorisatie, authenticatie en hoe generieke rapportages rol-specifiek uitgeleverd kunnen
worden, hebben we al opgelost. Samen met onze Business Intelligence experts doorgronden we de
organisatie of bedrijfsprocessen en zorgen we ervoor dat exact die gegevens boven water komen
waarmee de bedrijfsvoering optimaal kan worden vormgeven.
Zowel het inzetten van het DataZoo-platform als het betrekken van onze experts op verschillende
gebieden behoort tot de mogelijkheden. Vertel ons hoe uw organisatie werkt, welke processen en
systemen er gebruikt worden en laat u verrassen door de mogelijkheden en inzichten die verborgen
zitten in de data!
Over Topicus
Topicus is een ICT-dienstverlener met het hoofdkantoor in Deventer. In ruim 15 jaar is het bedrijf
gegroeid van 2 naar meer dan 600 medewerkers (begin 2016). Het ontwikkelt en beheert SaaSoplossingen in het Onderwijs, de Financiële dienstverlening, Zorg en Overheid. Met de dagelijkse
gegevensverwerking van miljoenen personen zijn de verschillende systemen van Topicus een
essentiële schakel in de Nederlandse samenleving.
Meer weten
over Topicus in
het algemeen of
DataZoo in het
bijzonder?
www.topicus.nl
www.datazoo.nl
[email protected]
[email protected]
+31 (0) 570 662 662
25
Wanneer gaat
uw organisatie
de sprong
maken?
datazoo