Leer in 10 minuten

  • Hoe je de juiste balans vindt tussen innovatie en het behouden van continuïteit voor je oude data-architectuur
  • Hoe ontkoppeling werkt en waarom het van belang is
  • Welke voordelen het oplevert als je stapsgewijs gaat ontkoppelen

Je organisatie heeft de knoop doorgehakt: het bestaande data warehouse wordt gemigreerd naar de cloud. Nu is het perfecte moment om oude denkwijzen los te laten en een ingrijpende architectuurverandering door te voeren. Logisch, want de cloud brengt mogelijkheden binnen bereik waar we vroeger alleen van konden dromen. Maar hoe pak je de migratie naar de cloud slim aan? Je wilt uiteraard direct waarde bieden met de migratie.

Daarvoor is het belangrijk dat je niet in oude valkuilen trapt. Het is niet wenselijk in het nieuwe dataplatform weer allerlei lagen te creëren waartussen data wordt gerepliceerd. Dat maakt het ontwikkelproces complex en inflexibel. Daarnaast is het van belang data en logica goed te scheiden, vanwege flexibiliteit en data governance eisen. Het belangrijkste uitgangspunt is echter dat de juiste balans vindt tussen innovatie en het behouden van continuïteit voor de oude gewenste informatie. Je wilt uiteraard de dingen die je eerst niet kon mogelijk maken. En je wilt natuurlijk de bestaande mogelijkheden binnen je huidige data warehouse behouden – mits ze nog waarde toevoegen. Maar hoe zorg je daarvoor?

De sleutel tot het succes is een perfecte ‘ontkoppeling’ tussen gegevensbronnen en informatieproducten als rapportages en dashboards. Die ontkoppeling bereik je niet zomaar, daar moet je wel iets voor doen. Bij een cloudmigratie van je data warehouse moet je goed nadenken over de logica in je architectuurlagen. Hoe je dat doet, leggen we je uit in dit artikel.

 

Continuïteit versus innovatie

Als een data platform naar de cloud gaat, is die migratie meestal onderdeel van een veel grotere cloudstrategie. Applicaties worden stapsgewijs vervangen door SaaS-oplossingen en andere applicaties worden gemigreerd of blijven voorlopig on-premise draaien. De meeste bedrijven bevinden zich jarenlang in een hybride situatie. In die periode worstelen ze vaak met het verplaatsen of vervangen van applicaties met zo min mogelijk impact en het combineren van data uit de oude on-premise wereld en de cloud.

Tegelijkertijd moet het nieuwe data platform zo snel mogelijk waarde bieden. Echte waarde, voor de eindgebruiker. Organisaties zijn voortdurend op zoek naar geschikte use cases die door de migratie naar de cloud mogelijk worden. De uitdaging is dat bij iedere use case een deel van de data die je daarvoor nodig hebt waarschijnlijk al in je oude omgeving staat en het andere deel komt uit nieuwe bronnen. Daardoor moet je tijdens de migratie voortdurend bepalen tot waar de oude omgeving voldoet en waar de cloud waarde gaat toevoegen.

Door databronnen en informatieproducten (zoals BI-tools) gestructureerd en logisch te ontkoppelen kun je veel van de uitdagingen bij een cloudmigratie vereenvoudigen. In plaats van objecten rechtstreeks te benaderen, zorg je met ontkoppeling voor een benadering via een logische implementatie van dat object. Zie het als een wegwijzer waar een vraag aan gesteld wordt en die precies aangeeft waar de data staat. Daardoor kun je verschillende applicaties zonder impact vervangen en verplaatsen. En de impact op de bestaande omgeving breng je terug tot een minimum. Bovendien wordt het mogelijk om eenvoudig data vanuit verschillende bronnen te combineren, ongeacht de technologie of de locatie van de bron.

 

Hoe werkt ontkoppeling?

Anders dan bij een klassieke data warehouse-omgeving ontkoppel je bij een cloudmigratie niet in fysieke lagen waartussen data wordt gekopieerd en getransformeerd om uiteindelijk aansluiting te vinden op de rapportages en dashboards. Bij de moderne manier van ontkoppeling zijn er geen vaste architectuurlagen zoals een operationeel data store, pre-staging area, staging area of data mart, maar bied je juist ruimte voor meerdere manieren van dataverwerking, fysiek of virtueel. Alle data komt uiteindelijk samen in een centraal informatiemodel. In onderstaande afbeelding zie je hoe dat werkt.

1. De ontkoppeling van databronnen gebeurt op basis van een ‘geïntegreerd dataoverzicht’, ongeacht techniek en locatie van de bron. Daarbij wordt niet één vaste aanpak afgedwongen. Het informatiemodel en dataoverzicht kunnen geheel virtueel opgezet zijn, maar ook gedeeltelijk fysiek en voor de rest virtueel. De drijvende kracht achter deze manier van ontkoppelen is datavirtualisatie. Deze technologie kan op deze manier optimaal benut en gecombineerd worden met historische data uit bronsystemen of een data warehouse.

 

2. Nieuwe databronnen worden met datavirtualisatie eenvoudig aangesloten en – gecombineerd met andere data – aangeboden. Of het nu gaat om big data, een webservice of een bestaand data warehouse. Deze moderne data-architectuur kenmerkt zich ook door de flexibiliteit in uitvoer. Alle business logica ligt immers vast in het centrale informatiemodel. Vanuit dit model kan informatie in allerlei vormen worden aangeboden. Via een webservice of API, een datalevering aan een externe partij of een virtuele data mart. Door data niet fysiek te integreren, maar virtueel, wordt het veel eenvoudiger om snel dataservices te ontwikkelen en te testen, ongeacht welk formaat. Van datasets voor data science en self service BI, tot complete API-bibliotheken.

 

Hoe pak je ontkoppelen slim aan?

Door te ontkoppelen met datavirtualisatie kun je werken aan de opbouw van een innovatief cloud platform, databronnen verplaatsen en/of migreren en toch de continuïteit blijven garanderen. Ben je dan klaar? Nee, maar je hebt wel de voorwaarden gecreëerd om te starten met de cloudmigratie. Er is geen universele aanpak voor ontkoppeling, want iedere organisatie heeft weer andere databronnen en BI-tools. Toch zien we dat veel organisaties die met succes naar de cloud zijn gemigreerd, de ontkoppeling stap voor stap hebben opgebouwd. Of eigenlijk use case voor use case. Dat levert je verschillende voordelen op. We zetten er vijf voor je op een rij:

 

1. Win tijd bij ontwikkelen en testen

Door de ontkoppeling met datavirtualisatie kun je de bronnen vervangen en/of verplaatsen en hoef je alleen de wegwijzer aan te passen. Je hoeft dus niet de hele datastroom opnieuw te implementeren. Dat scheelt veel inspanning bij het ontwikkelen en testen van je omgeving als je een use case uitwerkt. Door direct gebruik te maken van je oude data warehouse kun je veel sneller nieuwe use cases bouwen met de data die je al hebt. Je kunt je daardoor richten op de nieuwe data die je nodig hebt uit de cloudomgeving.

 

2. Lever eenvoudiger data aan eindgebruikers

Door nieuwe databronnen en bestaande databronnen gecombineerd aan te bieden via datavirtualisatie wordt het een stuk eenvoudiger om data te leveren aan je eindgebruikers. Je bent veel minder tijd kwijt om nieuwe dataleveringen te ontwikkelen dan in een traditionele (fysieke) omgeving. Je hoeft namelijk alleen te ontwerpen en te prototypen. Met datavirtualisatie worden alle vormen van informatiegebruik vanuit één uniform model ondersteund: standaardrapportages, vrije keuze in BI-tooling en het zelfstandig combineren en analyseren van data. Omdat de tabel virtueel is, zie je direct resultaat en kun je direct afstemmen met je afnemers of de informatie voldoet aan de eisen en wensen. Bijkomend voordeel is dat je kunt verbouwen terwijl de winkel voor je eindgebruikers openblijft.

 

3. Houd de wens in je organisatie levend

Je gebruikers zijn vaak ongeduldig en willen zo snel mogelijk zien wat de migratie naar de cloud voor hen betekent. Door de migratie op te delen in korte use cases, laat je snel resultaat zien en houd je de wens levend. Door stap voor stap verder te bouwen kan je bovendien inspringen op de actuele wens en zien de gebruikers vaker resultaat.

 

4. Combineer de cloud met het beste van je bestaande omgeving

Door te ontkoppelen kun je use cases op een hybride manier uitwerken en bouw je in de tussentijd aan een nieuw dataplatform. Je neemt nieuwe applicaties in de cloud in gebruik nemen en zet je stappen in de migratie. En door bestaande applicaties te gebruiken kun je veel bredere use cases aanbieden. Tijdens dit proces leer je ook welke databronnen je mogelijk liever naar de cloud wilt migreren en welke bronnen ook prima (voorlopig) on-premise kunnen blijven.

 

5. Houd continu zicht op performance en kosten

Het succes van een cloudmigratie wordt meestal bepaald door de keuze voor de juiste componenten en het juiste gebruik ervan. Door te werken met use cases wordt het eenvoudiger om de voortgang en het succes van je cloudmigratie te meten. De meeste cloud componenten bevatten mogelijkheden om deze voortgang inzichtelijk te maken en de juiste beslissingen te nemen.

 

Conclusie

Ontkoppeling met datavirtualisatie is uiteraard slechts één manier om je data-architectuur naar de cloud te migreren. Maar het is wel de haarlemmerolie: het is gedurende de migratie op heel veel plekken te gebruiken. Door datavirtualisatie kan je cloud dataplatform stap voor stap opgebouwd worden, blijven bestaande rapportages goed behouden én kunnen databronnen zonder problemen vervangen en/of verplaatst worden.

 

Waar zitten bij jullie de voordelen van ontkoppelen?