het meest recente magazine

Download Report

Transcript het meest recente magazine

Alles over innovatie in ICT

Jaargang 7, nr. 10 / 2016

Markt

Internet of Elevators & Escalators

Review Tintri’s Storage Quality of Service Energie Machine learning helpt Google energierekening met 40 procent verlagen

En verder

De opkomst van IPv6 | AMS-IX kiest nieuwe generatie switch-hardware | Een bezoek aan het Facebook’s validatie-lab | Juniper opent OpenLab testomgeving in Amsterdam | De highlights van Oracle OpenWorld 2016 | ‘Wij bieden een iPhone voor het datacenter’ | Een tijdmachine in het datacenter | www.cloudworks.nu

In samenwerking met

Cloud talk

HEt keNNiseveNt Over COMputerruiMtes, DataCeNters eN ClOuD COMputiNg

iT

ROOM iNfRA

2016

15 NOveMBer 1931 CONgresCeNtruM DeN BOsCh • BOuweN & BeveiligeN • MONitOreN & MaNageN • KOeliNg, POwer & CONNECtiviteit • eiNDgeBruiker aaN hEt wOOrD • OutsOurCeN Naar DataCeNter/ClOuD

Robbert Hoeffnagel

Samenwerking met BTG rond connectivity en de realtime enterprise

Gartner introduceerde al weer een aantal jaren terug de kreet ‘realtime enterprise’. Daarmee bedoelt het bedrijf dat alle data die een organisatie bezit of genereert per direct voor alle relevante gebruikers beschikbaar is. Een logische gedachte, maar men liep wel enigszins voor de troepen uit. Want we zien pas nu - pakweg 10 jaar later - dat dit concept ook daadwerkelijk wordt ingevoerd. Misschien komt het zelfs wel door de opkomst van een ander nieuw fenomeen - chat bots - dat de term ‘realtime enterprise’ weer volop op de agenda staat. Zeker nu aanbieders als SAP duide lijk aangeven dat het in een enterprise-omgeving werken met chat bots toch echt een realtime infrastructuur vereist.

telefoon of tablet. Soms met een 4G-verbinding en in andere gevallen via wifi van bijvoorbeeld een hotel of restaurant. Ik hoor dagelijks anekdotes van mobiele werkers die hier erg mee worste len. Bijvoorbeeld omdat hun werkgever hen een krap bemeten mobiel abonnement heeft gegeven, waardoor ze na verloop van tijd met ‘afgeknepen’ snelheden te maken krijgen. Of omdat zij uit kostenoverweging verplicht zijn in het buitenland ‘roaming’ uit te zetten en kunnen ze dus helemaal niet online. En van de snelheid en beschikbaarheid van wifi in hotels, restaurants of beurzen wordt volgens mij niemand blij. Maar zelfs de thuiswerker kan het lastig vinden om via een internetabonnement realtime te werken.

Actionable data

Realtime data beschikbaar stellen aan gebruikers is geen eenvou dige klus. Niet alleen moet data op het moment van genereren al centraal en voor andere applicaties vindbaar worden vastgelegd, het moet ook nog eens gaan om wat zo mooi heet ‘actionable data’. Met andere woorden: de gebruiker moet ook nog iets kunnen met die gegevens.

Connectiviteit

Opmerkelijk genoeg is connectiviteit misschien nog wel de groot ste uitdaging als het om de realtime enterprise gaat. Bij applicaties en sensoren die in een kantoor- of fabrieksomgeving actief zijn, zal het veelal nog wel lukken om deze per direct vast te leggen. Maar hoe gaan we daar mee om als we ook de zogeheten ‘extended enterprise’ bij een dergelijk project gaan betrekken? Medewer kers die onderweg zijn werken immers veelal via hun mobiele

Kennis verzamelen

Dit thema wordt de komende jaren alleen maar belangrijker. Daarom is CloudWorks een samenwerking aangegaan met de BTG. Deze Branchevereniging voor ICT en Telecommunicatie Groot gebruikers is dagelijks vanuit het perspectief van grote enterprise organisaties bezig met deze en andere telecom- en ICT-onder werpen. Gezamenlijk gaan we kennis rondom deze onderwerpen genereren, verzamelen en distribueren. Onder andere via het media- platform van CloudWorks: het magazine, de website, de e-mail nieuwsbrieven en uiteraard onze social media-kanalen. Deze maand brengen wij een eerste bijdrage vanuit de BTG: een blog van Jan van Alphen. Hij is voorzitter van de BTG en combineert deze functie met een board membership bij de International Telecommunications Users Group (INTUG). U vindt zijn bijdrage op pagina 42.

Robbert Hoeffnagel

Colofon

In

CloudWorks

staat innovatie centraal. Met traditionele ICT-omgevingen is het steeds moeilijker om de business goed te ondersteunen. Innovatieve oplossingen op het gebied van bijvoorbeeld cloud computing, mobility, Big Data, software defined datacenters en open source kunnen echter helpen om de IT-omgeving ingrijpend te moderniseren en klaar te maken voor de toekomst. Vragen over abonnementen: [email protected].

Uitgever

Jos Raaphorst 06 - 34 73 54 24 [email protected]

Twitter: https://twitter.com/RaaphorstJos LinkedIn: nl.linkedin.com/pub/dir/Jos/Raaphorst

Hoofdredacteur

Robbert Hoeffnagel 06 - 51 28 20 40 [email protected]

Twitter: https://twitter.com/rhoeffnagel LinkedIn: nl.linkedin.com/in/robberthoeffnagel Facebook: https://www.facebook.com/ robbert.hoeffnagel

Advertentie-exploitatie

Mike de Jong 06 - 10 82 59 93 [email protected]

Eindredactie/traffic

Ab Muilwijk

Vormgeving

Studio Kees-Jan Smit BNO

Druk

ProFeeling

Kennnispartners

BTG, CAA, Data Centre Alliance, EuroCloud Nederland, FHI, Green IT Amsterdam, NEN, SaaS4Channel ©2016 CloudWorks is een uitgave van FenceWorks BV. www.fenceworks.nl

CloudWorks - nr. 10 / 2016

3

Registreer u online voor een bezoek aan het event

Bekijk de deelnamevoorwaarden op de website

www.itrOOMiNfra.Nl

4 8

Tintri’s Storage Quality of Service

Het garanderen van goede storage prestaties in een omgeving met honderden virtual machines vormde vanaf de introductie van servervirtualisatie al een groot probleem. Dit omdat traditionele storage arrays technologie gebruiken die stamt uit de tijd van vóór de virtualisatie. De daarbij toegepaste storage architectuur was altijd gebaseerd op een 1-op-1 relatie tussen server/applicatie/storage.

18

De maatschappelijke rol van het datacenter

De verschuiving van computerruimtes naar data centers gaat in een razend tempo. Steeds meer bedrijven brengen hun IT-faciliteiten onder in een datacenter of cloud en nemen afscheid van hun eigen datacenters. Grotere bedrijven die belang hechten aan eigen faciliteiten (denk aan banken of overheidsinstellingen) centraliseren steeds vaker hun IT-faciliteiten. Het resultaat van beide ont wikkelingen is hetzelfde: de datacenters worden groter en groter. Hierdoor ontstaan er kansen om te investeren in duurzame technologieën waar de omgeving ook van profiteert. De eerste gemeentes schrijven hier al beleid voor.

20

Een bezoek aan het Facebook’s validatie-lab

Facebook is een bedrijf dat het leuk vindt om dingen te maken. Ze houden er van om te creëren. Dit is overal zichtbaar als je over de campus van het concern in Menlo Park loopt. De campus heeft zijn eigen Wood Shop en een Analog Research Laboratory waar medewerkers kunnen leren om hout te bewerken en creatief te zijn in de fysieke wereld. Ze willen van alles weten hoe het werkt. En daar willen ze open over zijn.

Alles over innovatie in ICT

36

Internet of Elevators & Escalators

Met een omvang die in 2020 naar verwachting rond 151 miljard dollar zal liggen, is het niet verwonderlijk dat veel IT-bedrijven steeds meer aandacht krijgen voor de markt voor zogeheten Industrial Internet of Things-toepassingen. De samenwerking die Huawei en Schindler onlangs sloten om gezamenlijk IoT software en -hardware te ontwikkelen voor liften en roltrappen is hier een goed voorbeeld van.

38

Machine learning helpt Google energie rekening met 40 procent verlagen

Machine learning en neurale netwerken kunnen een belangrijke rol spelen bij het verlagen van het ener gieverbruik in datacenters. Tot die conclusie komt Google na experimenten met het gebruik van Deep Mind - de AI engine die enige tijd geleden ook de wereldkampioen Go versloeg. Het resultaat? Er is in de datacenters van Google 40 procent minder energie nodig voor koeling.

En verder

6

Gregor Petri over Cheap Thrillls

12

De opkomst van IPv6

14

AMS-IX kiest nieuwe generatie switch-hardware

16

Juniper opent OpenLab testomgeving in Amsterdam

23

Blog Custom Connect

24

Het software-defined datacenter

26

De highlights van Oracle OpenWorld 2016

28

‘Het geloof in data begint dogmatische vormen aan te nemen’

30

‘Wij bieden een iPhone voor het datacenter’

32

Een tijdmachine in het datacenter

35

Blog bouwen aan de toekomst

40

Nieuws van EuroCloudNL

41

Legal Look

42

Blog BTG

www.cloudworks.nu

CloudWorks - nr. 10 / 2016

5

Tune into the Cloud

Gregor Petri

Cheap Thrills

Tune into: a faceless cloud

Lange tijd was productdifferentiatie het non-plus-ultra voor technologische oplossingen, maar sinds kort zien we - in een industrie die ongeveer even oud is als de cloud sector - een aantal leveranciers een diametraal tegengestelde strategie volgen. De industrie waar we het over hebben is de smartphone industrie, een sector die - na vroege pogingen zoals de Nokia 9000 (de ijskast) en de eerste RIM blackberries (waarmee je nog niet kon bellen) - pas echt van start ging met de introductie van de eerste iPhone. Dat was in juni 2007, iets meer dan een jaar na wat nu algemeen als het begin van de cloud gezien wordt, namelijk de lancering van Amazon’s S3 service in maart 2006.

De enige vraag die daarmee overblijft is: neem ik een 8-core, 6” voor 95 dollar of een 4 core 5” voor 50 dollar, allebei af fabriek voorzien van de laatste versie van Android. De genoemde (inder daad erg lage) prijzen zijn overigens geen wishfull thinking van deze schrijvende gadgetfreak, maar werkelijk in het wild aangetrof fen prijzen van gerenommeerde fabrikanten, zelfs inclusief BTW, invoer- en verzendkosten. Eigenlijk doen alleen de twee marktlei ders niet aan deze trend mee. Maar terwijl in de cloud zowel de leiders aan de bovenkant van de markt als de challengers aan de onderkant van de markt zich nog steeds proberen te differentiëren door dingen toch net weer anders dan de concurrent te doen, zien we aan de onderkant van de smartphone markt een ultieme hang naar standaardisatie. Een voor een stapt een groot aantal leveranciers van op Android gebaseerde telefoons namelijk over op het instaleren van plane vanilla Android. Geen speciale skins, geen verzameling bloatware en al helemaal geen eigen software. Voor gebruikers is er hierdoor nauwelijks meer sprake van een leercurve bij het wisselen van leverancier. Bovendien kunnen updates van de onderliggende open source software onmiddellijk - zonder noodzaak tot het her-aanbrengen van leveranciers specifieke aanpas singen - geïnstalleerd worden waardoor de telefoon veel minder snel zal verouderen en dus langer mee kan. Open source zoals het bedoeld was. Niet slechts om leveranciers een snelle start te geven voor het uitbrengen van een toch weer propriatary product, maar om gebrui kers een uitwisselbaar en standaard platform te geven. De vraag is of worstelende cloud leveranciers eenzelfde aanpak zouden moeten overwegen. Dus niet het aanbieden van een eigen - weliswaar op open source gebaseerde - unieke cloud oplossing die met heel veel geluk net 1 of 2 % marktaandeel haalt, maar in plaats daarvan een 100% ongedifferentieerde implementatie van een standaard platform. Een standaard platform dat - als je de omzet van al deze ‘commodity’ leveranciers optelt - misschien wel 20-30% marketaandeel haalt en waar klanten naadloos kunnen overstappen omdat niet alleen de API’s maar ook de geboden platform services (zoals databases, messaging en container scheduling) exact hetzelf de werken. Een hele stap verder dan wat we nu vaak zien met platform as a service producten, waarbij weliswaar het framework gestandaardiseerd is (bijvoorbeeld op basis van CloudFoundry) maar de onderliggende services zeker niet. Als het inderdaad deze kant op gaat dan zal ook voor cloud leveranciers de selectie steeds meer plaatsvinden op basis van pure specs, prijzen en... niet te vergeten op basis van datacenter locatie. Dit laatste wordt namelijk steeds belangrijker om te voldoen aan lokale eisen op het gebied van compliance, data residency en natuurlijk de steeds belangrijker wordende privacy.

Selectie in dit segment van de telefoonmarkt gebeurt daardoor steeds meer op basis van pure hardware specs. De functionaliteit is dankzij het gebruik van exact dezelfde software namelijk precies hetzelfde en ook de vormgeving is niet meer bepalend voor de keuze. Ze zien er namelijk allemaal uit als een egale zwarte glasplaat zonder knoppen aan de voorkant met een zelf gekozen hoesje tegen valschade aan de achterkant. Weliswaar kunnen sommige innovaties - zoals draadloos opladen, vingerafdruklezers en dubbele camera’s - misschien een jaartje later komen dan bij de marktlei ders, maar dan wel geïmplementeerd op een standaard manier en tegen significant lagere kosten.

6

Alles over innovatie in ICT

Cheap Thrills is in Nederland het bekendste nummer van Sia, de extreem populaire artiest die op Apple’s recente iPhone introductie - in jaar 9 - de muzikale uitsmijter voor haar rekening nam. Een artiest die er overigens voor heeft gekozen om deze populariteit niet direct aan haarzelf te verbin den, door bij alle publieke optredens van een anonimiserende standaard wit/ zwarte (faceless) pruik gebruik te maken. Dit doet namelijk wonderen voor haar privacy.

DE VOLWASSEN INFORMATIESAMENLEVING Het nieuwe normaal

Dit jaar bepaalt u zelf welke thema-route u bewandelt door onze volwassen informatiesamenleving.

ECP

17.11.2016

Fokker Terminal Den Haag Meld u gratis aan via

www.jaarcongresecp.nl

@Platform_ECP

Organisator: Partners: Platform voor de InformatieSamenleving

Seminar

“IPv6 is er. Wanneer zetten we IPv4 uit?”

Mede mogelijk gemaakt door:

Dinsdag 8 november 2016 Hoofdkantoor T-Mobile, Den Haag Meld u gratis aan via www.stipv6.nl.

Platform voor de InformatieSamenleving ECP adv. Cloudworks magazine.indd 1 30-09-16 11:32

Review

Tintri’s Storage Quality of Service

Het garanderen van goede storage prestaties in een omgeving met honderden virtual machines vormde vanaf de introductie van servervirtualisatie al een groot probleem. Dit omdat traditionele storage arrays technologie gebruiken die stamt uit de tijd van vóór de virtualisatie. De daarbij toegepaste storage archi tectuur was altijd gebaseerd op een 1-op-1 relatie tussen server/applicatie/storage.

Een ander probleem is de toegenomen complexiteit en beheerbaar heid van een grootschalige virtuele omgeving. In de hedendaagse omgeving met duizenden Virtual Machines (VMs) is het perfor mance- en beheerbaarheid probleem juist vanwege de pre-virtua lisatie technologie alleen nog maar toegenomen. De vraag is welke oplossingen er voor handen zijn en welke storage oplossing(en) het meest geschikt zijn voor een virtuele omgeving? Om een juiste keuze te kunnen maken uit de diverse nieuwe storage oplossingen is het verstandig om kennis te nemen welke oorzaak ten grondslag ligt aan de storage problemen binnen de virtuele omgeving.

Het I/O-blender effect

Het bleek vanaf het begin dat bij de toepassing van serversyste men in een virtuele omgeving er bottleneck problemen in het IO-systeem ontstonden. Dit staat bekend als het I/O-blender

8

Alles over innovatie in ICT effect en is het gevolg van de wijze waarop hypervisors bij virtuele platformen opereren. Het I/O-blender effect kwam al eerder aan het licht bij servervirtualisatie waarbij nog slechts een tiental VMs door de hypervisor werden gemultiplext. Echter, met de komst van desktop virtualisatie waarbij vele honderden, zo niet duizenden, virtuele desktops op meerdere servers kunnen draaien, nam dit verschijnsel exponentieel toe; voornamelijk bij gemixte workloads waarbij databases een heel ander I/O profiel (en block size) hebben dan VDI, Exchange, SAP of Sharepoint.

{

‘ De directe verbinding tussen de VM en een virtuele disk op het Tintri storage systeem, in plaats van een LUN, voorkomt de bekende I/O-blender’

Naast de traditionele VMs, werd dus ook de virtuele desktop omgeving geconfronteerd met een slechte I/O performance. Belangrijke oorzaken zijn onder meer het random karakter van VMs met zijn sterk wisselende read/write werkbelastingen, optre dende boot storms en antivirus scans. Ernstige ‘storage contention’ is daarvan het gevolg omdat de talrijke virtuele systemen voor hun IOPs vanuit een en dezelfde storage pool moeten gaan meedingen. Het aantal beschikbare IOPs per virtueel systeem neemt dan af en daardoor ook de response time tussen het operating- en het storage systeem. Voor sommige applicaties en virtuele systemen vormen de verminderde IOPs geen probleem maar voor andere veeleisende applicaties wel. Helaas bieden de traditionele storage systemen met hun LUN/Volume-gebaseerde indeling van de storage capaciteit geen methode om onderscheid te kunnen maken tussen de diverse virtuele systemen en de toebedeling van IOPs aan VMs.

Sommige nieuwe type storage controllers bieden wel de mogelijk heid om een bepaald percentage van de cpu controller aan een volume of LUN toe te wijzen. Met de komst van flash-gebaseerde storage arrays en met behulp van storage tiering software kunnen nu ook VMs, automatisch of handmatig, naar de verschillende LUN-gebaseerde storage lagen (flash, fixed disks en tape) worden gemigreerd. Op die manier is het storage systeem in staat om speci fieke VMs van de benodigde hoeveelheid IOPs te voorzien.

daarentegen heeft een storage architectuur ontworpen waarbij dit op de storage controller op basis van virtuele disks, in plaats van op LUN/Volume-niveau, wordt geregeld.

Tintri All-Flash en Hybrid-Flash Array

De firma Tintri biedt twee modellenreeksen, de Tintri VMstore T5000 All-Flash Series en de VMstore T800 Hybrid-Flash Series. Van de laatste kreeg de firma IT-TrendWatch de beschikking over de VMstore T880 voor evaluatie. De T5000 Series bestaat uitslui tend uit Solid Stated Disks (SSDs) met een maximum opslagca paciteit van 308 TB (model T5080). De door IT-TrendWatch geëvalueerde T880 bestaat uit 13 x 6 TB SATA drives en 11 stuks Intel SDDs van 800 GB; de totale bruto capaciteit bedraagt 112 TB, effectief is dit echter 51 TB. De T880 disk array ondersteunt maximaal 3.500 VMs en 10.000 virtuele disken (vDisks). De T800 series ondersteunt HDD-gebaseerde datacompressie. In combinatie met zero-space cloning zijn besparingen tot 1.95x te bereiken. De koppeling aan netwerken vindt plaats per controller met redundan te 10Gbe SFP+ of koper connecties. Daarnaast bestaan er redun dante admin en replicatie 1 GB NICS op elke Tintri VMstore.

Het fundamentele probleem met storage-gebaseerde QoS, of dat nu all-flash, hybride of traditionele storage arrays zijn, is dat ze nog steeds een vaste controller architectuur nodig hebben voor het beheer en priorisatie van de inbound read/write I/O requests die afkomstig zijn van meerdere VMs. We zien op welke wijze met de T880 Hybrid Flash array de gewenste QoS is te configureren en of deze QoS bij een zware belasting kan worden gegarandeerd. In onze proefopstelling draaiden we op de Tintri T880 een tiental VMs onder VMware vCenter, waaronder: Windows 2008/2012, CentOS, XenDesktop, VMware Virtual Center, Composer, Connection en Windows 7/8.

Storage QoS, meestal uitgedrukt in gegarandeerde IOPs, zorgt er voor dat applicaties altijd over een bepaald aantal IOPs de beschik king kunnen hebben. De verschillende type storage media bieden echter een ‘schijn’ Quality of Service (QoS) op basis waarvan Service Level Agreements (SLAs) worden gedefinieerd die in de praktijk vaak niet kunnen worden nagekomen. Dit komt hoofd zakelijk doordat QoS op LUN/Volume niveau worden toegepast. Dat biedt nog steeds geen garantie dat elke VM binnen de LUN/ Volume ook daadwerkelijk de IOPs krijgt die gewenst zijn voor het halen van een optimale performance. Fundamenteel zijn het allemaal ‘bottom up’ benaderingen bij de ondersteuning van QoS. Met andere woorden, ze priorisen de storage I/O nádat ze door de host of VM zijn ontvangen. Wat nodig is, is een end-to end technologie waarbij de storage I/O-eisen op de host of op VM-niveau kunnen worden geregeld. Sommige leveranciers zijn de mening toegedaan dat storage QoS op VM-niveau beter kan worden geïntegreerd via de host of de hypervisor. De firma Tintri

Architectuur Tintri Array

Het op Linux gebaseerde Tintri Operating System ondersteunt talrijke storage features, waaronder: replicatie, encryptie en synchronisatie. De storage array bezit twee controllers (active standby) ter ondersteuning van failover. Elke controller bezit twee 10 GbE (RJ-45) poorten voor datatransport en twee 1GbE voor replicatie. De ondersteunde hypervisors zijn: VMware vSphere 5.x en 6.x (NFS), Red Hat Enterprise Virtualization 3.4 (NFS), Micro soft Hyper-V 2012 (SMB3), XenServer 6.5 (NFS) en OpenStack 2014 2.x (Juno) en desktopvirtualisatie voor VMware Horizon en Citrix Desktop.

Tintri Analytics

Tintri Analytics is een SaaS voorziening, gebouwd op basis van Tintri’s VM-aware storage (VAS). Het voorspelt de storage- en

9

CloudWorks - nr. 10 / 2016

Review

prestatie behoeften op basis van historische data van gevirtuali seerde applicaties. Het maakt gebruik van big data technologieën als Apache Stark en Elastic Search om grote hoeveelheden data, afkomstig van maximaal 160.000 VMs, binnen een seconde te verwerken. Op basis daarvan zijn exact de capaciteit, prestaties en doorvoer te voorspellen. Maximaal drie jaar aan historische data kan per VMstore worden bewaard. Hiermee kunnen what-If scenario’s worden uitgevoerd waarbij men op basis van real life workloads allerlei groeiscenario’s op basis van bestaande VMstores kunnen worden gemodelleerd.

Het Tintri Global Center (TGC) menu laat de drie kern presta tiemeetwaarden zien van alle actieve VMs: IOPs, Throughput en Latency. Het laat het percentage IO zien uit flash van maximaal 32 VMstores. Van elke VM is de tijd ze zien die een VM er over doet om een data request van het storage systeem af te handelen. Daarnaast laat TGC ook de hoeveelheid performance zien die er nog beschikbaar is op basis van IOPs/Throughput van de totale hoeveelheid VMstores.

Figuur 1: VMstore User Interface

genormaliseerde IOPs een accurate en voorspelbare methode voor chargeback-gebaseerde resources in een gevirtualiseerde data center.

Met Tintri VMstores zijn, in plaats van op LUN niveau, op VM-niveau QoS en SLAs te definiëren. Met Tintri Storage QoS, uitgedrukt in IOPs, kunnen zowel een minimum als maximum waarde worden ingesteld. Beheerders kunnen daarmee effectief hun VM bronnen voor een bepaald serviceniveau en chargeback definiëren. Met de TGC management software is de complete storage omgeving, variërend in grootte van 17 TB tot meer dan 10 PB, te beheren. Daarbij kunnen maximaal 32 VMstores in een enkele federated storage pool worden opgenomen. De storage management software biedt data protectie en QoS per Service Group (SG) van VMs. Deze SG-gebaseerde policies worden voor zowel data protectie als QoS per VM aan een VM gekoppeld. Bij verplaatsing van een VM naar een andere VMstore verhuizen de SG policies dan gewoon mee.

Minimum en Maximum IOPs instelling

De default QoS policies voldoen voor het merendeel van de applicaties. Maar voor bepaalde kritische applicaties kan het nodig zijn om de maximum- en minimum QoS instellingen aan te passen om bepaalde SLAs te kunnen garanderen. De maximale instel ling specificeert de maximaal genormaliseerde IOPs die een VM mag halen. Om een aantal redenen kan de maximale instelling worden aangepast, bijvoorbeeld VMs die meer IOPs vragen dan dat ze in feite nodig hebben. Let wel, de maximum waarde kent een limiet want bij een te hoge waarde kunnen VMs hiervan extra throttle latency ervaren; bijvoorbeeld wanneer de VM gelimi teerd is tot 1000 IOPs maar de VM eigenlijk 1500 IOPs wil. De minimum instelling specificeert het deel van de VMs resources bij een overbelast systeem. Deze instelling biedt een extra garantie bij overbelasting van het systeem en ook de garantie dat de betreffende VM de minimaal benodigde QoS krijgt.

Het aantal VMs met een minimum IOPs instelling moet wel in overeenstemming zijn met het aantal ondersteunde genormaliseerde IOPs van elk type Tintri model. Minimale QoS zal in de praktijk alleen relevant zijn voor een kleine hoeveelheid VM’s. Dynamisch zorgt Tintri’s filesysteem ervoor dat elke VM de hoeveelheid resources krijgt wanneer ze nodig zijn.

Figuur 2: Tintri Global Center menu

Tintri Quality of Service

Het doel van elke QoS voorziening is de verzekering dat een bepaalde VM of applicatie toegang krijgt tot bepaalde resources, onafhankelijk of andere VMs daar ook een beroep op doen. QoS is beschikbaar op basis van cpu, netwerkbandbreedte en storage performance. IOPs betekent echter voor de verschillende operating systems wat anders. Het aantal IOPs is mede afhankelijk van de block-grootte van het gebruikte file system. Binnen TGC worden IOPs genor maliseerd tot 8KB per IO. Bij niet genormaliseerde IOPs kunnen VM resources verschillende block-groottes voor reads en writes hebben waardoor het onmogelijk wordt om een objectieve verge lijking te maken tussen de prestaties van VMs. Bovendien bieden

10

Alles over innovatie in ICT

Figuur 3: Maximum en Minimum QoS instelling

Epiloog

Tintri’s VMstore storage arrays, VMstores genaamd, vormen de nieuwe generatie storage systemen die speciaal ontwikkeld zijn voor toepassing in virtuele omgevingen. De directe verbinding tussen de VM en een virtuele disk op het Tintri storage systeem, in plaats van een LUN, voorkomt de bekende I/O-blender. De fijnmazige regeling van het gewenste aantal IOPs per VM biedt een garantie dat de vereiste SLA in de praktijk kan worden waarge maakt. Daarnaast ondersteunt VMstore de gebruikelijke storage features als synchronisatie, replicatie, encryptie, space reduction en een snelle VM cloning op een per VM basis.

Bram Dons, IT-Trendwatch

Tintri Scale-Out

Tintri’s VAS biedt een storage scale-out mogelijkheid voor de uitbreiding van een enkele 17 TeraByte all-flash VMstore array tot meerdere arrays die maximaal 10 PB storage capaciteit bieden en ondersteuning van 160.000 VMs. All-flash en hybride storage array’s kunnen beide in een gemeenschappelijke storage pool worden opgenomen. VAS is een loosely coupled ontwerp met een gescheiden control- en data flow wat garant staat voor low latency bij toepassing van een groot aantal storage nodes. Op basis van een dertig dagen historie geeft een ingebouwd intelligent monitoring systeem adviezen over de groei en optimale plaatsing van elke VM.

Latency

Latency bestaat uit host-, netwerk- en storage latency. Host latency is de tijd die een VM IO op de hypervisor host spendeert, netwerk latency de tijd van VMs IO op het netwerk. Storage latency is de tijd die een VMs IO op de Tintri VMstore besteedt. Die kan nog verder worden opgesplitst in contention, flash en disk latency. Contention latency ontstaat wanneer een gebruiker systeemprestaties overvraagt (overprovisioning). Een manier om dit te voorkomen is de minimale genormaliseerde IOPs voor de betreffende VM te verhogen. Flash latency is de vertraging die VMs ondervinden bij read/write IOs op de VMstore. Disk latency bij Hybrid array’s ontstaat bij een flash miss. Die treedt op wan neer data niet meer in flash aanwezig is en vanaf een hard disk moet worden opgehaald. De instelling van een maximum IOPs voegt latency toe en vertraagt een VM.

LUNs versus virtuele disken

Traditionele LUN-gebaseerde (Logical Unit Number) storage arrays zijn destijds niet ontworpen voor virtuele toepassingen. In de traditionele storage omgeving heeft elke applicatie of database zijn eigen LUN van een bepaald type RAID (op basis van snelheid, betrouwbaarheid en kosten). Zo zal bijvoorbeeld een Oracle database zijn geconfigureerd met RAID 5 voor data- en temp-bestanden, redo files met RAID1 en een SQL server met VMs zal weer van RAID 10 gebruik maken. Naarma te de gevirtualiseerd omgeving in omvang groeit, zal het vin den van de gewenste type LUN met een bepaalde type RAID voor elke verschillende applicatie en database steeds lastiger worden. Het bijhouden van welk type VM op welke LUN en de voortdurende overweging welke RAID type, de gewenste responste tijd en lage latency, maken het beheer tijdrovend; de zogenaamde ‘spreadsheet hell’ ontstaat in het bijhouden van alle veranderingen.

Elke LUN heeft één I/O queue naar de controller waarbij de I/O op basis van FIFO (First In First Out) wordt afgehandeld. Door meerdere workloads op een LUN te installeren zal bij een hogere controller belasting de I/O queue eerder vollopen. Ge voelige workloads hebben dan niet genoeg tijd voor de afhande ling waardoor op die VM’s een hogere storage latency waar te nemen is. Bij de op traditionele LUNs geïnstalleerde VMs krijgt elke VM resource dezelfde LUN en dus dezelfde storage QoS; VMs met dezelfde QoS-eisen kunnen natuurlijk wel in één LUN worden opgenomen. Maar bij een toenemend aantal VMs zullen de prestaties afnemen omdat QoS op LUN-niveau is bepaald en niet op VM-niveau. Tintri verdeelt, ongeacht de toegepaste hypervisor, de VMs op virtueel disk niveau. Dat biedt de garantie dat voor elke VM de gewenste storage QoS kan worden ge haald.

Figuur 5: End-to-end latency per VM Figuur 4: Storage I/O-blender

CloudWorks - nr. 10 / 2016

11

IPv6

Seminar op dinsdag 8 november

De opkomst van IPv6

Iedereen kent het Internet: het netwerk van netwerken dat iedereen in de wereld met elkaar verbindt. Wat weinigen zich realiseren is dat het inter net groot geworden is gebaseerd op een experimenteel protocol: TCP/ IP oftewel IPv4. Het idee achter IPv4 was dat het een experiment zou zijn, en dat als het werkte er een productie-versie ontworpen zou worden. Het experiment was echter zo’n succes dat iedereen er mee aan de slag ging. Na meer dan 30 jaar IPv4 is het nu toch echt tijd voor het ‘echte’ internet: IPv6.

Toen IP - het Internet Protocol - eind jaren ‘70 werd ontworpen, kon niemand zich voorstellen op wat voor manier het internet tegenwoordig gebruikt wordt. Het was de tijd van mainframes en minicom puters. De PC bestond nog niet, laat staan mobiele computers op zakformaat. Ethernet was net bedacht en het zou nog 15 jaar duren voordat GSM en Wifi zouden worden uitgevonden. Weinig technologie uit die tijd werkt nog exact als toen, maar het IPv4 protocol heeft stand gehouden.

IPv6-gebruikers wereldwijd

12

Alles over innovatie in ICT

IPv4 schiet tekort

Toch was begin jaren ‘90 al te zien dat IPv4 tekort zou schieten. Het internet was wereldwijd een succes en met 4,3 miljard adressen was het niet genoeg om de snel groeiende wereldbevolking aan te sluiten, laat staan al hun devices. Tijd dus om aan de productie-versie van het IP-protocol te gaan werken. Er zijn een aantal voorstelen gedaan, en uiteindelijk is er één voorstel dooront wikkeld. Eind jaren ‘90 was de basis klaar van het nieuwe internet protocol: IPv6.

Dat toen niet iedereen meteen gemigreerd is, komt doordat iedereen inmiddels aan IPv4 ‘verslaafd’ is geraakt. Ondanks dat we wisten dat het niet goed genoeg was om mee verder te gaan, bleef toch ieder een er aan vasthouden. Liever een work around bedenken dan overstappen op een volwassen protocol. Het adrestekort werd opgevangen door adressen efficiënter te verdelen en door meerdere apparaten van hetzelfde adres gebruik te laten maken. Uiteindelijk hebben we het zo nog lang volgehouden, maar in 2011 was de bodem toch bereikt.

IPv4 kunstmatig in leven houden

In 2011 raakte de centrale voorraad van ongebruikte IPv4 adressen op. De regio nale distributiecentra konden daardoor niet meer bevoorraad worden. Dat zorgde er voor dat in september 2012 het distributie punt voor Europa, RIPE NCC, door zijn normale voorraad heen was. Er is nog een kleine voorraad IPv4 adressen om nieuwkomers nog een kans te geven op het IPv4 internet, maar voor normaal gebruik is het op.

Dat het internet toen niet is ingestort, komt door marktwerking: iets dat schaars is, is geld waard. Iedereen die nog ongebruikte IPv4 adressen heeft kan daar goed geld aan verdienen. Een IPv4 adres is nu tussen de e 10 en e 15 euro per stuk waard. Een bedrijf dat in de begindagen van het inter net, toen het nog echt een experiment was en er niet moeilijk werd gedaan, een blok van 65.000 adressen heeft gekregen kan daar nu dus een klein miljoen voor krijgen. Op deze manier wordt de laatste lucht uit het systeem geperst, maar op een voor de gebruikers kostbare manier.

Om deze nu dure IPv4 adressen zo efficiënt mogelijk in te zetten, worden deze tegen woordig niet zomaar meer aan klanten gegeven. Grote internet providers zoals Ziggo houden deze adressen centraal en laten hun klanten adressen met elkaar delen. En dat maakt een groot verschil, zowel voor de gebruikers als voor de diensten die ze gebruiken. Zonder eigen adres kan de gebruiker opeens geen eigen server op IPv4 meer draaien, en de dienstverlener raakt het zicht op de bezoekers kwijt, waardoor advertentie-inkomsten dalen en beveiliging moeilijker wordt.

{

‘ IPv6 lost het adrestekort van IPv4 op, niets meer en niets minder’ IPv6 bloeit op

En daarmee komen we bij de noodzaak voor IPv6. IPv6 brengt niet veel nieuws. Het is niet sneller of veiliger dan IPv4. Er zijn geen super-features. IPv6 lost het adrestekort van IPv4 op, niets meer en niets minder. Daardoor kan IPv6 verder waar IPv4 langzaam ten onder gaat aan de noodmaatregelen die nodig zijn om het in leven te houden.

Met IPv6 kan een thuisgebruiker zoveel servers draaien als hij/zij wil, kunnen alle Internet-of-Things devices hun eigen adres krijgen, en krijgen dienstverleners weer grip op hun gebruikers. Voor de internet provi ders zorgt IPv6 er voor dat hun gebruikers minder gebruik maken van IPv4, wat besparingen oplevert op de kosten van de adressen en de apparatuur die nodig is om die adressen tussen hun klanten te delen.

En nu de providers IPv6 aan klanten leveren wordt het ook interessant om diensten over IPv6 aan te bieden. Grote websites zoals Google, YouTube, Netflix en LinkedIn doen dat al jaren. Met de toename van het aantal IPv6 gebruikers bij onder andere KPN, Ziggo, XS4ALL, Solcon en Zeelandnet wordt IPv6 onder steuning ook voor Nederlandse aanbieders belangrijk. Een mooi recent voorbeeld daarvan is de Rabobank die zijn website en online bankieren applicaties deze zomer geschikt heeft gemaakt voor IPv6.

Netwerken met twee gezichten

Steeds meer netwerken zijn tegenwoordig dual-stack: ze gebruiken zowel IPv4 als IPv6 naast elkaar. Het is dus niet zo dat de komst van IPv6 onmiddellijk zorgt voor het verdwijnen van IPv4. Het onderhouden van twee protocollen levert echter extra werk op, en dus wordt er hard gewerkt aan technieken om definitief afscheid te nemen van IPv4.

De datacenters van Facebook zijn bijvoor beeld intern volledig gebaseerd op IPv6. Voor mobiele dataverbindingen wordt in bijvoor beeld Amerika veelvuldig gebruik gemaakt van netwerken met alleen IPv6 in combinatie met een vertaaldienst om toch IPv4 websites te kunnen bereiken. Vandaar ook dat Apple sinds deze zomer ondersteuning van IPv6 verplicht stelt voor alle applicaties die in de App Store aangeboden worden.

Afscheid

Door al deze ontwikkelingen gaat de uitrol van IPv6 sneller dan menigeen verwacht. De grootste websites in de wereld onder steunen al jaren IPv6. In België is het percentage van huishoudens met IPv6 binnen drie jaar van enkele procenten gestegen naar bijna 50%. Grote Ameri kaanse internet providers hebben al meer IPv6 dan IPv4 verkeer op hun netwerken. Recent heeft Microsoft IPv6 ondersteuning voor Azure aangekondigd en zelfs traditi oneel conservatieve ondernemingen zoals banken gebruiken IPv6.

Wanneer is de tijd aangebroken om met z’n allen afscheid te nemen van IPv4?

Sander Steffann is bestuurslid van de Stichting IPv6 Nederland

Seminar op dinsdag 8 november 2016

De Stichting IPv6 Nederland organiseert op dinsdagmiddag 8 november 2016 een seminar bij T-Mobile in Den Haag waarbij een aantal belangrijke vragen worden beantwoord. Ook worden de ervaringen van organisaties die al met IPv6 werken belicht. Na afloop begrijpen de deelnemers aan het seminar welke stappen gezet moeten worden om IPv6 in hun ICT-omgeving te integreren. Inschrijven voor dit gratis seminar kan via www.stipv6.nl/inschrijving- seminar-8-11-2016 CloudWorks - nr. 10 / 2016

13

IPv6-gebruikers in België en Nederland

Strategie

Om groeipotentieel van Internet Exchange verder te vergroten

14

AMS-IX kiest nieuwe generatie switch-hardware

In verband met de aanhoudende groei van het data verkeer via ons platform, moet AMS-IX altijd klaar zijn voor de toekomst. Daarom kijken we constant naar mogelijkheden om ons groeipotentieel verder te ver groten, geheel in lijn met onze hoge eisen en normen. Momenteel is de meest dringende eis het opschalen van de (100GE) poortdichtheid van de switches die deel uitmaken van het AMS-IX platform. We hebben vastgesteld dat de verbon den klantencapaciteit op het platform op 100GE hoger is dan bij 10GE en we verwachten hier een verdere groei. Naast de poortdichtheid hebben we nog een belangrijke eis: het verlagen van het energieverbruik en de kosten. In vergelij king met de originele 100GE-implemen taties op basis van SFP is een verlaging met een factor 7 voor elke 100GE-poort haalbaar als we gebruik maken van QSFP28 optische transceivers.

Henk Steenman

De oplossing - en meteen een upgrade - van de kern van het AMS-IX netwerk begint medio november 2016 en zal worden verzorgd door het Brocade SLX platform. De belangrijkste reden voor de keuze van dit platform zijn de specificaties die zeer goed aansluiten bij onze eisen en een exacte of zelfs betere match vormen dan het aanbod van andere leveranciers. Onze lange en bijzonder goede relatie met Brocade heeft bij deze beslissing vanzelf sprekend ook een rol gespeeld.

Evolutie van het AMS-IX platform

In 2012 heeft AMS-IX de eerste 100GE geïnstalleerd aan de kant van de afnemers. In de tussentijd waren we al begon nen met de upgrade van de interswitch links in de Amsterdamse stadsregio van 10GE lags naar 100GE of 100GE lags. Op dat moment maakten we gebruik Alles over innovatie in ICT van de Brocade MLXe-16 of MLXe-32 en de optische transceivers CFP-LR4 of CFP-LR10. Sinds dat moment hebben de 100GE optische transceivers zich ontwikkeld van de CFP form factor met een typisch verbruik van 24 W voor LR4 types via CFP2-LR4 (8 W) naar nu QSFP28-LR4 (3,5 W). Dat is een besparing in energie verbruik met bijna een factor 7. In dezelfde tijd is de poortdichtheid met een factor 2 vergroot met de migratie van CFP naar de CFP2 form factor (op basis van hetzelfde chassis). Door gebruik te maken van de QSFP28 form factor wordt de poortdichtheid met een factor 8 vergroot op dezelfde fysieke ruimte of met een factor 4 op een chassis dat slechts de helft van de ruimte van een MLXe-32 in beslag neemt. In hetzelfde tijdsbestek is ook nog eens de prijs van een 100GE interface plus optische transceivers gedaald met een factor 10.

{

‘ Naast de poortdichtheid hebben we nog een belangrijke eis: het verlagen van het energie verbruik en de kosten’

besloten dat we voor de volgende generatie van het platform bij Brocade zouden blijven. De belangrijkste reden hiervoor was dat de specificaties van het Brocade SLX platform overeenkwamen of zelfs beter waren dan wat de anderen te bieden hadden en zeer goed bij onze eisen pasten. Daarnaast heeft onze bijzonder goede relatie met Brocade aan deze beslissing bijgedragen. SLX9850-chassis en de backbone links naar deze switch migreren, terwijl we het dataverkeer verdelen over de resterende interswitch links. Wanneer er na een bepaalde termijn geen problemen optreden met de SLX9850 in productie, zullen we de resterende core-switches vervangen waarna alle problemen met 100GE poortdichtheid in de backbone voor de komende jaren verleden tijd zullen zijn. Deze hele operatie zal resulteren in een aanzienlijke verlaging van de operationele kosten, omdat we minder ruimte en minder dark fibers voor de core nodig zullen hebben.

Tijdelijke oplossingen

Zoals eerder aangegeven moesten we de 100GE interfaces op het IX-platform al vroeg nadat de 100GE gebaseerde produc ten op de markt verschenen, aanpassen op zowel de klantverbindingen als de interswitch links tussen de toegangspunten en de core-switches. Omdat we moeite hadden met de lage 100GE dichtheid per chassis hebben we de afgelopen twee jaar tijdelijke oplossingen moeten implemen teren: Vanaf het begin van de ontwikkeling van het SLX-platform hebben we onze eisen met Brocade besproken. Er heeft een groot aantal ontmoetingen tussen Brocade en AMS-IX technici plaatsgevonden om er zeker van te zijn dat onze eisen al in de eerste versie van het product werden nagekomen, zodat we het vanaf de eerste dag konden gebruiken. AMS-IX technici hebben de SLX in het Brocade CAT-lab in juni en augustus 2016 getest. We konden tevens een test doen in het AMS-IX lab in Amsterdam. Op basis van deze resulta ten zullen we medio november het eerste nieuwe chassis implementeren.

• We plaatsten meer core-locaties en switches om de belasting per core-switch te verminderen.

AMS-IX lab

In de tweede helft van 2017 verwachten we enkele toegangsswitches naar het SLX9850 platform te migreren, vooral op de locaties waar een hoge dichtheid aan 100GE consu mentenpoorten aanwezig is.

We hebben bovendien in het AMS-IX lab in Amsterdam sinds juni de beschikking over een 4-slot SLX-chassis. Dit wordt gebruikt voor lokale testen en voor het program meren van onze beheersoftware voor het nieuwe platform. Dit laatste is nodig omdat niet alleen de hardware compleet nieuw is, maar ook het besturingssysteem.

• We plaatsten daarnaast meer toegangsswit ches om de toenemende eisen aan de 100GE toegangspoorten te verwerken.

Beide tijdelijke oplossingen gingen ten koste van de efficiëntie, omdat we meer energie en ruimte verbruikten dan we voor ogen hadden.

Implementatie

Onze eerste toepassing van het SLX9850 platform zal in de core van het platform plaatsvinden. In verband met de hierboven genoemde beperking van de dichtheid hebben we drie jaar geleden twee extra core nodes op twee verschillende locaties toege voegd. Met het SLX9850-platform gaan we dit terugbrengen tot de twee oorspronkelijke locaties waar we voor redundantie elk twee chassis zullen toepassen.

Henk Steenman is CTO van AMS-IX

Onderzoek

In deze periode hebben we naar verschillende producten gekeken die op de markt versche nen of bij verschillende leveranciers op de roadmap stonden. Op basis van onze evalu atie van dit onderzoek hebben we al in 2014 We verwachten de eerste implementatie van de SLX8950 medio september tot november 2016 te kunnen uitvoeren. Na verdere uitgebreide testen zullen we een van de huidige cores vervangen door een

15

CloudWorks - nr. 10 / 2016

Strategie

Netwerkaanbieder voorziet tekort gekwalificeerde netwerk-professionals Juniper opent OpenLab testomgeving in Amsterdam

De kreet ‘disruptie’ verandert meer en meer van hype in werkelijkheid, vertelde chief marketing officer Mike Marcellin van Juniper Networks tijdens een gesprek in Londen. “IT moet absoluut flexibeler en sneller re ageren op de eisen van de business.” Dat lukt echter niet als de onderliggende netwerken op traditionele wijze ontworpen en beheerd worden. “Alleen IT-afde lingen die hun netwerkomgeving nadrukkelijk auto matiseren kunnen de business nog bijhouden. Maar dan hebben we wel een probleem”, meent Marcellin. “De skill sets van klassieke netwerk-professionals voldoen namelijk niet meer als we maximaal gebruik van automation gaan maken.” Uit onderzoek dat Juniper heeft laten uitvoeren door Loudhouse Research blijkt dat 1 op de 5 business managers van mening is dat 50 procent of meer van de IT-professionals van hun organisatie niet over de opleiding en ervaring beschikt die zij de komende vijf jaar nodig zullen hebben. Gevraagd naar hun belangrijkste proble men op IT-gebied, geven deze business managers als belangrijk ste probleem een gebrek aan budget aan, direct gevolgd door te wensen overlatende ‘employee skill sets’.

Onvermogen omzeilen

Uit hetzelfde onderzoek komt naar voren dat ‘shadow IT’ hierdoor wel eens meer zou kunnen zijn dan enkel eigen personeel dat liefst met eigen smartphones en dergelijke wil werken. Het zijn juist ook business managers die doelbewust gebruik maken van shadow IT om daarmee het onvermogen van de eigen IT-afdeling om bepaalde functionaliteit beschikbaar te stellen te omzeilen.

OpenLab Amsterdam

Marcellin ziet hierin zowel een kans als een bedreiging voor zijn eigen werkgever. Juniper is natuurlijk groot geworden in een wereld waarin nog op vrij klassieke wijze netwerken werden ontworpen en beheerd. Maar business managers die met het bestaande netwerk en de kwaliteiten van hun eigen netwerkma nagers niet meer uit de voeten kunnen, leveren natuurlijk wel een - zeg maar - uitdagende situatie op voor deze netwerkaanbieder. Daar reageert het bedrijf op door zijn Amerikaanse OpenLab nu ook in andere landen op te zetten. Zo ook in Amsterdam.

Testomgeving

Met OpenLab kunnen netwerkmanagers en netwerk professionals gebruik maken van een testomgeving waar zij allerlei Juniper- en andere producten kunnen uitproberen. Tot voor kort bestond er alleen een dergelijk lab in New Jersey, maar daar komt nu dus verandering in. Met name automation speelt in de labs een belang rijk rol. Maar ook kunnen bedrijven er bijvoorbeeld de impact van het gebruik van bepaalde open source-software op hun netwerk omgeving onderzoeken.

Mike Marcellin (Juniper Networks) maakt zich zorgen over het feit dat veel bedrijven aangeven te weinig gekwalificeerd netwerkpersoneel in dienst te hebben.

16

Alles over innovatie in ICT

Gatekeepers

Marcellin was een van de sprekers tijdens een event van Juniper Networks in Londen. De bijeenkomst stond vooral in het teken van Software-defined Networking (SDN) en Network Function Virtualization (NFV), al of niet in een OpenStack-omgeving. Rami Rahim, CEO van Juniper, greep dit event daarnaast aan om een pleidooi te houden voor een security-aanpak waarbij iedere component in het netwerk een rol en taak heeft als het gaat om het detecteren van afwijkend gedrag en waarbij iedere compo nent tevens in staat is maatregelen tegen deze anomalie te nemen. “Security vraagt om veel meer dan een handvol gatekeepers die alleen aan de randen van het netwerk de zaak in de gaten houden. Ieder netwerk bestaat uit een groot aantal componenten. Als we die allemaal een rol geven op het gebeid van het detecteren en het oplossen van zaken die fout gaan, wordt het netwerk als geheel een stuk veiliger. Zeker ook als we dat in een multivendor-omgeving doen. Daarom dient automation ook gebaseerd te zijn op open standaarden zodat tools van allerlei aanbieders toch met elkaar kunnen samenwerken.”

Robbert Hoeffnagel Rami Rahim van Juniper Networks: “Security vraagt om veel meer dan wat gatekeepers die alleen aan de randen van het netwerk de zaak in de gaten houden.” advertentie

SURFNET ONDERSTEUNT BIJ IPV6

Het SURFnet-netwerk ondersteunt sinds 2001 zowel IPv4 als IPv6. Samen met de Nationale IPv6 Task Force en het platform Internetstandaarden werkt SURFnet aan kennisverspreiding over IPv6. Zo bieden we; • seminars en workshops, • praktische documenten; - business case voor IPv6, - handleiding voor het opstellen van een nummerplan, - handleiding voor het configureren van een webserver voor IPv6.

• plan van aanpak voor implementatie van IPv6 SURFnet is onderdeel van de coöperatie SURF, de ICT-samenwerkings- organisatie van het onderwijs en onderzoek in Nederland. www.surf.nl/surfnet

Gebruik je al IPv6? Ga het na met de IPv6-check – https://internet.nl

Op www.surf.nl/ipv6 vind je links naar deze info en meer over hoe wij je ondersteunen bij de overgang naar IPv6.

CloudWorks - nr. 10 / 2016

17

Beurs

De maatschappelijke rol van het datacenter

18

De verschuiving van computerruimtes naar datacenters gaat in een razend tempo. Steeds meer bedrijven brengen hun IT-faciliteiten onder in een datacenter of cloud en nemen afscheid van hun eigen data- centers. Grotere bedrijven die belang hechten aan eigen faciliteiten (denk aan banken of overheidsinstellingen) centraliseren steeds vaker hun IT-faciliteiten. Het resultaat van beide ontwikkelingen is hetzelfde: de datacenters worden groter en groter. Hierdoor ontstaan er kansen om te investeren in duurzame technologieën waar de omgeving ook van profiteert. De eerste gemeentes schrijven hier al beleid voor.

{

‘ De aandacht voor de omgeving van het datacenter en wat een datacenter voor de omgeving kan doen is nooit eerder zo benadrukt’

Beide onderwerpen komen uitgebreid aan bod tijdens IT Room Infra 2016. Zo presenteert Jan Harms van de Rijkscloud over de operatie van het ministerie om de 66 computerruimtes terug te brengen naar 4 datacenters. Welke hobbels kwamen ze tegen? Maar ook Spie presenteert samen met Colt Datacenters over ‘Smart Datacenter Services’. Bedoeld voor de klanten van een datacenter. Uiteraard komen er ook veel (management en monitorings) technologieën naar voren die geschikt zijn voor datacenters. Maar de aandacht voor de omgeving van het datacenter en wat een datacenter voor de omgeving kan doen is nooit eerder zo benadrukt. Uiteraard heeft dit ook consequenties voor de technologieën die gebruikt worden in het datacenter.

Circulair

Stijn de Kruijf van Royal HaskoningDHV geeft de lezing ‘Datacenters verweven in circulaire gebiedsontwikkeling’. Volgens Alles over innovatie in ICT hem is de transitie naar een circulaire economie noodzakelijk. Circulair bouwen en circulaire gebiedsontwikkeling staat in de regio Amsterdam hoog op de agenda. In 2015 is er zelfs een routekaart gepubli ceerd die onderbouwing en richting geeft aan stappen om te komen tot een circulaire inrichting van de bouw- en beheerke ten. Hierbij wordt gekeken naar design, materialen en energie. Wat zien we als we inzoomen op een datacenter binnen een ontwikkelde circulaire economie?

Smart grid

Dennis Klein van Socomec en Raf Bruggeman van GNB richten zich op energieopslag en de rol die een datacenter kan spelen in een smart grid. De lezing is getiteld ‘UPS en batterij - meer en meer commodity of een hybride oplossing in een smart grid’. Wat als een datacenter verandert van energieverbruiker naar een hybride oplossing waar verbruik en opwek king hand in hand gaan? De noodstroom installatie evolueert daarbij van een schijnbare statische commodity naar een dynamische bouwsteen van een datacenter. Dit stelt andere eisen aan een UPS en batterij. In 2015 heeft Green IT Amsterdam tijdens IT Room Infra over het Geyser project gepresenteerd waarbij Datacenters een cruciale rol spelen in de smart grid. De eerste testen lopen hier ook.

Energieneutraal

Welke rol een datacenter speelt in de maatschappij hangt sterk af van de plaats. Niet overal is het gemakkelijk om warmte te hergebruiken of op een smart grid aan te sluiten. Een datacenter die optimaal gebruik maakt van zijn omgeving is het Lefdal Datacenter in Noorwegen. Mats Andersson spreekt over dit datacenter en laat zien op welke manier het grootste datacenter van Europa helemaal energieneutraal kan opere ren. Het Noorse landschap leent zich hier wellicht beter voor dan het Nederlandse. Maar als de circulaire economie dan zo belangrijk wordt, is het dan niet slimmer om de datacenters daar te plaatsen? Natuur lijk is de connectie naar Scandinavië nog niet zo goed maar wat als dat is opgelost?

Kom ook!

Voorlopig gaat het bouwen van datacenters in Nederland in een rap tempo door. Hoog tijd om met elkaar na te denken hoe we de vrijgekomen warmte en de overige installa ties kunnen benutten voor de maatschappij! Kom op 15 november naar Den Bosch om hierover van gedachten te wisselen.

Harm Wijsman, FHI

CloudWorks - nr. 10 / 2016

19

Research

Muurschildering Building 16 entree OCP validation lab detail (left side rack)

Een bezoek aan het Facebook’s validatie-lab

Facebook is een bedrijf dat het leuk vindt om dingen te maken. Ze houden er van om te creëren. Dit is overal zichtbaar als je over de campus van het concern in Menlo Park loopt. De campus heeft zijn eigen Wood Shop en een Analog Research Labo ratory waar medewerkers kunnen leren om hout te bewerken en creatief te zijn in de fysieke wereld. Ze willen van alles weten hoe het werkt. En daar willen ze open over zijn.

Ongeveer zes jaar geleden besloot Facebook om zelf zijn eigen datacenters en hardware van de grond af te gaan ontwerpen. De stichting Open Compute Project (OCP) werd in 2011 door

20

Alles over innovatie in ICT Facebook gestart, samen met Rackspace en Intel om op basis van het open source-gedachtegoed innovatie rond hardware tot stand te brengen. In en rond het datacenter-ecosysteem. Drie van de vijf grootste bedrijven naar marktwaarde zijn lid van OCP: Google/Alphabet, Microsoft en Facebook. Amazon gebruikt zonder veel openheid ook zijn eigen op maat gemaakte hardware. Alleen Apple past in het datacenter nog hardware van traditionele vendoren toe.

Om OCP-technologie nog meer toegankelijk te maken, organi seerde Facebook onlangs de zogeheten OCP Technology Day om enkele gevalideerde user cases te presenteren.

OCP Technology Day

De OCP Technology Day werd gehouden op 30 augustus 2016 in Facebook’s nieuwe kantoorgebouw building 20. Dit is overigens hetzelfde gebouw van waaruit Mark Zuckerberg recentelijk aan het live streamen was. Het gebouw bevindt zich tegenover de campus. Facebook demonstreerde die dag hoe OCP-producten gebruikt kunnen worden bij andere bedrijven. Waarom is dit belangrijk? En wat zegt ons dit?

ficante kostenbesparingen geleid op zowel hardware en software (licenties), producttrainingen en contracten voor externe support. Maar misschien nog belangrijker is dat Facebook hiermee laat zien dat de bedrijven in staat zijn om de strategische keuze te maken om volledig open source te gaan en hier hun voordeel uit te halen. Het is een kwestie van het break-even punt uitrekenen en de strategi sche keuze te maken.

GlusterFS

Tijdens de dag toonde een Facebook-medewerker het gebruik van de open source-software GlusterFS. Gebruik makend van de standaard Facebook Knox JBOD externe opslagsysteem (gemaakt door Wiwynn) verbonden met een Facebook Leopard-server via een SI SAS RAID controller leveren zij hun interne gebruikers een POSIX-opslag via NFS. Met wat additionele configuratie en tools om de data te repliceren en de service redundant te maken kunnen ze de strikte interne SLA’s behalen.

De volgende tabel laat zien hoeveel Facebook schat bespaard te hebben:

Storage Solution

Proprietary NFS 3x Replicated w/OCP Erasure Coded w/OCP (8+4)

Relative Cost

$$$$ to $$$ $$ $ Tijdens de middag demonstreerde Red Hat en Canonical hoe zij hun OS installeren op OCP-hardware.

Volledig open source

Wat Facebook hier heeft gedaan, is een storage-oplossing bieden aan interne gebruikers die in vele aspecten identiek is aan elke andere enterprise-omgeving, gebaseerd op open software en hardware en compleet onder hun eigen beheer. Dit heeft tot signi-

Geen VGA of HDMI

De Facebook Leopard bare-metal server - of beter gezegd: het moederbord van deze server - heeft geen VGA- of HDMI-connec tor. Het is immers niet nodig om een monitor te verbinden voor CloudWorks - nr. 10 / 2016

21

Research

het installeren van een operating system. Daarnaast ondersteunt dit moederbord wel Intel’s bekende Broadwell CPU-lijn. De server doet eerst een poging om middels PXE op te starten vanaf de geïnstalleerde Mezzanine-kaart of de on-board LOM en pas daarna van SATA. Het blijft deze loop herhalen totdat het iets heeft gevonden om van op te starten.

Dit maakt het voor de hand liggend om een vorm van geautoma tiseerde deployment te gebruiken. Dit willen we natuurlijk toch al als we een groot aantal servers te beheren hebben. Het is natuurlijk ook mogelijk om de boot-instellingen aan te passen en de BMC heeft ook ondersteuning voor virtuele devices.

Naar het lab

In het netwerk lab in building 16 ligt de allereerste Wedge-40 switch, gesigneerd door iedereen die er aan mee heeft gewerkt. In een ander netwerk-lab zijn een heleboel kleurrijk verlichte Wedge 100 switches geplaatst.

In het lab is een groot aantal engineers bezig met producten die nog niet publiekelijk bekend zijn. Er is ook een telco-lab voor het ontwikkelen van cellular netwerk-producten. Interessant is ook het lab voor storage-producten, van reguliere hard disks tot Blu-ray opslag en all-flash NVME.

Adapters

In dit geval gebruikte het lab single 10G Mezzanine adapters van Mellanox. Dit is de meest voorkomende adapter bij Facebook. Maar ze kunnen ook dual 10G, 40G of de nieuwere 25G tot 100G standaarden gebruiken. Deze zijn ook beschikbaar in OCP’s mezzanine-formaat.

Validation Lab

En dan is er nog het OCP Validation Lab. Dit initiatief is zo nieuw dat het nog gebruik maakt van een tijdelijke locatie. Er zijn twee racks in deze ruimte die bijna helemaal vol zitten met servers, storage en netwerkapparatuur. Een stukje verderop in building 17 is het nieuwe ‘Area 404’ lab en door de grote ramen kunnen we zien dat hier aan nog veel meer OCP-producten wordt gewerkt. Zowel Red Hat als Canonical installeerde tijdens hun demo’s met succes hun eigen smaak OpenStack. Voor Red Hat is dat RHEL met gebruik van CloudForms en Canonical’s Ubuntu met MAAS en Juju. Zelfs de Wedge-100 switch is te managen, aangezien deze ook een smaak van Linux draait.

Voor de fabricage werkt Facebook samen met de fabrikanten die ook onze laptops, servers en mobiele telefoons maken. Als Circle B werken wij eveneens met deze firma’s samen om op OCP gebaseerde oplossingen te leveren aan sub-hyperscale datacenter operators.

Aangezien het Facebook Leopard moederbord ook al installatie van Microsoft en VMware ondersteunt van makers als Wiwynn, opent dit de deuren tot bredere adoptie van OCP.

Gebruik makend van enkele bouwblokken compute, storage, netwerk en rack kunnen daarmee de meeste software defined oplossingen worden gerealiseerd. Iedereen die meer interesse heeft in deze onderwerpen kan naar de OCP-pagina op Facebook gaan om de opgenomen presentaties te bekijken. Of kijk voor meer info op de OCP Wiki.

Menno Kortekaas is Technical Director bij Circle B First drawing of Wedge 40, Facebook’s eerste whitebox switch (en het lijkt er op dat mensen bij Facebook ook kijken naar HBO’s Silicon Valley)

22

Alles over innovatie in ICT

Blog

KPN heeft aangekondigd de colocation datacenters te willen rebranden en ze carrier-neutraal te maken, dus ook concurrenten toegang te geven. Het voor malige staatsbedrijf loopt hiermee voorop in de we reldwijde omslag van aanbod- naar vraag-gedreven connectivity.

KPN verlegt koers naar neutraliteit

Uit het persbericht: “KPN gaat zes van zijn datacenters, die specifiek colocation diensten aanbieden, onderbrengen in een nieuwe onderneming met een eigen identiteit binnen het KPN-concern. Hierdoor verwacht KPN nog beter in te kunnen spelen op de groeikansen in de markt voor colocation, waarbij ‘carrier en cloud neutraal’ voor klanten belangrijke beslissings criteria zijn.” aannemen dat andere ‘carrier-hotel’ datacenter providers gaan volgen. Deze beweging laat zien dat de markt de voorkeur geeft aan carrier- en cloud-neutrale dienstverlening. Ik zie de koers wijziging van KPN dan ook als teken dat de carrierwereld volwassen wordt en zich, gedwongen door de tucht van de markt, veel meer gaat richten op de behoeften van de klant in plaats van op het ‘pushen’ van het eigen netwerk. In datacenter connectivity zijn er grof gezegd twee smaken: carrier-driven (aanbod-gestuurd, het KPN-model dat nu wordt verlaten) en carrier-neutral (vraag-gestuurd). Kiezen voor de carrier-driven variant betekent kiezen voor het aanbod van die carrier. Die zet zijn eigen infrastructuur in en zorgt ervoor dat partners worden ingeschakeld in de regio’s die hij zelf niet afdekt. Deze benadering heeft nadelen: de infrastructuur van de carrier is vaak niet volledig bij de tijd, dus verouderd; de carrier zal een one-size-fits-all oplossing bieden terwijl het beter is om per applicatie en vanuit de business van de klant te kijken wat nodig is. Sommige carriers voeren het one-stop-shop concept nog een stap verder door naast connectivity ook datacenter services te verlenen, vanuit zogeheten carrier-hotels. Nadelen: de exploitatie van het datacenter is geen core business voor de carrier. En er is een grote mate van vendor lock-in in de relatie. Op papier heeft KPN alle troeven in handen: goede lande lijke spreiding van datacenters, een uitstekend lokaal netwerk, dominante marktpositie, de technologie en met het voormalige Getronics de mensen om added services te kunnen verlenen. Met NL-IX heeft het zelfs een stevig internetknooppunt in handen. Toch is het niet genoeg gebleken. Gaat de nieuwe aanpak werken? Positief is dat de directie deze grote stap heeft durven zetten. Alles onderbrengen in een organi satie zal ongetwijfeld tot meer focus leiden. Of het voldoende zal zijn om de andere grote carrier-neutrale providers zoals Equinix en Interxion partij te kunnen geven, is nog maar de vraag. Misschien dat er over een tijdje een ander logo op de gevels van de datacenters komt te hangen…

Olav van Doorn, medeoprichter en CEO van Custom Connect

De carrier-neutrale benadering geeft meer vrijheid en flexibili teit bij de keuze van de geboden connectiviteit. De concurrentie tussen de diverse carriers is hevig, en dat heeft een prijsdrukkend en innovatieverhogend effect waar de klant van profiteert. De betekenis van de radicale koerswijziging van KPN moet niet worden onderschat. Aangezien Nederland wereldwijd voorop loopt in alles wat te maken heeft met datacenters, cloud infrastructuur, connectivity - maar ook regelgeving - mogen we CloudWorks - nr. 10 / 2016

23

Strategie

Enterprise-IT vraagt om een andere aanpak:

Het software-defined datacenter

De groei van de digitale diensteneconomie betekent dat steeds meer organisaties zich richten op de cloud en op architecturen gebaseerd op open standaar den. Met network functions virtualization (NFV) en software-defined networking (SDN) kunnen bedrijven de overstap maken naar een flexibele, intelligente infrastructuur waarin alle functies draaien in virtuele machines en worden beheerd en dynamisch worden verdeeld via orkestratie. Het resultaat is dat orga nisaties sneller inzichten kunnen afleiden uit data, waardoor ze sneller waarde kunnen creëren - nieuwe winststromen, een verbeterde klantervaring of effectievere marketing.

• Het tempo waarmee de netwerken van datacenters worden vernieuwd, wordt grotendeels bepaald door de leveranciers van de netwerkapparatuur. Dit kan het tempo van datacenter-innova tie remmen • Mobiele werklasten zijn beperkt door het maximale aantal subnets dat een datacenternetwerk biedt. En dat is weer afhankelijk van het maximale aantal virtuele segmenten of LAN-segmenten • De netwerksystemen in een datacenter vereisen vaak handmatige configuratie, met slechts beperkte ondersteuning door de leveran cier, via softwareconfiguratie • Bottlenecks in het netwerk verhogen de latency, wat resulteert in tragere responstijden richting de gebruikers De druk op IT om on-demand flexibele, kosteneffectieve én veilige diensten te bieden, neemt snel toe. Traditionele methoden voor het ontwerpen en bouwen van datacenters kosten te veel tijd en sluiten niet meer aan op deze veranderende vraag. Organisaties verwachten dat IT in staat is om de beschikbare middelen (zoals compute, storage en networking) bij elkaar te brengen tot één centrale pool die snel en makkelijk toe te wijzen is. Daarbij moeten de kosten omlaag gebracht worden door middel van een verbeterde infrastructuur, meer flexibiliteit en betere processen op het gebied van change management.

Datacenter trend: van het traditionele naar het software defined datacenter

Om snel te kunnen reageren op veranderende zakelijke behoef ten, hebben organisaties een flexibele infrastructuur nodig. Op dit moment draaien in veel datacenters nog altijd oudere, vaak op maat gebouwde systemen die qua flexibiliteit en responsiviteit beperkt zijn. IT wordt gevraagd om steeds meer te doen met steeds minder middelen en budget. Daardoor lukt het vaak niet om te voldoen aan de behoeften van ontwikkelaars en zakelijke gebruikers naar echte self-service flexibiliteit. Wat ontbreekt is de mogelijkheid om de operaties binnen het datacenter te optimaliseren om de efficiën tie te verbeteren. Veel grote organisaties hebben de afgelopen jaren een private cloud ingericht, al snel gevolgd door hybride clouds die de voordelen van private en publieke clouds met elkaar combineren. Bedrijven willen dat hun IT wendbaar is en dat ze hun eigen datacenters ontwer pen en exploiteren. Daarbij wordt verwacht dat ze private cloud diensten leveren die vergelijkbaar zijn met die van vooraanstaande public cloud-providers, zoals Microsoft, Google en Amazon. Maar tegelijkertijd willen organisaties ook in staat zijn om verbinding te maken met publieke clouds.

Dankzij servervirtualisatietechnologieën is het mogelijk om abstrac tielagen (server hypervisors) te creëren waarmee de kenmerken van een fysieke x86 datacenteromgeving (zoals de CPU, netwerk interfaces en RAM) softwarematig ‘gereproduceerd’ worden. Dit betekent een enorme verschuiving voor datacenter-implementaties omdat het hiermee mogelijk is om alle beschikbare IT-middelen te bundelen tot één flexibel toewijsbare pool. Zo worden de datacenter kosten geoptimaliseerd en wordt het datacenter wendbaarder.

Uitdagingen voor het traditionele datacenter

Datacenterarchitectuur is geëvolueerd van een structuur die lijkt op een campus-netwerkarchitectuur naar een architectuur die robuus ter en efficiënter is. Maar er zijn nog enkele uitdagingen: • Bij datacenters is vaak sprake van leverancier-specifieke hardware en software, wat vaak leidt tot het gebruik van bedrijfseigen technologieën in plaats van open industriestandaards

24

Alles over innovatie in ICT Virtualisatie stelt IT ook in staat om workloads te creëren, te verwijderen en binnen en tussen datacenters te verplaatsen met behulp van geautomatiseerde softwaretools en processen die minimale downtime vereisen. Datacenternetwerken gebruiken echter vaak nog steeds standaard, leverancierspecifieke hardware en softwaretechnologieën die vrij complex zijn en afhankelijk zijn van handmatige provisioning. Voor een echt software-defined datacen ter, moeten zowel de servers als netwerken gevirtualiseerd worden.

In het software-defined datacenter zorgt softwarematige abstractie voor een virtualisatie van het grootste deel van de componen ten, terwijl policygestuurde processen de infrastructuur volledig automatisch beheren. Door het servicemanagement te scheiden van de fysieke infrastructuur, worden datacenters flexibeler dan ooit tevoren. Zo worden traditionele datacenters die zich focussen op de fysieke infrastructuur getransformeerd tot een applicatie- of service-gebaseerde bedrijfsomgeving.

Software-defined datacenters kennen echter nog een aantal uitdagingen: • Softwareabstractie kan er voor zorgen dat de complexiteit van het datacenter toeneemt, tenzij deze zorgvuldig wordt ontworpen aan de hand van best practices uit de industrie • Er zijn nieuwe datacenter provisioning- en monitoringtools nodig • Het vraagt vaak om totaal nieuwe processen - van de inkoop van hardware en ontwerp, tot managementtools en de vaardigheden die nodig zijn om problemen op te lossen • Dit vergt veelal een verandering in de bedrijfscultuur, de proces sen, de organisatie en de gebruikt technologie • Het datacenter operations team heeft training nodig om te kunnen werken met de nieuwe software-gedefinieerde omgeving Daar staan echter duidelijke voordelen tegenover: • De IT-dienstverlening wordt versneld doordat de tijd die nodig is om nieuwe, omzet genererende toepassingen en diensten op de markt te brengen, aanzienlijk wordt verkort • De flexibiliteit wordt verhoogd dankzij gecentraliseerd beheer en infrastructuurorkestratie, waarmee bedrijven in staat zijn om naadloos en kosteneffectief op te schalen • Snellere implementatie en efficiënter gebruik van nieuwe bedrijfstoepassingen, die ook makkelijker up-to-date gehouden kunnen worden • Organisaties kunnen makkelijker voldoen aan wettelijke vereisten en regels, dankzij meer flexibiliteit en een beter aanpassings vermogen voor datacenters • Het is eenvoudiger om nieuwe datacenters of uitwijklocaties te repliceren en uit te rollen, waar dan ook ter wereld • Er zijn betere beveiligingsmogelijkheden, onder andere omdat beveiligingsbeleid tijdens het creëren van een virtuele machine automatisch kan worden gekoppeld aan een applicatieworkload • Ook kan het beveiligingsbeleid fijnmaziger worden toegepast op workload-niveau • De lagere latency zorgt voor een betere klantervaring, zowel intern als extern • Organisaties kunnen zich moeiteloos aanpassen aan veranderingen in de marktvraag, dankzij een hogere wendbaarheid • De provisioningtijd in het datacenter wordt teruggedrongen, er treden minder fouten op bij provisioning en de operationele kosten van het datacenter worden verlaagd dankzij ontwerp en automatisering op basis van best practices • Organisaties kunnen zich focussen op kwaliteit en kosten- optimalisatie, dankzij abstractie van de onderliggende hardware (compute, storage en networking)

De toekomst van IT is software-defined

Het leidt geen twijfel dat de toekomst van IT software-defined is. De diensten van het datacenter worden via compute, storage

MODERN DIGITAL SERVICES REQUIRE A NEW VISION: SOFTWARE-DEFINED INFRASTRUCTURE (SDI)

First, It Watches …

Excessive Utilization

Arie de Haan, journalist

Why Increase Agility

Deploy new revenue-generating apps in

minutes

, not

weeks.

What

SDI?

Reduce CapEx and OpEx

Reduce costs up to

75%

vs. traditional infrastructure.1

Is SDI?

Automated Orchestration

Enables a smarter data center that is self-monitoring, self-healing, self-optimizing, and self-scaling.

Apps Orchestration Software Common Resource Pool

Then, It Decides …

Load Balancing Required

Finally, It Acts.

Migrating Workloads en netwerkomgevingen uitgebreid om IT-as-a-Service te kunnen bieden. Deze nieuwe datacenters kunnen IT automatiseren, de flexibiliteit verbeteren en de operaties en service delivery vereen voudigen. Software-defined datacenters helpen bedrijven ook bij het implementeren, uitrollen, beheren en updaten van applicaties, waarbij de bedrijfscontinuïteit wordt gegarandeerd. Het gebruik van open standaarden, open netwerkprotocollen en ontwikke ling via open source maakt diepe integratie van de verschillende componenten mogelijk en zorgt ervoor dat deze optimaal met elkaar samenwerken.

Software-defined datacenters zijn een belangrijke volgende stap in de evolutie van datacentercomputing. Bij de meeste organisaties verloopt het transitieproces stapsgewijs, zodat er een continue, stabiele basis blijft voor de bedrijfsvoering. Nieuwe diensten profi teren van de nieuwe mogelijkheden en worden beschikbaar gesteld via of gekoppeld met de cloud. Zo kunnen grote ondernemingen via een zekere en doelgerichte aanpak de overstap maken en zijn ze klaar voor toekomstige groei en om optimaal te profiteren van de nieuwe kansen die bijvoorbeeld big data en het Internet of Things gaan bieden.

CloudWorks - nr. 10 / 2016

25

Conferentie

De highlights van Oracle OpenWorld 2016

Van 18 tot en met 22 september 2016 stond de IT-wereld weer in het teken van Oracle OpenWorld. Deze conferentie op het gebied van business en technologie mocht ook dit jaar weer een groot aantal bezoekers uit meer dan 140 landen verwelkomen. Zoals gewoonlijk werd het jaarlijkse evenement georganiseerd met een missie in het achter hoofd: bedrijven helpen te profiteren van de cloud voor innovatie en groei.

Volgens Larry Ellison van Oracle lopen Amazon-databases twintig jaar achter op de nieuwste release van Oracle Databases in the Cloud.

26

Alles over innovatie in ICT Cloudervaring was dan ook het sleutel woord tijdens de 2016-editie van Oracle OpenWorld. Bezoekers kregen vijf dagen lang de kans meer te leren over de cloud en geïnspireerd te raken. Samen met experts in verschillende vakgebieden werden er ideeën uitgewisseld over de toekomst van techno logie. Oracle gaf partners inzicht in waar kansen liggen, bijvoorbeeld op het gebied van de customer cloud journey. Voor technische vragen konden zij in de OPN Lounge terecht bij experts. In totaal presenteerden 2.054 klanten en partners gezamenlijk 2.240 verschillende sessies en waren ze te zien op een groot aantal stands in de expositieruimte. Oracle verzorgde zelf zo’n vierhonderd demonstraties.

20 procent goedkoper zijn. Zoals we van Oracle gewend zijn, is de nieuwe Dense Cloud IO-oplossing niet alleen als clouddienst verkrijgbaar, maar ook als on-premise-dienst op abonnementbasis: Database-as-a-Service (DBaaS).

Blik op de toekomst

Uiteraard is Oracle OpenWorld niet alleen een moment om stil te staan bij ontwik kelingen in het verleden en de oplossingen van het heden, maar vooral om vooruit te blikken naar de toekomst. Zo zag Oracle de vraag naar clouddiensten toenemen: in het eerste kwartaal van boekjaar 2017 steeg de SaaS- en PaaS-omzet met 77 procent tot 798 miljoen dollar. Niet verwonderlijk dus dat Oracle zijn pijlen meer wil richten op zijn clouddiensten. Zowel met SaaS en PaaS, als met een uitbreiding van het IaaS-aanbod. Met meer dan twintig datacenters wereld wijd, is Oracle natuurlijk al een cloudspeler van formaat. Maar om de concurrentie positie verder te verbeteren, is Oracle van plan een nieuw wereldwijd netwerk met datacenters te bouwen. Zo zorgt het bedrijf ervoor dat dienstverlening altijd stabiel is. In Europa komen de clouddiensten rond de zomer van 2017 beschikbaar, als eerste in het Verenigd Koninkrijk en Duitsland. Larry Ellison, medeoprichter en CTO van Oracle, gaf tijdens zijn openingskeynote aan dat Oracle het met deze uitbreiding opneemt tegen bedrijven als Amazon Web Services (AWS). Sterker nog: tijdens zijn speech in het Moscone-conferentiecentrum gaf hij aan hoe Oracle een transformatie probeert te bewerkstelligen in cloudcom puting voor bedrijven. En hij waarschuwde dat de nieuwe update van Oracle’s Infra structure as a Service - Oracle Dense Cloud IO genaamd - in de toekomst ‘serieuze concurrentie’ moet gaan vormen voor Amazon. Volgens Ellison lopen Amazon databases twintig jaar achter op de nieuwste release van Oracle Databases in the Cloud. Oracle Dense Cloud IO is een bare-metal cloudserver die meer dan honderd keer sneller zou zijn dan Amazon DBaaS voor analytics-workloads, 35 keer sneller voor OLTP en meer dan duizend keer sneller voor gecombineerde workloads. En niet alleen de capaciteit van Oracle zou tien keer zo hoog zijn als van het product van Amazon, maar het zou ook nog eens

Andere nieuwe diensten

Naast deze nieuwe cloudinfrastructuur, kondigde Oracle tijdens OpenWorld 2016 meer nieuwe producten en diensten aan. Een daarvan is een platform waarmee chatbots gecreëerd kunnen worden. Het platform is bedoeld voor derden, die ook zonder programmeerervaring zo’n intelligente assistent kunnen samenstel len dankzij drag-and-drop. Deze chatbots interacteren vervolgens met bedrijfsappli caties van Oracle en integreren bovendien met messaging apps zoals die van Facebook. Wanneer dit nieuwe platform precies beschikbaar wordt, is nog niet bekend. Een tweede dienst die werd geïntrodu ceerd, is Cloud@Customer. Hiermee installeert Oracle hardware en software zoals hij het zelf voor zijn public-cloud platform gebruikt, bij datacenters van klanten. Klanten die dit platform huren, profiteren op die manier niet alleen van de firewall van Oracle, maar ook van het feit dat Oracle beheer en onderhoud voor zijn rekening neemt. Een laatste bekendmaking tijdens de conferentie was de overname van Palerra: een bedrijf dat zich richt op het zo snel mogelijk reageren op beveiligingsinciden ten bij clouddiensten, onder andere door middel van een tool die gebruikersgedrag bij online diensten analyseert.

Partners en klanten

Of Oracle OpenWorld de moeite waard is om af te reizen naar San Francisco? Het antwoord van de aanwezigen zal ongetwijfeld ‘ja’ zijn. Het is immers hét evenement waarop Oracle traditiegetrouw zijn nieuwe producten en diensten intro duceert. Ook Oracle-partners tonen en demonstreren er hun producten. Bovendien is OpenWorld met honderden partners van over de hele wereld, maar ook klanten en experts, een uitstekende gelegenheid om te netwerken. Oracle stimuleert dit door partners en klanten actief met elkaar in contact te brengen - zowel in formele settings als informele.

Méér dan technologie

Naast business en technologie, werd tijdens Oracle OpenWorld ook gedacht aan onder- wijs, de gemeenschap en het milieu. Zo was er tijdens de conferentie uitgebreid aandacht voor Oracle Academy. Het doel van deze Oracle-tak is het stimuleren van kennis, innovatie, diversiteit en de ontwikkeling van vaardigheden op het gebied van technolo gie. Jaarlijks leidt Oracle ruim drie miljoen studenten op in 110 verschillende landen van over de hele wereld, om hen voor te bereiden op leven en werken in de heden daagse economie die gedreven wordt door technologie. Tijdens de OpenWorld-confe rentie hostte Oracle Academy JavaOne4Kids: workshops voor kinderen om de volgende generatie van ontwikkelaars te inspireren. Daarnaast kondigde Oracle aan jaarlijks vier miljard dollar te schenken aan onderwijs wereldwijd.

Van de redactie

CloudWorks - nr. 10 / 2016

27

28

Beurs

Frank Buytendijk van Gartner: ‘ Het geloof in data begint dogmatische vormen aan te nemen’

Datagedreven business is haast een religie geworden, vindt Frank Buytendijk van Gartner. Volgens hem doen bedrijven er daarom, vanuit zowel een ethisch als een zakelijk standpunt, verstandig aan een kritischer houding aan te nemen. Op de vakbeurzen Infosecurity.nl, Storage Expo en The Tooling Event, die 2 en 3 november 2016 plaatsvinden in Jaarbeurs in Utrecht, geeft hij daarom een presentatie - of zoals hij het zelf noemt: provocatie - over de gevaren van het blind ver trouwen op data. In CloudWorks licht hij vast een tipje van de sluier. “Iedereen duikt bovenop data zonder zich te realiseren dat data een bijzonder beperkte weergave van de werkelijkheid geven.” Buytendijk werkt bij onderzoeksbureau Gartner als Research Fellow en houdt zich bezig met digitale ethiek, en met data en analytics. In die rol adviseert hij bedrijven op het gebied van technologie en moraal, en helpt hij ze bij het opstel len van een data- en analytics-strategie. Een ander onderwerp dat op zijn interesse kan rekenen, is de mate waarin techno logie invloed heeft op onze maatschappij. “Voor meer en meer bedrijven worden data de belangrijkste reden van hun bestaan”, zegt hij. “De virtuele wereld en de fysieke wereld gaan steeds meer in elkaar overlopen. Dan denk je in eerste instantie misschien aan augmented reality en Google Glass, maar ook slimme meters zoals de Toon thermostaten zijn daar een goed voorbeeld van.”

Op glad ijs begeven

“Data worden daarmee meer een manier om je als bedrijf te onderscheiden, zeker in het geval van commodity-producten”, vervolgt Buytendijk. “Het maakt mensen helemaal niets uit van wie ze stroom afnemen, dus voor veel leveranciers was de prijs de enige differentiator. Door slimme meters aan te bieden, die inzicht geven in het verbruik, hebben ze ineens nog een manier om het verschil te maken.” En volgens hem worden data voor elk soort bedrijf steeds belangrijker om klanten aan zich te binden. “Neem het voorbeeld van een bakker. Die zou data kunnen gebrui ken om inzicht te geven in hoe druk het is in de winkel, zodat je als klant weet of nu een goed moment is om langs te lopen. Maar hij zou zelfs op basis van historische gegevens kunnen voorspellen waar op een bepaalde dag vraag naar is, en die bestel ling al klaar kunnen leggen nog voordat de klant erom vraagt.” Daarmee begeven bedrijven zich echter wel op glad ijs, waarschuwt Buytendijk. “Zelfs als het gaat om data waarvan klanten weten dat je erover beschikt, waarderen ze het allerminst als je die ook daadwerkelijk inzet.” Die emotie ervaarde hij zelf toen hij onlangs op de achterbank van een taxi een telefoongesprek voerde. “Het irriteerde dat de chauffeur hardop zat te lachen om de grapjes die ik maakte over de telefoon. Eigenlijk was dat heel gek, want we zaten met elkaar in een auto en ik wist dat hij m’n gesprek kon meeluiste ren. Maar mijn telefoongesprek hoort geen informatie voor de taxichauffeur te zijn, maar ruis. ‘Volgende stoplicht rechts’, dat is in die context informatie die je met een taxichauffeur deelt.”

Data als olie van de 21

e

eeuw

Op grotere schaal gebeurde volgens Buytendijk hetzelfde toen ING in 2014 een proef wilde opstarten met het inzet ten van klantendata voor het verstu ren van aanbiedingen. “ING zou de gegevens niet doorverkopen aan derden, en niemand anders zou toegang krijgen tot de gegevens. De proef zou bovendien alleen lopen voor mensen die daar actief toestemming voor gaven. Best een goed idee. Toch viel iedereen erover. Mensen vonden dat het niet bij een bank paste om context te geven aan de informatie die ze had, en die voor een ander doel te gebrui ken dan het verwerken van transacties.” Nog veel zorgwekkender dan de privacy gevoeligheid noemt Buytendijk echter het feit dat het belang van data door veel bedrijven niet eens meer ter discussie wordt gesteld. “Veel bedrijven geloven in data als de olie van de 21 e eeuw. Iedereen duikt er bovenop zonder na te denken over wat er allemaal fout kan gaan. Het geloof in data wordt niet meer ter discussie gesteld en begint dogmatische vormen aan te nemen.” Terwijl er genoeg redenen zijn om wél kritisch tegenover het nut van data te staan, vindt Buytendijk. “Bedrijven verwarren data met de werke lijkheid, maar ze zijn maar een beperkte afspiegeling daarvan. Sterker nog: als je veel data gebruikt voor inzicht in klanten en in de business, leidt dat eerder tot slechte beslissingen en uitkomsten.”

FBI op de stoep

Daarbij wijst hij op een voorval dat onlangs plaatsvond in Amerika. “Daar was een man met twee hobby’s: wandelen en koken. Dan is het niet heel gek dat in je Google-geschiedenis dan zoekopdrachten naar zowel een rugzak als een snelkook pan voorkomen. Maar in een tijd waarin die twee voorwerpen werden gebruikt bij aanslagen, is het ook een combinatie die alarmbellen doet rinkelen. Die man kreeg dus de FBI op bezoek, omdat een IT’er op het werk ze had ingelicht. Dat is wat in de wetenschap een ‘false positive’ wordt genoemd. En een voorbeeld van hoe het blind afgaan op gebeurtenissen die aan een patroon voldoen, verkeerd kan uitpakken.”

{

‘ Veel bedrijven geloven in data als de olie van de 21

e

eeuw’

Maar er zijn meer manieren waarop data een verkeerd beeld kunnen geven. Buytendijk: “Sommige bedrijven gebrui ken data om te kunnen voorspellen hoe groot de kans is dat een werknemer op zoek is naar een andere baan. Het doel is dan natuurlijk om iemand alsnog binnen te houden door hem vóór te zijn en hem bijvoorbeeld een salarisverhoging te geven. Stel nou dat je als werknemer weet dat je werkgever dat doet, en je bent uit op een hoger salaris. Wat doe je dan? Dan ga je gewoon je LinkedIn updaten en wat connecties maken met recruiters.”

Subjectief

Waar het op neerkomt, is dat data volgens Buytendijk nooit objectief zijn. “Zelfs puur feitelijke informatie als de inhoud van de kofferbak is niet objectief. Je meet informatie altijd met een bepaald doel. En de manier waarop informatie wordt weergegeven, stuurt de uitkomst al. Wantrouw iedereen die zegt dat de data voor zich spreken.”

Van de redactie

De vakbeurzen Infosecurity.nl, Storage Expo en The Tooling Event vinden ge lijktijdig plaats op 2 en 3 november 2016 in Jaarbeurs in Utrecht. Marktleiders, verenigingen en ICT-professionals delen er hun visie op, en ideeën over de meest actuele ICT-thema’s. Bijvoorbeeld op het gebied van dataopslag, databeveiliging en servicemanagement. Het overkoe pelende thema van deze editie is Data Centric World. De deuren van de beurs zijn beide dagen geopend van 09.30 uur tot 17.00 uur.

29

CloudWorks - nr. 10 / 2016 Alles over innovatie in ICT

Interview

Carel Bak van SimpliVity:

‘ Wij bieden een iPhone voor het datacenter’

In 2020 zijn hyperconverged infrastructuren ‘main stream’ in het datacenter, zo is de verwachting van marktonderzoeksbureau Gartner. Carel Bak, Regional Director Northern Europe bij SimpliVity, kan zich wel vinden in deze voorspelling. “De transitie gaat heel erg hard. Of het nu gaat om productiebedrijven, of om zorginstellingen die onder druk staan omdat de budgetten worden teruggeschroefd, er zijn steeds meer organisaties die de voordelen zien van hyper convergence.” SimpliVity is nu zo’n tweeënhalf jaar op de Nederlandse markt actief met als belangrijkste missie om IT vooral een stuk eenvou diger te maken. “Door de complexiteit te verminderen, kan IT veertig tot zestig procent op de operationele kosten besparen”, zo rekent Carel Bak voor om aan te geven dat er nog veel te winnen is.

“Gebruikers hebben vaak niet in de gaten wat er allemaal voor nodig is om gebruik te kunnen maken van bijvoorbeeld een SAP-applicatie”, vervolgt Bak. “Er zijn soms wel vijftien of zestien verschillende oplossingen nodig om die applicatie goed te laten draaien, en al die oplossingen zijn afkomstig van verschillende leveranciers die allemaal hun eigen technologieën gebruiken, hun eigen gebruikersinterfaces en hun eigen beheerlagen. IT-afdelingen moeten er met veel mensen heel hard voor werken om dat allemaal draaiende te houden.” De complexiteit breekt zich volgens Bak bijvoorbeeld ook op bij het uitrollen van een nieuwe applicatie. “Als je een applicatie op een stack zet die bestaat uit servercapaciteit, storage, back-up, disaster recovery en WAN-acceleratie, en het werkt niet, dan moet je over die hele stack gaan troubleshooten. En er hoeft maar één device met verkeerde firmware tussen te zitten en je bent eindeloos bezig met iets werkend krijgen wat gewoon zou moeten werken.”

30

Alles over innovatie in ICT

Hyperconvergence

‘Converged infrastructures’ – zoals de vBlock van VCE en de FlexPod van Cisco en NetApp – waren enkele jaren geleden het antwoord op de door Bak geschetste complexiteit. Deze geconver geerde infrastructuren bundelen de storage, networking en servers in een enkele unit. De complete set van componenten is vooraf door de leverancier samengesteld en volledig geconfigureerd, wat fouten helpt voorkomen.

De geconvergeerde systemen bieden echter altijd nog maar een klein deel van de stack die nodig is om gebruikers optimaal gebruik te laten maken van bijvoorbeeld een SAP-applicatie. Zo voorzien geconvergeerde systemen doorgaans niet in zaken als WAN- acceleratie en de back-up van gegevens. Dit is waar de hyper geconvergeerde systemen om de hoek komen kijken. Bak: “Vergelijk het met de iPhone. Vroeger had je een camera, een videocamera, navigatiesysteem, een voicerecorder en zo’n Nokia’tje. De iPhone biedt dat allemaal in één apparaatje.”

OmniStack en OmniCube

“Wij bieden een iPhone voor het datacenter”, zo zegt Bak over de oplossingen die SimpliVity biedt. Alle componenten die in een IT-stack aanwezig zijn, worden bij SimpliVity gebundeld tot één ‘IT building block’ die via de beheerconsole van VMware kan worden beheerd. “De VMware-admin runt als het ware je hele IT. Als er zich een probleem voordoet, dan is dat via die ene beheer console op te lossen zonder dat je zestien verschillende appliances langs moet lopen.” SimpliVity biedt zijn oplossing aan in een software- en een hardwarevariant. De OmniStack-software (zie ook het kader, red.) kan worden geïnstalleerd op de x86-platformen van Cisco, Lenovo en Dell. “De OmniCube is onze appliance met daarop dezelfde OmniStack-software”, aldus Bak. “Dan heb je de compute, memory, cpu en storage ineen met daarbovenop nog aanvullende functies zoals dataprotectie, back-up en disaster recovery, en alles draait onder VMware, KVM of Hyper-V.”

‘True hyperconvergence’

Volgens Bak gaat SimpliVity met OmniStack en OmniCube een stap verder dan de concurrentie. “Als je bij veel concurrenten onder de motorkap kijkt, dan zie je toch allemaal losse onderdelen met allemaal aparte firmware en eigenaardigheden. Wij hebben de functionaliteit echt geïntegreerd.” SimpliVity spreekt zelf dan ook graag over ‘true convergence’.

“Ook bieden wij zaken als een volledige back-up en disaster recovery die bij de concurrenten vaak ontbreken”, vervolgt Bak. “Na een security-breach kunnen we binnen tien seconden een VMware-back-up van 1 terabyte terugzetten. Deze optie is op dit moment erg actueel in verband met de bescherming tegen zogenaamde cryptolocker ransomware. Daar komt bij dat wij het dataprobleem daadwerkelijk oplossen; niet door er meer storage en verwerkingskracht tegenaan te gooien, maar door data te dedupli ceren nog voordat de data de memory of cpu raken. Als we data al eerder hebben gezien, hoeven we die niet meer te schrijven.”

Hyperconvergence in RfP’s

“De slag van converged naar hyperconverged is de afgelopen twee à drie jaar wel heel erg hard gegaan”, concludeert Bak. “Je ziet nu al Requests for Proposal op de markt komen waarin ‘hyper convergence’ een eis is.” De voordelen zijn dan ook groot, aldus Bak. “We kunnen zeven IT-racks binnen een dag terugbrengen tot een half rack en applicaties zijn bijvoorbeeld sneller uit te rollen.” De geringere complexiteit betaalt zich uit in besparingen op bijvoorbeeld de energiekosten en de kosten voor het dagelijkse beheer. “Door de geringere complexiteit kan de tijd die wordt besteed aan het dagelijkse IT-beheer aanzienlijk worden teruggedrongen. Je kunt met hetzelfde aantal mensen meer doen, of hetzelfde met minder mensen. Waar zonder hypergeconvergeerde systemen drie of vier mensen nodig zijn voor het beheer, is met hyperconvergence maximaal 0,5 fte nodig.”

Ferry Waterkamp is journalist

MORE SPEED FOR ALL DEVICES

BOOSTED WI-FI COVERAGE 4x high-gain antennes voor Wi-Fi dekking zonder dead zones BEAMFORMING Smart device lokalisatie om het Wi-Fi signaal te versterken QUALCOMM ® MU-MIMO Multitasking voor 3x sneller Wi-Fi QUALCOMM ® STREAMBOOST TM Automatische prioritering van verkeer voor snellere Wi-Fi

OmniStack 3.5

SimpliVity presenteerde in april van dit jaar een nieuwe versie van zijn OmniStack-software. Een belangrijke toevoeging is de ondersteuning van Microsoft Hyper-V naast VMware en KVM. Voor de ondersteuning van Hyper-V is het nog wel even wachten op Microsoft Windows Server 2016, dat in de tweede helft van dit jaar op de markt wordt verwacht. Daarnaast biedt versie 3.5 van OmniStack onder andere: • ondersteuning voor grote, bedrijfskritische, wereldwijde deployments; • OmniView Predictive Insight waarmee bedrijven kunnen voorspellen of SLA’s ook in de toekomst worden gehaald; • een ‘Intelligent Workload Optimizer’ voor het slim migreren van virtuele machines zodat een optimale verdeling van de workload kan worden gerealiseerd.

www.sitecom.com

CloudWorks - nr. 10 / 2016

31

32

Analytics

Een tijdmachine in het datacenter

Ondanks alle aandacht voor big data komen we nog altijd data tekort! Neem bijvoorbeeld een datacenter. Wie zo’n center goed én veilig wil beheren en ervoor moet zorgen dat de applicaties optimaal draaien, heeft erg veel gegevens nodig om te analyseren wat er in het datacenter gebeurt - en waarom. Die data zijn tot nu niet eenvoudig te verzamelen, laat staan real-time. Helemaal mooi zou zijn als er ook nog gegevens uit het verleden beschikbaar zijn. Dan zijn bijvoorbeeld trendanalyses mogelijk. Dat is nu allemaal mogelijk met Cisco Tetration Analytics, een platform dat voor volledige zichtbaarheid zorgt van alles wat zich in een datacenter afspeelt. Real-time van elk datapakket en elke datastroom, ongeacht de snelheid. Het is duidelijk dat verkrijgen van meer inzicht in het datacenter nodig is voor het bouwen van solide en veilige digitale modellen voor cloud, mobiele toepassin gen en het Internet of Things. Om tot dat inzicht te komen moesten organisaties op allerlei verschillende manieren data verza melen en deze vervolgens analyseren. Tot op heden was er geen tool verkrijgbaar om op een consistente manier meetgegevens te verzamelen binnen het gehele datacenter en Alles over innovatie in ICT 200x

faster application behavior insight

Real-time Network Analytics for Your Data Center

10s of Billions

of events searchable in seconds

100%

visibility across every packet

70%

higher operational efficiency

0

trust operational model

5x

reduction in attack surface Learn more at www.cisco.com/go/tetration

om grote hoeveelheden data in real-time te analyseren.

Voor ieder datacenter

Met de komst van Cisco Tetration is dit hele proces veel eenvoudiger geworden. Bovendien is Tetration te vergelijken met een tijdmachine voor het datacenter. Organisaties kunnen hiermee ook ‘terugkij ken’ naar wat er in het verleden is gebeurd, real-time bekijken wat er nú gebeurt en een model maken van wat er zou kunnen gebeuren. Hoewel Cisco de leveran cier is, werkt dit platform voornamelijk met software en is daardoor voor ieder datacenter geschikt. Dus ongeacht welke leverancier de componenten heeft geleverd. Tetration kan bovendien op elk mogelijk netwerk binnen het datacenter draaien.

{

‘ Het verkrijgen van meer inzicht in het datacenter is nodig voor het bouwen van solide en veilige digitale modellen voor cloud, mobiele toepassingen en het Internet of Things’ Hardware én software

Cisco Tetration Analytics verzamelt meetgegevens die afkomstig zijn van zowel hardware-sensoren (alleen op de Cisco Nexus 9000) als software-sensoren in het datacenter en analyseert deze informatie met behulp van geavanceerde machine learning technieken. De sensoren draaien op de eindsystemen (de hosts en eventueel in combinatie met een Nexus 9000 switch) en in het netwerk.

datacenter plaatsvindt. Denk bijvoorbeeld aan ‘mini bursts’ (zeer korte pieken in het netwerkverkeer) en afwijkende patronen in het netwerkverkeer. Bovendien wordt duidelijk gemaakt uit welk proces - zelfs binnen een virtual machine - het verkeer afkomstig is. De analyse van de meetge gevens geeft inzicht in welke applicaties binnen het datacenter van elkaar afhanke lijk zijn. Dit is ook mogelijk binnen een cloudomgeving, bijvoorbeeld ten behoeve van een hybride cloud, want Tetration kan ook binnen cloud instances werken. Het beeld van het datacenter wordt (vrijwel) real-time gecreëerd. overstap op een whitelist securitymodel. Daarbij werkt het monitoren zelf niet beter met SDN, maar het bouwen en uitvoeren van een whitelist policy model werkt wel veel beter met SDN. Door continu te monitoren, te analyseren en te rapporteren, geeft het Tetration Analytics platform IT-managers diepgaand inzicht in het datacenter. Hierdoor wordt het veel eenvoudiger om operationele betrouwbaar heid, zero-trust operaties en de migratie van applicaties naar SDN en de cloud te realiseren.

Compleet beeld

Deze meetgegevens geven een zeer gedetailleerd beeld van wat er in het

Kritieke operaties

Tetration richt zich op kritieke opera ties in het datacenter, zoals het voldoen aan policies, applicatie-forensics en de Een belangrijke winst is dat het datacen terbeheer zo kan overgaan van reactief op proactief. Veranderingen in het datacenter zelf kunnen eerst worden gemodelleerd om na te gaan wat de impact zou kunnen zijn, bijvoorbeeld op de applicatie-performance. CloudWorks - nr. 10 / 2016

33

Analytics

Verder kunnen policies worden gesimu leerd, real-time of op basis van historische gegevens en kunnen gebeurtenissen die op het netwerk hebben plaatsgevonden opnieuw worden ‘afgespeeld’ voor analy sedoeleinden. Ook is na te gaan of policy veranderingen goed zijn doorgevoerd en in de praktijd het beoogde effect hebben.

Elke app zijn eigen policy

Idealiter is er voor elke applicatie een afzon derlijke policy nodig om tot een optimum te komen. Dat lukt echter alleen als onderlinge afhankelijkheden en communicatiestro men tussen applicaties bekend zijn. Maar in oude applicatielandschappen, die beetje bij beetje zijn opgebouwd, is het erg kostbaar om dit allemaal vast te stellen en in beeld te brengen. Het wordt noodgedwongen wel gedaan door ‘samples’ te nemen, maar dit soort steekproeven kan nooit een volle dig beeld opleveren. Tetration maakt niet alleen inzichtelijk welke apps met welke apps communiceren, maar ook hoe en wanneer zij dat doen. Dit levert de nodige input op om met een policy een SDN aan te sturen. Een voorbeeld: voor de meeste (grote) netwerken geldt nu dat als er een firewall wordt ingezet, er meteen proble men ontstaan doordat de relaties tussen de apps niet bekend zijn en daardoor niet in de policy worden opgenomen. Met inzet van Tetration zijn dit soort tijdrovende en zeer verstorende problemen te voorkomen.

Security op een hoger peil

Een complicatie is dat het datacenterbeeld voortdurend verandert doordat er steeds nieuwe apps en updates worden geïnstal leerd, migraties plaatsvinden, enzovoort. Bij

{

‘ Een real-time beeld van de communicatiestromen van, naar en tussen applicaties maakt bijvoor beeld een white list securitymodel ook echt mogelijk’

cloudmigraties speelt dezelfde problematiek, daar is het de vraag waar de gemigreerde app allemaal mee communiceert. Een real time inzicht hierin vergemakkelijkt niet alleen de migratie naar de cloud, maar zorgt ook voor een aanzienlijke verbetering van de beveiliging.

Een real-time beeld van de communica tiestromen van, naar en tussen applicaties maakt bijvoorbeeld een white list security model ook echt mogelijk. Tetration ziet geen enkele app - of onderdelen daarvan - over het hoofd, zodat er een betrouw bare white list kan worden opgesteld. Zodra de omgeving van buitenaf wordt gehackt, wordt dit direct gesignaleerd. Ook ongeoorloofde handelingen en onbedoelde effecten - bijvoorbeeld van interne veranderingen - komen direct in beeld. Tetration kent alle karakteristieken van het netwerkverkeer en ziet in elke flow afwijkingen zodra die optreden. Ook het applicatiegedrag wordt continu gemonitord en afwijkingen in communicatiepatronen komen zo snel boven water. Voor foren sische doeleinden beschikt Tetration over een forensische zoekmachine die binnen een seconde miljarden datastromen kan doorzoeken.

Toekomst

Tetration wordt vanzelfsprekend verder ontwikkeld. Op security gebied zal het platform intelligenter worden en op basis van verzamelde datacenterdata nauwkeu riger en sneller kunnen vaststellen of er daadwerkelijk sprake is van een inbraak. Dat zou zelfs zover gaan dat klanten een bepaalde garantie kunnen krijgen hoe snel een inbreuk gedetecteerd wordt. Vergele ken met wat nu mogelijk is, zal de detectie tijd aanzienlijk korter zijn. Te verwachten valt ook dat de analyses van Tetration gebruikt worden voor automatische policy aanpassingen, zodat het datacenter zich voortdurend aanpast aan wat de applicaties vragen en hiertussen continu een optimale balans wordt gehandhaafd. Precies wat er van een datacenter wordt verwacht.

Wat betekent tetration?

Elk bedrijf wordt steeds meer een softwarebedrijf en de mate waarin de business gedi gitaliseerd is bepaalt de waarde van het bedrijf. Dus ook de snelheid van deze transitie moet omhoog, waarbij de security helemaal op orde moet zijn en er ook nog voldaan moet worden aan wet- en regelgeving (compliance). Een grootschalige overstap naar de cloud is het gevolg. Cloud-aanbieders worstelen echter met een vergaande ‘verclou ding’, waarbij de public cloud vaak gecombineerd wordt met een eigen IT-omgeving en/of datacenter. Tegelijk moeten de aanbieders meer service-georiënteerd werken. Vandaar dat zij steeds meer behoefte hebben aan het zeer snel en dynamisch kunnen aanpassen van de datacenteromgeving: het datacenter moet steeds optimaal zijn inge richt op sterk wisselende actuele omstandigheden. In de huidige datacenters vindt momenteel daarom een ware explosie van complexiteit plaats. Vandaar dat Cisco heeft gekozen voor de naam ‘tetration’, een term voor expo nent op exponent: x tot de macht n tot de macht n.

34

Alles over innovatie in ICT

Blog bouwen aan de toekomst

Als iemand 100 miljoen euro aan de bouw van een datacenter besteedt, dan zal dat datacenter op papier prima gaan functioneren. Althans, wanneer het wordt afgezet tegen de geldende eisen en richtlijnen op papier. Echter, pas als een datacenter operatio neel wordt, blijkt of het daadwerkelijk functioneert en presteert zoals het ontworpen is. Dan gaat het nadrukkelijk niet om de behaalde certificeringen en technische eisen van fabrikanten, maar om de uptime.

Niet een certificering, maar de operatie garandeert de uptime

Een high tech, state-of-the-art datacenter dient te voldoen aan veel meer dan alleen de technische eisen. Het zijn vooral de operatie, de manier waarop het datacenter wordt beheerd en onderhouden, de wijze waarop inspecties worden gedaan en hoe de instellingen van de apparatuur worden geoptimaliseerd en bijgesteld, die de uptime bepalen. En dat is waar het uiteinde lijk om gaat. Certificeringen die aan een ontwerp ten grondslag liggen, bieden hierin geen sluitende garantie op die uptime. in de jaren ’40 en ’50. Bij onderhoud kijken we kritisch naar de kans op en impact van het uitvallen van systemen en houden we rekening met de mogelijke scenario’s als er onderdelen defect raken. Daarmee voorkomen we dat het datacenter als geheel kan uitval len. Door alle kritische onderdelen regelmatig te controleren kan het onderhoudsprogramma beter worden afgestemd op de actuele conditie van de systemen en worden onnodige risico’s voorkomen. Dit alles vormt de basis van het realiseren van de uptime.

Eigen verantwoordelijkheid

Een aanbieder van hoogwaardige datacenterdiensten moet verder kijken dan de richtlijnen die vanuit de industrie en door fabri kanten worden opgelegd. Dit is niet alleen in zijn eigen belang, maar hij weet bovendien als geen ander hoe uptime het beste kan worden gegarandeerd. Zo kijken wij bij Interxion met ons maintenance-programma naar hoe kritisch een bepaalde compo nent is, wat de faalkans is en wat de impact is wanneer er iets niet functioneert. Een fabrikant van een component - neem een airconditioning-unit - kijkt enkel naar dat afzonderlijke compo nent en beziet de verschillende onderdelen van het datacenter niet in samenhang. Door nauwkeurig te kijken naar de werking van systemen kunnen passende onderhoudsplannen worden opgesteld, die storingen kunnen voorkomen en geen onnodige risico’s intro duceren bij de uitvoering van het onderhoud.

Waarde van mensen

Naast de gedegen testen van alle systemen in onze datacenters, draait uptime ook om mensen. Een technisch perfect datacenter kan door een verkeerde handeling of ingreep van een mens alsnog falen. Om de menselijke factor beheersbaar te maken is training, oplei ding en certificering cruciaal. Hoewel externe certificeringen kunnen bijdragen aan verhoging van kennis en awareness van het werken in een kritische omgeving, zijn het juist de interne processen die kunnen borgen dat er geen fouten worden gemaakt tijdens het uitvoeren van onderhoud. Zo beschikt Interxion over diverse processen die de juiste uitvoering van werkzaamheden borgen en zorgen voor een juiste terugkoppeling, indien er afwij kingen worden geconstateerd. Door alle onderhoudsactiviteiten nauwgezet te plannen en registreren in een onderhoudsmanage ment systeem, wordt de kans op fouten geminimaliseerd. Boven dien stelt het systeem Interxion in staat om tijdens externe audits op een eenvoudige manier aan te tonen dat alle onderhoudstaken correct en tijdig zijn uitgevoerd.

Commissioning en onderhoud

Bij de oplevering van een nieuw datacenter hanteert Interxion het level 5-commissioning principe. Hierbij kijken we veel verder dan de gangbare richtlijnen en certificeringen door gedurende het hele bouwproces in vijf stappen de onderdelen en systemen te controleren, inspecteren en testen. Dit begint al bij het moment dat een compo nent de fabriek verlaat en loopt door tot de integrale acceptatietest die plaatsvindt vlak voor het datacenter volledig operationeel wordt. Aansluitend op het ‘live’ gaan van het datacenter, wordt een uitge breid onderhoudsprogramma opgestart. Dit is gebaseerd op een gedetailleerde FMECA-studie (Failure Mode and Effect Criticality Analysis). Deze methodiek vindt zijn oorsprong in de luchtvaart Uptime staat centraal in onze dienstverlening. Dit wordt gerea liseerd door een excellente operatie, die het state-of-the-art datacenter aan uitgebreide testen onderwerpt, het onderhouds programma met zorg samenstelt en goed opgeleide mensen inzet voor de uitvoering ervan. Met deze kritieke succesfactoren wordt de uptime iedere dag weer waargemaakt, ook lang nadat een certificering van een datacenter op de gevel is gespijkerd!

Koenraad Zirkzee, Director Operations Interxion

CloudWorks - nr. 10 / 2016

35

Markt

Schindler en Huawei lanceren:

Internet of Elevators & Escalators

Met een omvang die in 2020 naar verwachting rond 151 miljard dollar zal liggen, is het niet verwonderlijk dat veel IT-bedrijven steeds meer aandacht krijgen voor de markt voor zogeheten Industrial Internet of Things-toepassingen. De samenwerking die Huawei en Schindler onlangs sloten om gezamenlijk IoT software en -hardware te ontwikkelen voor liften en roltrappen is hier een goed voorbeeld van.

Sommige partijen spreken simpelweg van Internet of Things, in Duitstalige landen duidt men het liever aan met Industrie 4.0 en tijdens het Huawei Connect 2016-congres in Shanghai werd deze ontwikkeling onlangs getypeerd als Industrial Internet of Things. In alle gevallen gaat het om het toevoegen van sensoren aan indus triële installaties. Deze sensoren verzamelen meetdata en transpor teren deze gegevens naar een softwareplatform waarmee deze vaak zeer grote hoeveelheden data kunnen worden geanalyseerd. In de industrie streeft men daarmee vooral doelen na als het verkrijgen van een beter inzicht in het gedrag van een installatie of machine. Daarmee kan men zoveel kennis vergaren dat men storingen ziet aankomen zodat proactief onderhoud mogelijk is en storingen van de installatie zoveel mogelijk kunnen worden voorkomen.

15 miljoen

Dat is een van de kernpunten waar het bij de samenwerking tussen Schindler en Huawei om draait. Het Zwitserse concern is een grootmacht op het gebied van roltrappen en liften. Over de gehele wereld bouwt men deze - zoals men het zelf noemt - mobility oplossingen in kantoorgebouwen, ziekenhuizen, winkelcentra, appartementsgebouwen en dergelijke. Wereldwijd staan inmiddels meer dan 15 miljoen liften opgesteld, die dagelijks, zo heeft men uitgerekend, enkele miljarden mensen van de ene locatie in een gebouw of faciliteit naar de andere brengen. Wie zich bedenkt dat de komende jaren nog eens circa 3 miljard mensen zich in steden zullen vestigen, waardoor in 2050 maar liefst 70 procent van de wereldbevolking in een stedelijk gebied woont, komt natuurlijk al snel tot de conclusie dat liften en roltrappen een cruciale rol spelen in het dagelijks leven van veel mensen. Storingen in deze systemen hebben dan ook een grote impact - op winkelverkopen, op de productiviteit van werknemers, op de gezondheid van patiënten in een ziekenhuis, noem maar op. Gemiddeld is een lift of roltrap twee dagen per jaar buiten dienst. Dat kan het gevolg zijn van een storing, maar ook inspectie en onderhoud kosten tijd. Per jaar gaat het dus om 30 miljoen dagen (15 miljoen liften maal 2 dagen) vanwege storingen. Dit brengt enorme kosten met zich mee. En daar komen dan nog misgelopen winkelomzet, lagere productiviteit van medewerkers en dergelijke bij.

36

Alles over innovatie in ICT

Schindler en Huawei gaan nauw samenwerken bij het ontwikkelen van een Internet of Elevators & Escalators, waarbij gebruik wordt gemaakt van een software-defined netwerk en grote aantallen IoT-sensoren.

Digital ecosystem

Om dit probleem op te lossen, werkt Schindler samen met partijen die kunnen helpen om de lift en de roltrap als het ware te digitali seren. Huawei speelt als aanbieder van zowel telco- als ICT-oplos singen een belangrijke rol binnen dit ecosysteem. De twee partners hebben gezamenlijk een software-defined netwerk-oplossing ontwikkeld dat als basis dient voor het plaatsen van sensoren en andere IoT-apparatuur in en rond de liften en roltrappen. Deze IoT-apparatuur communiceert in principe draadloos met een IoT gateway die via een netwerk controller - Huawei spreekt hier van een zogeheten ‘agile controller’ - in verbinding staat met een IoT-platform. zoals gezegd ook doorgesluisd naar Schindler zodat deze firma het gedrag van meerdere installaties kan bekijken, maar deze info ook kan gebruiken voor bijvoorbeeld R&D-doeleinden, productont wikkeling, serviceverlening en dergelijke. De voordelen die de twee bedrijven met deze manier van werken verwachten te realiseren, zijn enorm. Zo verwacht Schindler dat de tijd die nodig is om de oorzaak van een storing in een transport installatie te achterhalen met maar liefst 90 procent kan worden teruggebracht. Bovendien denkt men dankzij deze manier van werken 50 procent lagere OPEX-kosten te behoeven maken. Op dit softwareplatform wordt alle data van de sensoren verzameld en beschikbaar gesteld aan de systemen die Schindler heeft ontwik keld voor het aansturen en beheren van de transportsystemen. In feite hebben de twee partijen hierbij dus een vorm van edge computing toegepast om de vele miljoenen sensoren - terminals in telco-termen - te kunnen beheren. Deze sensoren zijn opgenomen in een SDN-netwerk zodat Schindler de grote hoeveelheden data die deze terminals voortbrengen kan verzamelen. Daarbij kan data van één installatie separaat worden bekeken, maar kunnen technici van het Zwitserse bedrijf ook naar data kijken die afkomstig zijn van sensoren in tal van liften of roltrappen.

IoT-platform

Het IoT-platform waar alle sensordata in eerste instantie wordt verzameld, is reeds voorzien van analytics-functionaliteit zodat gebouwbeheerders via een app zelf de stand van zaken rond de installaties in hun eigen gebouw kunnen bekijken. Alle data wordt

Nieuwe toepassingen

Interessant zijn echter ook de nieuwe mogelijkheden die de twee bedrijven dankzij het creëren van deze SDN-infrastructuur zien ontstaan. Zo zouden bijvoorbeeld beeldschermen in liften of bij roltrappen kunnen worden geplaatst waar advertenties op worden vertoond of relevante informatie over routes binnen het gebouw, meldingen van de facilitaire dienst en dergelijke. Hetzelfde geldt voor location-based services. In feite is door de aanwezigheid van een dergelijk software-defined netwerk in het gehele gebouw de basis gelegd voor het ontwikkelen van een smart building of smart community.

Robbert Hoeffnagel

CloudWorks - nr. 10 / 2016

37

Energie

‘Traditionele formules en intuïtie voldoen niet’ Machine learning helpt Google energie rekening met 40 procent verlagen

Machine learning en neurale netwerken kunnen een belangrijke rol spelen bij het verlagen van het ener gieverbruik in datacenters. Tot die conclusie komt Google na experimenten met het gebruik van Deep Mind - de AI engine die enige tijd geleden ook de wereldkampioen Go versloeg. Het resultaat? Er is in de datacenters van Google 40 procent minder energie nodig voor koeling.

In veel datacenters wordt gewerkt met monitoring-tools, maar daarnaast ook op gevoel en ervaring. Daarmee kunnen belangrijke stappen gezet worden rond bijvoorbeeld energiebesparing, maar het maximale wordt er niet uitgehaald. Zeker als de relaties tussen events minder voor de hand lijken te liggen of zelfs tegen het gevoel van een datacenter manager in gaan. Machine learning haalt dit soort patronen echter wel degelijk uit de data. Waarbij geldt: hoe meer data hoe beter.

De kreet ‘machine learning’ begint zo langzamerhand bekend te worden. Meestal hebben dit soort technieken betrekking op consu mententoepassingen. Denk aan gezichtsherkenning in foto’s die we met onze smartphone maken of het gebruik van personal assistants als Apple’s Siri of Cortana van Microsoft.

Data verzamelen

In essentie komt het gebruik van dit soort technologie er op neer dat zoveel mogelijk data wordt verzameld, waarna de machine learning-software hierin op zoek gaat naar patronen. Het idee hierbij is dat er talloze relaties bestaan tussen events in een datacen ter die niet direct zichtbaar zijn in bijvoorbeeld logbestanden. Ook veel relaties waar we in eerste instantie zelf niet aan zouden hebben gedacht. De vraag is alleen: welke zijn dat dan precies? Google zet in zijn datacenters hiervoor de technologie van DeepMind in. Dit is een van oorsprong Brits bedrijf dat enkele jaren terug door Google is overgenomen. De technologie van de Britten bleek onder andere krachtig genoeg om de wereld kampioen Go te verslaan. Diezelfde technologie heeft het bedrijf nu dus ingezet om het energieverbruik van zijn datacenters te analyseren. En wat blijkt? Er kan opnieuw een grote stap voorwaarts worden gezet.

Interessante inzichten

Eerder investeerde Google al in het ontwerpen en bouwen van eigen IT-hardware. Bovendien heeft het bedrijf veel engineering ingezet om tot betere en efficiëntere koelmethoden te komen. Daarmee zijn al stevige stappen vooruit gezet. Met DeepMind

IT-hardware kan veel meer

‘Sustainability is meer dan het realiseren van een zeer lage PUE’, meent Rachel Futrell, als technical program manager verantwoordelijk voor datacenter sustainability bij Google. Het bedrijf lanceert daarom een programma dat luistert naar de naam ‘Zero Waste to Landfill’. Vrij vertaald: geen afval meer afvoeren naar de vuilstort.

Natuurlijk kent ieder datacenter restproducten die niet langer gebruikt worden. Met dit programma probeert het concern echter een impuls te geven aan recycling. Is het mogelijk om de restproducten te hergebruiken of materialen uit deze restpro ducten te halen en opnieuw te benutten? Hierbij baseert Google zich op de UL 2799 standaard van UL Laboratories.

38

Alles over innovatie in ICT Een interessant onderdeel van dit programma is het feit dat Google IT-hardware veel langer dan gebruikelijk benut. Het bedrijf ontwikkelt natuurlijk al vele jaren zijn eigen IT-apparatuur en kan bij ontwerp en bouw dus al rekening houden met de be hoefte om deze apparatuur gemakkelijk te kunnen repareren of te demonteren zodat nog correct functionerende componenten gemakkelijk kunnen worden hergebruikt om defecte apparatuur weer te herstellen. Apparaten die niet meer te repareren zijn, dienen in principe zoveel mogelijk gerecycled te worden.

Zes van de veertien datacenters van Google hebben inmiddels zogeheten ‘100 percent diversion rates’ bereikt. Dit wil zeggen: geen restproducten meer richting vuilstort. Meer info is te vinden op https://green.googleblog.com.

zet men naar eigen zeggen opnieuw een forse stap doordat het slim analyseren van alle beschikbare data tot een 40 procent lager energieverbruik voor koeling blijkt te leiden.

Daarbij is Google naar eigen zeggen tot een aantal interessante inzichten gekomen: • Zelfs bij concerns als Google geldt dat ieder datacenter uniek is voor wat betreft architectuur en omgeving. De koelaanpak dient dus op maat te zijn van ieder individueel datacenter. Google heeft daarom een ‘general intelligence framework’ ontwikkeld dat het mogelijk maakt om het energieverbruik voor koelingsdoeleinden per datacenter te analyseren en te verbeteren.

• De systemen en componenten die gezamenlijk de koelinstal latie vormen beïnvloeden elkaar op niet-lineaire wijze die veel complexer is dan vaak wordt gedacht. Met andere woorden: de formules die de basis vormen voor het uitrekenen van een koelinstallatie kloppen in een aantal gevallen niet. De invloed die de diverse deelsystemen op elkaar hebben zit vaak veel complexer in elkaar. Dit intelligence framework is waar de machine learning-techno logie van DeepMind wordt toegepast. Engineering-teams van Google hebben zoveel mogelijk relevante operationele situaties in de datacenters beschreven. Met deze parameters zijn de neurale netwerken van DeepMind vervolgens aan de slag gegaan. Met als gevolg 40 procent lager energieverbruik voor koeling. Met andere woorden: 40 procent lagere kosten.

• De huidige generatie koelsystemen kan niet snel en flexibel inspelen op veranderingen - intern noch extern (zoals het weer). De belangrijkste reden hiervoor is dat iedere situatie andere regels voor het instellen van de apparatuur vereist en die zijn op voorhand simpelweg niet allemaal aanwezig.

Robbert Hoeffnagel, hoofdredacteur CloudWorks

CloudWorks - nr. 10 / 2016

39

EuroCloud

EuroCloud Europe bijeen over toekomst van cloud

De adoptie van cloud services in Europa groeit sterk. Voor het be stuur van het kennisnetwerk Euro Cloud Europe is dit aanleiding om een discussie op te zetten over de toekomst van cloud in de Europese markt. Startsein voor de discussie werd gegeven tijdens het jaarlijkse EuroCloud Europe Congres, dat begin oktober in Boekarest plaats vond.

Maar liefst 60 procent van de Europese IT executives die onderzoeksbureau 451 Research deze zomer ondervroeg geeft aan dat zij steeds meer een beroep op de cloud gaan doen. Sterker nog, de onder vraagde IT-managers verwachten dat zij in 2018 maar liefst 60 procent van hun IT workloads naar de cloud zullen brengen. Daarbinnen zullen SaaS-toepassingen ongeveer een kwart van alle workloads voor hun rekening nemen. Het gebruik van IaaS zal in 2018 verdubbeld zijn ten opzichte van dit jaar.

Forse groeicijfers

Het zijn indrukwekkende groeicijfers die 451 Research vorige maand naar buiten bracht. Tegelijkertijd valt op dat veel van deze - zeg maar - business wordt onderge bracht bij Amerikaanse leveranciers. Terwijl er tegelijkertijd binnen Europa sprake is van een rijk geschakeerde cloud-industrie.

Hoe verder?

Voor het bestuur van EuroCloud Europe zijn dit soort trends aanleiding om een discussie aan te gaan over de komst van cloud in Europa. Waar hebben Europese gebruikers van cloud services maar natuur lijk ook aanbieders van cloud-diensten behoefte aan? Hoe kunnen we de nog altijd versnipperde Europese markt verder verbe teren en welke rol kan EuroCloud Europe als kennisnetwerk op dit punt spelen? Bij het ter perse gaan van deze editie van CloudWorks was deze discussie nog in volle gang. Op de website van CloudWorks en ook op deze pagina in het magazine zullen we de komende tijd nader op de resultaten van deze discussie ingaan.

Uitreiking EuroCloud Awards 2017

Binnen EuroCloudNL wordt inmiddels al weer hard gewerkt aan de voorberei ding van de EuroCloudNL Awards 2017. Aanmelden voor deelname kan tot 24 fe bruari 2017. Het event rond de uitreiking vindt plaats op 28 maart 2017.

• Wanneer: 28 maart 2017 • Waar: Dell EMC, Amsterdam Meer weten? Stuur een e-mail naar [email protected]

Events 2016/2017

EuroCloudNL organiseert dit najaar en begin volgend jaar weer een aantal events die gericht zijn op kennisdeling en kennisuitwisseling binnen de Neder landse cloud-markt.

• 21 november 2016: seminar Dark Web, Landgoed Beuken rode in Doorn • Najaar 2016: Show Your Cloud Open Telekom Cloud in samenwerking met T-Systems • 24 februari 2017: Sluiting inzenden voor EuroCloud Awards • 28 maart 2017: Uitreiking EuroCloudNL Awards 2017

EuroCloud brengt EU Data Landscape in kaart

Hoe komen we tot een juiste balans tus sen regulering en innovatie in de cloud markt? Daarover handelt een nieuwe blog post op de website van EuroCloud. De Europese blog post luistert naar de titel ‘The EU data landscape: Striking the balance between regulation and inno vation’. De blog post stelt onder andere: ‘If we really want to position Europe as a global leader in the data economy we need to ensure that we get the balance right. This means ensuring high levels of privacy while fostering new business in novation in sectors that rely on data and developing trust and confidence among users, from the individual consumer to the public and private sector’. Kijk voor meer info op http://bit.ly/2dxZ5G0.

40

Alles over innovatie in ICT

Legal Look

Mr. V.A. de Pous

Wetgeving Wat zijn de jongste juridisch trends?

We zien vijf legislatieve trends in de informatiemaatschappij, speciaal in het cruciale domein privacy en digitale veiligheid, welke cloud computing in het hart raken. Allereerst wordt het net rond de bescherming van de persoonlijke levenssfeer aangetrokken. De rechtspositie van de burgers in Europa wordt telkens versterkt; bedrijven en overheidsorganisaties zien zich vice versa en onder meer op grond van het aankomende privacyrecht (Algemene Verordening Gegevensbescherming) geconfronteerd met allerlei nieuwe verplichtingen. Bovendien wordt speciaal voor bewerkers (= cloud leveranciers) het net aangetrokken. Daarnaast probeert de wetgever het algemene probleem van een gebrek aan vertrou welijkheid van gegevensverwerking het hoofd te bieden. Op deze grond kent Nederland, zowel autonome als Europese wetgeving, inmiddels uiteenlopende netwerk- en informatiebeveiligingswetge ving. Deze categorie regelgeving schrijft vooral passende technische en organisatorische maatregelen voor om gegevens te beschermen tegen verlies of tegen enige vorm van onrechtmatige verwerking.

Nemen meldplichten ook toe?

We constateren een stevige en bovenal beklijvende trend ten aanzien van de opkomst en uitbreiding van wettelijke meldplich ten bij incidenten in relatie tot ICT, waaronder het lekken van persoonsgegevens. Zo is het boetemaximum voor datalekkende telecombedrijven onlangs verdubbeld. Mede uit de boetebeleidsre gels, waarin is gekozen voor een categorie-indeling en bandbreed te-systematiek, blijkt dat bij het bepalen van de hoogte van een boete het uitgangspunt geldt dat deze in verhouding moet staan tot de begane overtreding. Dit betekent dat de beboetbare wettelijke bepalingen per wettelijk boetemaximum van 820.000, 900.000 of 20.500 euro ingedeeld zijn in een aantal boetecategorieën met daaraan verbonden in zwaarte oplopende boetes. Nog een voorbeeld. Op 1 juli 2016 trad de Verordening Elektro nische Identiteiten en Vertrouwensdiensten in de interne markt in werking. eIDAS is bedoeld om het vertrouwen in elektronische transacties te vergroten door middel van een gemeenschappelijke basis voor veilige elektronische interacties tussen burgers, bedrijven en overheden. Verleners van vertrouwensdiensten moeten binnen 24 uur toezichthouder Agentschap Telecom op de hoogte stellen van een (vermoeden van een) veiligheidsinbreuk of integriteitsver lies. Agentschap Telecom verwittigt op haar beurt, zover nodig, het NCSC en de Autoriteit Persoonsgegevens.

Wetgever en toezichthouder verwachten een preventieve werking van meldplichten en verhoogde sancties, waardoor (privacy) overtredingen worden voorkomen.

Hoe staat het bevoegdheden voor justitie?

Ook dit is een wetgevingstrend: verbreding en versterking van de juridische bevoegdheden van het opsporingsapparaat, inclusief inlichtingen- en veiligheidsdiensten. Op basis van het wetsvoorstel Computercriminaliteit III, dat op 22 december 2015 bij de Tweede Kamer is ingediend, mogen politie en justitie straks heimelijk en op afstand (online) onderzoek doen in computers. Dat kan een personal computer zijn, een mobiele telefoon of een server. Dit wordt in de volksmond soms ‘terug-hacken’ genoemd. In het wetsvoorstel wordt het ontoegankelijk maken of kopiëren van gegevens toegestaan bij een zeer ernstig misdrijf, waarop in beginsel een gevangenisstraf staat van acht jaar of meer. Denk aan mensen handel of deelname aan een terroristische organisatie. In beginsel, want in een beperkt aantal gevallen kan dat ook bij misdrijven met een vrijheidsstraf lager dan acht jaar, wanneer er sprake is van een duidelijk maatschappelijk belang om een einde te maken aan de strafbare situatie, zoals grooming, kinderpornografie of een DDoS aanval. Dat blijft - ondanks de interventie van de Raad van State inzake strengere privacyvoorwaarden - een omstreden bevoegd heid, in het bijzonder wanneer de informatiesystemen zich in het buitenland bevinden.

Mr. V.A. de Pous is bedrijfsjurist en industrie-analist. Hij houdt zich sinds 1983 bezig met de juridische aspecten van digitale technologie en informatiemaatschappij en is medewerker van uitgeverij FenceWorks.

CloudWorks - nr. 10 / 2016

41

Blog BTG

Virtualisatie heeft de afgelopen jaren een snelle op mars doorgemaakt. In 2012 was nog maar 40% van alle server-workloads gevirtualiseerd, en anno 2016 ligt dit percentage al op 80%. Hierdoor kan het lijken alsof virtualisatie een kersverse technologie is. Toch werd deze technologie niet van de ene op de andere dag een succes. Wist je bijvoorbeeld dat de eerste hypervisor uit 1967 dateerde? Maar virtualisatie nam pas echt een vlucht met de oprichting van VMware en de introductie van ESX in 2001.

Realtime connected?

Al weer enige jaren geleden introduceerde Gartner de term ‘realtime enterprise’, waarbij van de gedachte wordt uitgegaan dat alle data die binnen de organisatie beschikbaar is en door de organisatie wordt gegenereerd, per direct voor de gebruikers beschikbaar moet zijn. Daarmee wordt de effectivi teit van organisaties aanzienlijk verhoogd, omdat razendsnel kan worden gereageerd op ontwikkelingen en kansen in de markt. niet bevorderend. Dit wordt versterkt als hierbij ook de in- en outdoor continuïteitsvraagstukken worden betrokken. Veel organisaties hebben deze convergentie-uitdaging van data-, spraak- en beeldcommunicatie niet volledig onder controle. Dit kan ook worden gesteld voor onze ICT- en telecommunicatie-suppliers.

In toenemende mate rijst dan ook de vraag of wij deze snel toenemende ICT-afhankelijkheid wel geheel aan de markt kunnen overlaten? Ook de overheid twijfelt.

Inmiddels wordt dit gedachtegoed wereldwijd onderschreven, trendwatchers voorzien voor alle zakelijke branches disruptieve ontwikkelingen, die onze kijk op leven en werk volledig zullen doen veranderen. De mogelijkheden van big data en predictive rule engines vormen hiervoor een belangrijke successleutel.

Drempel

In de huidige praktijk zien we al veel voorbeelden van de wijze waarop ICT onze wereld van connected society realtime met elkaar verbindt. Neem bijvoorbeeld de auto-industrie, met zelfrijdende auto’s en robotica binnen de industrie en zorg. We staan op de drempel van een nieuwe wereld, waarin mens en machine elkanders partners, en op den duur zelfs concurren ten worden. Het is overigens datzelfde Gartner dat dit onlangs voorspelde op de IT Expo in Barcelona; de smart machines halen ons op termijn in! De mens zal niet in staat zijn de op basis van big data en predictive rule engines ontwikkelde intelligentie te evenaren. Is dit een verheugend vooruitzicht of een benauwende gedachte vroeg ik mij af?

Voeten op de grond

Goed om in dit verband even de voeten op de grond te zetten, want waar staan we nu eigenlijk? Praktijk is dat nog veel van onze zakelijke eindgebruikers met de letterlijke voeten in de klei staan, want de benodigde basis ICT-infrastructuur, waarbij volledige integratie van vaste en mobiele voorzieningen randvoorwaarde vormt voor de bedrijfscontinuïteit van onze business kent nog zo zijn schaduwzijden, omdat de techniek nog niet alle mogelijk heden biedt. Daarbij werken normeringstelsel en regelgeving ook

Maatschappelijke verantwoordelijkheid

In het kader van het nieuw te ontwikkelen frequentiebeleid, mobiele communicatiebeleid en omroepbeleid spreekt de overheid nu van een verschuiving van een economische naar een maatschappelijke verantwoordelijkheid, van een ‘nice to have’ naar een absolute ‘must have’.

De nadelige effecten van een niet of verminderde ICT-werking kunnen immers desastreus zijn, getuige de geregelde landelijke verstoringen van onze mobiele operators. ICT is hiermee op gelijke voet gekomen met de Nutsvoorzieningen van gas, elektra, licht en water.

Is dit bedreigend? Nee, als je het de BTG vraagt. Het maakt wel duidelijk dat goede strategische samenwerking van zakelijke gebruikers, overheid en markt een absolute must is geworden. Individuele partijen kunnen dit proces niet realiseren. Je hebt elkaar nodig om al deze, overigens mooie, nieuwe uitdagingen vorm te geven. Hiervoor moeten oude businessmodellen worden losgelaten, nieuwe worden ontwikkeld en huidige monopolie posities worden doorbroken. En dit niet alleen op nationaal, maar ook op internationaal niveau, want alleen dan kunnen we de realtime connected society realiseren. De BTG draagt hieraan als intermediair graag bij.

Jan van Alphen is voorzitter van de Branchevereniging voor ICT en Telecommunicatie Grootgebruikers (BTG) en board member van de International Telecommunications Users Group (INTUG)

42

Alles over innovatie in ICT

2 & 3 NOV 2016 JAARBEURS, UTRECHT VAKBEURZEN, SEMINARS EN ONLINE MATCHMAKING VOOR IT-MANAGERS EN IT-PROFESSIONALS

IT SECURITY STORAGE THEMA 2016: DATA CENTRIC WORLD

Cloud Computing Cyber Security Data Center & Infrastructure Optimisation Data Growth & Storage Capacity Enterprise Mobility ITSM & Control Privacy, Governance & Risk Management Universal Communications

REGISTREER NU VOOR GRATIS TOEGANG:

WWW.INFOSECURITY.NL

|

WWW.STORAGE-EXPO.NL

|

WWW.THETOOLINGEVENT.NL

KEYNOTES | SEMINARS | CASE STUDIES | RUIM 150 EXPOSANTEN NIEUW: DATACENTER & CLOUD PAVILJOEN

Mede mogelij k gemaakt door: Hoofdmediapartner:

NU:

Cloud MFT 14,00 (excl. BTW) / Maand / User 1TB / Unlimited File Size Thru side panel for Microsoft Outlook

Non-Repudiation

Experts in Managed

Transport Encryption (“Data-in-Transit”)

PCI Compliant

File Transfer for the Enterprise!

OpenPGP Mobile File Transfer

Software and Solutions

Secure Managed File Transfer

Integrated Global File exchange with Salesforce

Seamless Enterprise Integration Integration and Programmatic File Transfer

Comprehensive File Transfer for the Enterprise

Automate, Integrate and Control Secure File Transfer

www.mft.cloud

Experts in Managed File Transfer Software and Solutions!

VIACLOUD BV • BEECH AVENUE 54 • 1119 PW SCHIPHOL-RIJK • THE NETHERLANDS +31 (0)20-6586421 • WWW.VIACLOUD.NL • [email protected]