Live fra Version2 Datacenter

20. marts 2014

På Version2s nyligt afholdte Datacenterkonference blev snakken og diskussionen om infrastruktur as a service koncentreret på et cloud-spor.

Jeg var inviteret med som live-blogger, og nedenfor kan du læse, hvad jeg fik ud af de enkelte indlæg på sporet.

09:19  Så er Datacenter konferencen i gang   

Så har jeg fundet første session som handler om, hvordan man får "Happy Hour" på elregningen.

Indlægget handler om, hvordan man gennem elselskabet kan få tilskud til energibesparende tiltag i datacenteret. Et koncept der har været tilgængeligt i mange år, men som mange overser, når de optimerer  og konsoliderer datacenteret.

Det virker som om E-optimo, som holder indlægget, virkelig har lavet et koncept, der gør det nemt at have med at gøre, og de har pudset deres sko til et meget professionelt oplæg om, hvordan de kan rådgive og hjælpe med processen.

09:24  Leverandør-runden

Det bliver spændende at se de enkelte leverandører reklamere for dem selv og deres indlæg på 45 sekunder!!

09:42  Leverandør-runden 2

Leverandørerne præsenterer sig selv rigtig godt :-)

Det bliver faktisk virkelig svært at vælge! Der er dem, der hjælper med at bygge datacentre, dem, der mener, man ikke selv skal have sådan et, nogle, der kan hjælpe med at optimere alt det, der er i datacenteret, og dem, der vil hjælpe med at beskytte datacenteret.

Der er mange måder på det her med it-infrastruktur, og hvis jeg lige spoler tilbage til dengang, jeg ikke havde så megen erfaring, som jeg har i dag, og forestiller mig at sidde her uden al den bagage, så ville jeg måske sidde og tænke: "Det lyder lidt som om, mange af leverandørerne kan hjælpe mig med noget af det samme bare på forskellige måder". Det kan man så bevæge sig ud og få uddybet lige om lidt - spændende.

10:04  Datacenter i en container?  

Jeg var helt sikker på, at det var AST, der lavede datacentre i en container, og spekulerede hårdt på, hvorfor det var Schneider, der holdt præsentationen. Forklaringen kom dog hurtigt: Schneider har købt AST, hvor jeg for nogle år siden havde fornøjelsen af at besøge AST i Barcelona og få konceptet præsenteret af den passionerede ejer, så man ved da, at der er stor passion i Schneiders koncept.

Det er imponerende, hvad disse containere bliver sikret imod - de kan modstå vand og brand, så det fx kan brænde rundt om containeren i flere timer, mens ens it bare kører videre.

Containere er en hurtig og nem måde at bygge datacentre på, og jeg ved, at blandt andet Logstor benyttede sig af muligheden, da deres datacenter brændte.

Og så er løsningen jo en oplagt mulighed for virksomheder, der har behov for at flytte meget rundt på deres datacenter. Det lyder egentlig som om, det største problem ved at flytte rundt på tingene er at sikre strøm og linieføring frem til det sted, containeren skal stå.
Har man behov for megen it på lidt plads, er containere den perfekte løsning, som oven i købet er energieffektiv, fordi der jo er tale om et meget lille rum, der skal køles.

10:09  Flere containere...

Til præsentationen af dagens program fik vi at vide, at der faktisk ikke rigtig var plads til os alle sammen i de rum, der var dedikeret til de to spor. Så nu sidder jeg i god tid her oppe og venter spændt på HP’s indlæg om et øjeblik, hvor jeg kan se på første slide, at de også kommer omkring containerbaserede løsninger. De rykker dog også op i skyen i løbet af indlægget, så her regner jeg med at komme hele vejen rundt! Og kom bare an heroppe - her er god plads...

10:56  Converged infrastructure fra HP

Nu er det første gang, jeg ser HP præsentere deres bud på Converged Infrastructure, der handler om, hvordan man kan automatisere provisionering, vedligehold af systemerne og via et interface - One View - håndtere templates, servere og på et tidspunkt i fremtiden også netværk og storage.

I forhold til at HP har arbejdet med området siden 2009, blev jeg forbavset over, at der som sådan ikke allerede er integration imellem storage, SAN og netværk. Da det for mig at se er det, som giver store resourcebesparelser i forbindelse med den daglige håndtering af infrastruktur. Det undrer mig også, at HP stadig lægger op til, at provisionering foregår via templates, når der i dag findes mere dynamiske måder at automatisere denne proces på.

HP præsenterer tanker om, hvordan man i converged infrastructure fokuserer på at gøre SAN og LAN strukturen mere simpel, så man kan eliminere SAN-laget og have et netværkslag mindre.
HP Cloud OS præsenteres som arkitekturen, der gør det muligt at flytte services fra eget datacenter og ud til HP cloudservices eller til en af de cloud-agile partnere, som HP har certificeret - i Danmark er det NNIT og Cloud factory.

Konceptet lyder super spændende, så jeg kunne godt tænke mig at se eksempler på virksomheder, der bruger det. I den verden, jeg kender til, vil der uvægerligt opstå spørgsmål om, hvordan man holder styr på sikkerheden, hvordan man connecter enhederne - eller man skal måske sige hvordan man connecter skyerne imellem. Hvilke SLA'er kan man få fra de forskellige skyer? Fx må netværksforsinkelse være et forhold, der skal tages med i billedet, når man skal bestemme, hvilke systemer man vil have i hvilke skyer. Der findes stadig eksempler på virksomheder, der i et helt almindeligt infrastrukturmiljø har problemer med dedikerede linier mellem deres egne datacentre, og mig bekendt, giver linieleverandørerne ikke disse garantier. Den udfordring kan kun blive endnu værre, når man begynder at arbejde mellem forskellige skyer.

Det, der virker i dag, er, at man beslutter sig for at et bestemt system kan ligge uden for det traditionelle datacenter, og her kan man så få straks-leverance af kapacitet fra en cloud-leverandør.

11:43  Hvordan har sikkerheden det i Clouden

Symantec rejser et flag for alle de virtualiserings- og automatiseringsøvelser, der er foregået i datacentrene. De påpeger, at der endnu ikke rigtigt er taget hånd om netværksindstillinger og sikkerhedsindstillinger.

Og det er i sagens natur ikke optimalt.

Den nye infrastruktur gør, at hackerne har nye mål, når de ønsker at gøre skade eller hente informationer, nemlig de centrale managementpunkter som fx et V-center i en Vmware installation. Så selv om man har styr på den traditionelle sikkerhed med firewalls, antivirus på serverne m.m., er den hellige grav ikke vel forvaret: Der kan være virtuelle komponenter og adgange via det virtuelle lag, som har adgang til eller er en forudsætning for at systemerne virker, man ikke har sikret. Altså giver cloud-teknologi, automatisering og virtualisering nye sikkerhedsmæssige opgaver.

Når der er tale om puplic cloud er opgaven en anden, for som Symantec ganske rigtigt påpeger, slipper man for en masse ansvar og opgaver ved at lægge systemer ud i clouden eller købe cloud-ydelser. Men en af de ting, man ikke slipper for, er ansvaret for egen sikkerhed. Jeg tror, det er fuldstændigt rigtigt, at mange glemmer at tænke på dette, og glemmer at analysere om sikkerheden bliver bedre eller dårligere af at flytte ud i skyen.

12:21  Provisionering af sikkerhed

Trend Micro tager bolden op, hvor Symantec slap og konkretiserer trusselsbilledet. Det virker som om, de to store producenter er meget enige om, at truslerne for så vidt kommer de samme steder fra som de gjorde før Cloud Services og virtualiserings-teknologier gjorde deres indtog. Men der nu er nye mål, der skal beskyttes.

Trend Micro har en god pointe i, at sikkerheden er nød til at være automatiseret, når flytning af ressourcer er automatisk, provisionering er automatisk og man nogle steder kan bygge en server automatisk.
De har kigget på, hvordan man kan optimere ressourceforbruget ved at beskytte virtuelle servere ved, så at sige, at beskytte hele det virtuelle miljø i stedet for at sikre hver enkelte virtuelle server. Det virker meget sandsynligt, at denne øvelse vil frigøre ressourcer: vi ser tit, at antivirus-scanninger af filer bruger en del CPU og I/O ressourcer, så hvis man kan slipper for at gøre det på hver enkelte server, vil det alt i alt være mindre ressourcekrævende.

I forhold til hvad man skal være opmærksom på ved Cloud Services, er der et godt eksempel på, hvordan Amazon har beskrevet, hvad de har styr på med hensyn til sikkerhed, og hvad man selv skal have styr på (håber man kan fornemme hvad det går ud på ud fra billedet).

Version2 Datacenter 2014

Meget fin analogi mellem dengang virksomheder i sin tid begyndte at købe PC’er, var det individer ude i organisationen, der stod for indkøbene, men de måtte jo i den sidste ende overlade opgaven med administration og drift i større skala til it-afdelingen. Det samme ser vi i dag, når forskellige forretningsenheder autonomt køber ind i diverse skyer, men i den sidste ende er nødt til at have it om bord i forbindelse med fx integration til virksomhedens andre systemer (integrationsdelen står for egen regning).

14:08  Virtuel Backup

Veeam følger godt i sporet efter Symantec og Trend Micro med en backupløsning, der ikke har behov for at få backup-klienter på de enkelte virtuelle servere. Veeam laver så at sige backup og restore igennem Hypervisoren (fra ESX eller Hyper-V). Så længe der er tale om Microsoft SQL, Sharepoint og Exchange, kan man da endda restore enkelte objekter uden agenter.

Det er jo smart, fordi det gør det meget nemt at administrere, og det giver mulighed for, at man kan starte en virtuel server op direkte fra backuppen. Jeg synes, der lige skal bemærkes, at dette ikke er noget, man skal forvente den store performance fra. Men i en kritisk situation er det jo bedre at have noget, der kører langsomt end ingenting :-)

Denne funktionalitet kan jo så også bruges til at lave restore-test, hvor produktet SureBackup automatiseret kan starte servere op og teste, at de fungerer som et system med systemets afhængigheder - til et mailsystem kunne det fx være domain-controlleren og Exchange-serveren. På den måde får man valideret sin backup løbende.

En af mine kunder fortalte mig engang, at backup ikke var for tøsedrenge.  Med det mente han at man, når man skulle restore, skulle være sikker på at forarbejdet var i orden, da det jo ellers ikke kunne lade sig gøre. Konsekvensen af ikke at have gjort backup-arbejdet godt nok er jo, at man ikke kan restore, og dermed er data tabt. Det lyder som om Veeam gør arbejdet med backup nemmere, og det ved jeg så også fra min hverdag, at de rent faktisk gør.

En dråbe malurt i bægeret er, at vi stadig ikke har alt virtualiseret, og derfor er de fleste nødt til at have et backup-system til at håndtere dette oven i, hvilket jo på en eller anden måde giver dobbelt administration. En anden bitter dråbe er, at der stadig er databaser og komplicerede applikationer, der kræver en backup-agent, der arbejder sammen med applikationen, hvis man skal være sikker på at lave en valid backup. Eksempler på dette kunne være Oracle og SAP.

14:46  Mere converged infrastructure

Næste stop: Axcess, der starter med at forklare, hvorfor de ikke vil tale om infrastruktur til Big Data som annonceret. Skyldes måske, at de også er kommet til den konklusion, at det er svært at definere hvad infrastruktur til Big Data egentlig skal kunne, for det afhænger jo i høj grad af, hvilken software man bruger. Så vi skal (igen) høre om Converged Infrastructure.

De er, som HP tidligere på dagen og så mange andre før dem, kommet frem til, at Converged Infrastructure handler om at server, storage, netværk og hyper-visoren kan administreres ét sted fra. Ligesom hos HP bliver der også berettet om, at Axcess og deres kunder har svært ved at få automatiseringen til at lykkes. Jeg tror, det skyldes, at det kræver forandringer i arbejdsprocesser, og ikke mindst at teknologien for mange producenters vedkommende kræver en del implementering, før tingene er automatiserede, og det virker ikke særlig dynamisk.

De første 8 minutter af indlægget handlede om Axcess og deres tilgang til Converged Infrastructure, og her løfter de sløret for, at de jo er startet som sikkerheds- og netværksleverandør. Så derfor er det jo nok også naturligt at det er Cisco's infrastruktur de arbejder med - deres teknologi hedder Flex Pod. En af de spændende ting ved dette er, at Cisco jo ikke ligesom HP har deres egen storage men arbejder sammen med Netapp. Det bliver dog nævnt, at man godt kan bruge Ciscos servere og netværksudstyr, selvom man bruger andet storage.

Det kan undre mig, at det ikke ser ud til, at Flex Pod understøtter andre hypervisors end VMwares.

I forhold til andre producenter som fx HP, HDS og IBM får man hos Cisco ikke hjælp af templates eller færdige mønstre. Ciscos tilgang er, at man kan hente workbooks på ca. 16 sider, der beskriver, hvordan man konfigurerer udstyret til en given opgave.

I forhold dagens tidligere emne, backup, bliver det på slidsene påstået, at man med denne teknologi kan lave backup på minutter, og det må jeg sige, at jeg ikke tror på. Man kan helt sikkert med storage-teknologi lave snapshots af data, og bruge disse til at lave en backup fra på minutter, men at flytte data til andre medier m.m. tager helt sikkert længere tid.

15:59  Virtualisation of everything?

Efter en travl kaffepause med god lejlighed til at tale med en masse mennesker, handler næste indlæg som IPnett, der er en nordisk systemintegrator, står for.

Det viser sig, at IPnett arbejder med EMC storage, der lige som andre storage-producenter laver storage virtualisering. Men det, IPnett vil fortælle om, er ScaleIO, som er et grid-system, hvor man ikke bruger storage-systemer. Man bruger kun servere, der via en grid-teknologi optræder som storage- enhed, og i det samme system er der andre servere, der står for applikations-udviklingen.

Teknologien minder meget om IBM XIV system, der kom på markedet for 4 år siden, men den store forskel er, at man her får noget, der ikke optræder som et storage-system men derimod er bygget af almindelige servere af alle fabrikater, og kan også være servere i en sky som fx Amazon. Det er en meget spændende teknologi og ideen om, at man bare kan putte flere servere i poolen lyder tiltalende. Jeg synes måske, at bagsiden af medaljen kunne være: hvordan man holder styr på alt det forskellige hardware, og hvem hjælper en, hvis det ikke virker? EMC? serverproducenten?

Det er også klart, at dette stiller store krav til netværket, og her bruger IPnett Juniper teknologi, der - hvis man bruger Open Stack eller Wmware - tilfører mange spændene teknologier, der hjælper med at sikre separationer i netværket og sørger for, at forskellige systemer ikke kan se hinanden, loadbalancing og routing indbygget i netwærksswitchene. Umiddelbart lyder det som om man, i forhold til de netværksprodukter jeg møder i min hverdag fra hovedsagligt HP og Cisco, med Juniper får en meget fleksibel teknologi, som kan løse mange af de problemer, der kan være med at håndtere svingende arbejdsbyrder, og virtualisering af servere og netværk.

16:26  Fra datacenter til cloud-services. Mere converged infrastructure!!

Conscia giver sit bud på, hvordan man kommer fra et traditionelt datacenter og med det menes traditionel infrastruktur. Conscia mener, at de fleste med implementering af virtuelle servere jo faktisk har lavet en slags private-cloud.

Man mangler så bare noget, der hedder Vblock fra Cisco, EMC og VMware for at være i mål med cloudservices. Fordelene er, at konsortiet få gange om året laver nogle anbefalinger til, hvilke opdateringer man skal lave for at holde systemet ved lige. Oven på det har Conscia så lavet noget, de kalder Cblok, som er pakker af Vblok, som Conscia har erfaring med at implementere, og som de mener passer til det danske marked, og som de har specialiseret sig i at servicere. En Cblok kan håndtere 100 fysiske servere og 500 diske, og er man større end det, skal man "bare" have en til, da Conscia mener, at hvis man sætter flere servere og mere storage sammen, bliver fejlkilderne for mange.

Jeg synes konceptet lyder lidt mærkeligt og gammeldags, i forhold til andre Converged Infrastructure-koncepter jeg kender til, og vi har i dag set MANGE af dem præsenteret. Fx mangler man muligheden for at automatisere ting fuldstændig, både når det kommer til vedligeholdelses opgaver og provisionering. Det virker som om, det hele handler om, hvordan SAN og LAN  fungerer og bliver administreret.

Jeg kan heller ikke forstå begrænsningen mellem 100 fysiske servere og 500 diske. Jeg er vant til, at det bestemt er muligt at håndtere større mængder diske og servere på samme tid, og der findes meget modne teknologier til dette.

Skriv en kommentar