VMware Software Defined Storage, Del 1: Virtual Volumes

Vi står foran store endringer i måten VMware jobber mot underliggende datalagringsinfrastruktur.
Under årets VMworld konferanse var flere sesjoner viet til dette tema.
Husk at dette er fortsatt under utvikling,  det ferdige produktet kommer ikke før en gang neste år. 

I en serie på tre blogg artikler skal vi se nærmere på fremtidens lagringsteknologier fra VMware, først ute er Virtual Volumes.

Selv om mye av infrastrukturen på datarommet er virtualisert, brukes fortsatt de samme gamle mekanismene for tildeling av lagringskapasitet .

VMware ønsker nå å endre på dette. En rekke nye teknologier er under utvkling, både for å forbedre tradisjonell SAN/NAS infrastruktur, men også å supplere disse med en distribuert lagringsarkitektur basert på lokaldisk (DAS).

Teknologiene bak VMware Software Defined Storage er:

  • Virtual Volumes (vVols)
  • Virtual Flash
  • Distributed Storage (vSAN)

VMware sin visjon

Man skal kunne samle ressurser fra alle typer lagring (SAN/NAS/DAS/Flash) i store virtualiserte lagrings-pooler.
Man skal kunne opprette lagringsenheter basert på tjenesteprofiler istedet for fysiske begrensninger slik det er i dag.

Hver enkelt virtuelle maskin får akkurat det den trenger av kapasitet, ytelse og tilgjengelighet.  Du skal kunne tilpasse egenskapene helt ned på VMDK nivå, ikke på LUN/Volum nivå slik det er i dag.  Tjenesteprofilen til hvert enkelt objekt danner kjørereglene for autopiloten som tar hånd om videre styring.

Software Defined Storage

VMware kaller den nye lagringsmodellen «Software Defined Storage». Dette er en del av VMware sin nye tilnærming til nettskyen – The Software Defined Datacentre.

I tillegg til datalagring vil tilsvarende modeller brukes for nettverk, sikkerhet og tilgjengelighet.
Målet er å lage et datasenter med større fleksibilitet og enklere administrasjon.
Hva som tidligere tok flere dager eller uker, vil i fremtiden være redusert til minutter eller sekunder.

Les videre

Lei av kø? EMC FAST Cache tar trafikktoppene!

Det er bilkø på vei til jobben, kø i sikkerhetskontrollen på flyplassen, kø i kassa på butikken….kø over alt!
Hvorfor dimensjonerer man ikke så man unngår kø?

Svaret er at kostnadene blir for store hvis man dimensjonerer kapasiteten etter trafikktoppene.

Den samme problemstillingen har vi også innenfor IT. Trafikken varierer veldig gjenom dagen og fra dag til dag.
Nye bruksområder med virtuelle klienter er et godt eksempel på dette, da får man store trafikktopper på morgenen og rundt lunchtider når brukere logger seg på.

Mange har likevel valgt å dimensjonere infrastrukturen etter trafikktoppene, selv om man resten av dagen ikke har bruk for alle ressursene.  Hensynet til fornøyde brukere har vært viktigere enn lavere kostnader.

Men dette er i endring. EMC har utviklet en lashbasert aksellerator for lagringssystemet VNX – FAST Cache.
Denne tar trafikktopper uten at man trenger å skalere opp resten av systemet.

EMC FAST Cache – Fornøyde brukere og lavere kostnader!

EMC FAST Cache er en flash basert lese og skrive cache som reagerer umiddelbart på endringer i trafikkmønster. Mens FAST Cache tar trafikktoppene kan resten av lagringssystemet prioritere andre oppgaver.
FAST Cache er veldig mye større enn tradisjonell cache og kan på den måten holde hele «bølgetoppen» i lynraskt flashminne så lenge det er nødvendig.  Opp til 2.1TB cache i de største konfigurasjonene.

Med VMware View og linked-clone desktops vil FAST Cache gi meget stor effekt.  Du vil oppleve opp til 99% reduksjon av harddisk belastning under boot-stormer, opp til 70% reduksjon av belastning under desktop recompose operasjoner og 77% reduksjon av belastning under antivirus scan.

Eksempel:
La oss se på et tenkt scenario der man trenger en peak ytelse på ca. 20.000 I/O operasjoner per sekund (IOPS).  En vanlig 15k harddisk yter ca. 180 IOPS.
Man trenger da over 110stk 15k harddisker for å ta høyde for trafikktoppene.


 


Bruker man EMC FAST Cache vil man klare seg med rundt 25stk mekaniske harddisker, mens fire flashdisker konfigurert som FAST Cache tar alle trafikktoppene.
Man sparer både rackplass, strøm og penger uten å forsake ytelse!

Les videre