Feeds:
Posts
Comments

Posts Tagged ‘NFS’

VMware heeft haar eerdere best practices over het draaien van vSphere op NFS storage een update gegeven.

vSphere on NFS

Het document kan hier als PDF van 23 pagina’s gedownload worden.

 

Read Full Post »

VMware heeft vier storage protocollen kwalitatief vergeleken; dus niet wat performance betreft. Het gaat om iSCSI, NFS, Fibre Channel en FCoE.

Twee anderen, die ook ondersteund worden, worden niet behandeld, te weten ATA over Ethernet en SAS. Voor performance informatie verwijst de conclusie van het rapport naar eerdere VMWare white papers.

Het rapport is hier als PDF van 11 pagina’s te downloaden.

Bron: Eric Sloof

Read Full Post »

NetApp heeft een rapport gepubliceerd waaruit blijkt (zou blijken?) dat het in een VMware / NetApp storage omgeving ten eerste niet veel uitmaakt welk protocol je gebruikt en ten tweede zelfs niet of je er 1 Gbps of 10 Gbps Ethernet onder hangt.

IOPS performance

Opzienbarend, behalve als je niet zeker weet tegen welke bottleneck de studie nu is opgelopen. Als dat de bottleneck van de harde schijven zou zijn i.p.v. het storage netwerk, dan is de keuze van het storage netwerk inderdaad nauwelijks relevant. Helaas mag NetApp van VMware alleen relatieve cijfers publiceren, zodat de nodige transparantie toch een beetje achterblijft. Dat is jammer en het roept opnieuw vragen op over VMware’s terughoudendheid bij het publiceren van benchmark gegevens.

Het rapport is hier als PDF van 25 pagina’s te downloaden. De discussie erover vindt voornamelijk plaats op Duncan’s blog.

Read Full Post »

VMware heeft een white paper met best practices gepubliceerd over het gebruik van NFS storage onder haar vSphere oplossing. Aan de orde komt onder andere:

  • Korte herhaling van vergelijking tussen IP-gebaseerde storage (zoals NFS en iSCSI) en Fibre Channel (de uitgebreide beschrijving van die vergelijking is overigens hier als PDF-rapport te downloaden).
  • De stappen om NFS “aan de praat” te krijgen onder vSphere: (1) configureer een virtuele switch voort IP-storage, (2) configureer de ESX host voor de NFS client en (3) configureer de NFS storage voor toegang vanaf de ESX server.
  • Hoe krijg je een hoge beschikbaarheid op het storage-netwerk (zaken als dubbele switches, stacked switches, dubbele NAS heads, etc.).
  • Hoe beveilig je het storage-verkeer (het korte antwoord is “niet”).
  • Hoe regel je thin provisioning, de-duplicatie en backup & restore.

vSphere on NFS

De white paper is hier als PDF van 14 pagina’s te downloaden.

Read Full Post »

Chad Sakac stoort zich aan de verspreiding van Fear-Uncertainty-and-Doubt rond het gebruik van VMFS in een ESX omgeving. Het gaat met name om vier hardnekkige geruchten:

  1. VMFS zou niet schaalbaar zijn ten gevolge van het locking mechanisme
  2. De 2 TB limiet van VMFS zou een showstopper zijn
  3. Je zou nooit gebruik moeten maken van extensies binnen VMFS
  4. VMFS zou maar 32 virtuele machines aankunnen

Ook is er wat Chad betreft geen enkele strijd tussen VMFS en NFS.

Zie Chad’s blog voor de uitleg.

Read Full Post »

Marc Staimer houdt een pleidooi voor meer gebruik van NAS in plaats van block-based storage – oftewel SAN – in een VMware ESX omgeving.

Hij noemt de volgende voordelen voor NAS in combinatie met NFS (het alternatieve CIFS wordt niet door ESX ondersteund):

  • Het filesysteem zorgt ervoor dat het beheer wordt vereenvoudigd. Ook kunnen zowel lifecylcle management als service level variaties verfijnder door de storage-laag worden uitgevoerd.
  • Bij grote aantallen virtuele machines is NAS NFS efficiënter dan SAN.
  • NAS gebaseerde deduplicatie is uiterst effectief om de benodigde hoeveelheid disk-ruimte terug te dringen.

En dan de afgezwakte nadelen:

  • NAS is in het algemeen wat trager dan SAN. Marc noemt een aantal NAS-leveranciers waarbij je dat echter het minst zou merken: BlueArc, EMC, NetApp, OnStor en Reldata. Daarnaast kun je nog met meerdere netwerkverbindingen werken om de prestaties verder te verbeteren (dat kan bij SAN overigens ook).
  • Vroeger werden lang niet alle geavanceerde ESX features ondersteund op NAS. Nu is de enige feature die je nog mist de Storage VMotion: het zonder downtime verplaatsen van de storage van een virtuele machine naar een andere storage array. Alle andere features – zoals VMotion (dus het zonder downtime verplaatsen van virtuele machines naar een andere ESX server), DRS, SRM, HA en Consolidated Backup – worden ook op NAS ondersteund.

Bron: Marc Staimer

Read Full Post »

Een recent door NetApp gepubliceerde White Paper vergelijkt de performance van de de drie manieren om een VMware-infrastructuur aan te sluiten op NetApp storage: Fibre Channel, iSCSI en NFS. Scott Lowe objectiveert en relativeert het stuk vervolgens, waardoor een interessante bron van informatie ontstaat.

Kort door de bocht kun je het volgende stellen:

  • Fibre Channel heeft de beste performance en de laagste CPU-belasting (maar ook de hoogste prijs, zowel in aanschaf als in beheer).
  • iSCSI levert een iets lagere performance met een veel hogere CPU-belasting (let op, het gaat om Software iSCSI, waarbij protocol-afhandeling door de CPU moet worden uitgevoerd).
  • NFS heeft een met iSCSI vergelijkbare performance en een CPU-belasting die ongeveer tussen de twee andere opties in ligt.

Alhoewel NFS hier als een zeer aantrekkelijke optie naar voren komt wijst Scott op twee mogelijke nadelen:

  • De multipathing schaalbaarheid van Fibre Channel is met NFS slechts via grote omwegen realiseerbaar.
  • Voor VMware is Fibre Channel altijd de eerste keuze geweest, waardoor dit een stabieler en meer uitontwikkeld platform is.

Verder is in de vergelijking niet iSCSI offloading meegenomen, waarbij de protocolafhandeling in de netwerk-hardware wordt uitgevoerd. Dit zou een CPU-belasting kunnen opleveren die vergelijkbaar laag is met die van Fibre Channel. Alhoewel de kosten hoger zullen zijn dan bij Software iSCSI, zijn deze toch nog steeds veel lager dan van Fibre Channel.

De White Paper van NFS is hier als PDF te downloaden. Het commentaar van Scott Lowe staat op zijn weblog.

Read Full Post »

Older Posts »