Feeds:
Posts
Comments

Posts Tagged ‘performance’

Nasuni meet en publiceert elk jaar de cloud storage performance van de belangrijkste leveranciers.

Cloud Storage Providers

Voor het eerst is Microsoft Azure daarbij voor de meeste metingen de snelste gebleken.

Het rapport is hier na registratie als PDF van 17 pagina’s te downloaden.

Read Full Post »

Frank Anderson van Citrix heeft de performance gemeten van Citrix XenApp, gevirtualiseerd onder Microsoft Hyper-V. Het gaat hierbij dus voor alle duidelijkheid om de SBC variant van Citrix en niet om de VDI variant genaamd XenDesktop.

Op basis van een HP DL380P Gen8 Server (2 CPU’s met elk 8 cores; 192 GB RAM) en SAS-gebaseerde storage komt de optimale configuratie uit op 203 gebruiker-sessies. Die configuratie heeft dan 8 virtuele machines met 4 vCPU’s elk. Met andere woorden, circa 25 sessies per virtuele machine lijkt een optimum te zijn. Zet je overigens de hypertrading optie van de CPU’s uit, dan val je terug naar totaal 156 sessies, oftewel 19 sessies per VM.

XenApp performance on Hyper-V

Volgens Frank gebruikt een soortgelijke XenDesktop omgeving ongeveer twee keer zoveel memory en storage IOPS in vergelijking met XenApp. Hij is ook nog van plan om een vergelijking te maken met dezelfde XenApp omgeving zonder Hyper-V virtualisatie. Zijn eerste inschatting is zelfs dat dan de performance iets lager zal zijn.

Bron: The Citrix Blog

Read Full Post »

VMware vSphere 5.1 ondersteunt nu ook de nieuwe 16 Gbps Fibre Channel interfaces voor FC storage arrays. Dit is een theoretische verdubbeling ten opzichte van de tot nu toe gangbare 8 Gbps FGC.

vSphere 16 FC throughput

Bij metingen blijken de voordelen voornamelijk op te treden als je grotere block sizes gebruikt. Ook wel te begrijpen, maar toch leuk dat VMware dat heeft gemeten en in een white paper gepubliceerd.

Read Full Post »

NetApp heeft een rapport gepubliceerd waaruit blijkt (zou blijken?) dat het in een VMware / NetApp storage omgeving ten eerste niet veel uitmaakt welk protocol je gebruikt en ten tweede zelfs niet of je er 1 Gbps of 10 Gbps Ethernet onder hangt.

IOPS performance

Opzienbarend, behalve als je niet zeker weet tegen welke bottleneck de studie nu is opgelopen. Als dat de bottleneck van de harde schijven zou zijn i.p.v. het storage netwerk, dan is de keuze van het storage netwerk inderdaad nauwelijks relevant. Helaas mag NetApp van VMware alleen relatieve cijfers publiceren, zodat de nodige transparantie toch een beetje achterblijft. Dat is jammer en het roept opnieuw vragen op over VMware’s terughoudendheid bij het publiceren van benchmark gegevens.

Het rapport is hier als PDF van 25 pagina’s te downloaden. De discussie erover vindt voornamelijk plaats op Duncan’s blog.

Read Full Post »

De “Virtual Reality Check” samenwerking tussen PQR en Login Consultants heeft opnieuw nuttige resultaten opgeleverd. De zojuist gepubliceerde white paper vermeldt het onderzoek naar de performance aspecten van het virtualiseren van Remote Desktop Services (RDS) op basis van de drie grootste server-hypervisors. Het gaat daarbij – in tegenstelling tot de vorige white papers – om de nieuwste hypervisor-versies: vSphere 4.0 van VMware, XenServer 5.5 van Citrix en Hyper-V 2.0 van Microsoft. Tevens wordt de nieuwste Intel “Nehalem” processor toegepast, in dit geval binnen een HPDL380G5 server.

Enkele conclusies zijn:

  • In tegenstelling tot een 32-bits omgeving is het met een 64-bit server minder nuttig om RDS te virtualiseren.
    Belangrijkste oorzaak: een 64-bits omgeving wordt nog nauwelijks belemmerd in de hoeveelheid memory die geadresseerd kan worden. Hierdoor is zo’n omgeving voor RDS op bare-metal veel meer schaalbaar dan een 32-bits omgeving. Virtualiseren om de schaalbaarheid te verbeteren heeft dus met 64-bits weinig zin. Andere redenen kunnen er natuurlijk nog wel zijn, zoals het verbeteren van beheer en het verhogen van de flexibiliteit.
  • De Nehalem architectuur werkt!
    Zoals al eerder aangetoond is de Nehalem architectuur een goede sprong vooruit. Het gaat daarbij vooral om de ondersteuning van hyper-threading en EPT-D (Extended Page Tables).
  • De hypervisors zelf verschillen niet veel van elkaar in performance.
    De hypervisors maken niet meer het verschil als het om performance gaat. Allen vSphere blijft momenteel wat achter als het om nuttig gebruik van hyper-threading gaat. Dit zal echter binnenkort ook wel rechtgetrokken worden.

Er zijn ook een paar interessante neveneffecten waargenomen tijdens het testen. Zo bleek bijvoorbeeld dat de eerder aangetoonde performance bug in Outlook 2007 nu opgelost is met Service Pack 2.

Office 2007 Service Pack 2

De white paper is als PDF van 33 pagina’s te downloaden op de Virtual Reality Check website. Ook is een Excel sheet beschikbaar met alle testresultaten.

Read Full Post »

Michael Mullany heeft de ontwikkelingen ten aanzien van het terugdringen van de overhead op hardwarevirtualisatie in de laatste tien jaar op een rij gezet. Hij richt zich met name op de X86-markt – en daarbinnen op VMware – en slaat dus de vroege virtualisatie-versies van IBM over.

  1. In den beginne (1997) was er Disco, een research project van Stanford University. Toen werd al duidelijk dat hardwarevirtualisatie wel eens beter gebruik zou kunnen maken van multi-CPU systemen dan operating systemen. CPU-overhead kon echter makkelijk tot 36% oplopen.
  2. Disco was in 1998 de aanleiding om VMware op te richten en een jaar later VMware Workstation uit te brengen. Deze hosted type 2 hypervisor verbruikte met name nogal was CPU-tijd om netwerk I/O af te handelen.
  3. Deze I/O bottleneck werd voor een belangrijk deel opgelost door het elimineren van het onderliggende operating systeem. ESX was de eerste VMware bare-metal type 1 hypervisor die het CPU-verbruik voor netwerk I/O aanzienlijk terugschroefde. Tegelijkertijd werden GbE netwerken echter een factor 10 sneller en kon je nog steeds niet de volle netwerkcapaciteit gebruiken, omdat de CPU als bij 30% van de bandbreedte volliep.
  4. Vanuit de Xen hoek werd paravirtualisatie geïntroduceerd en VMware ging multi-CPU ondersteuning voor de guest operating systemen. De veelbelovende VT-technologie van Intel bracht voor VMware echter nog maar weinig verbeteringen.
  5. Meer virtualisatie-support in de hardware laat nu wel grote verbeteringen zien. Het gaat om AMD’s Rapid Virtualization Indexing en Intel’s Extended Page Tables. Verschillende vormen van I/O virtualisatie losten daarna nog een aantal I/O bottlenecks op.

Conclusie: alhoewel er nog zeker een kleine overhead is door het toepassen van virtualisatie zijn er weinig redenen om deze niet toe te passen in productie-omgevingen.

Read Full Post »

VMware heeft de aandachtspunten met betrekking tot de performance van vSphere op een rij gezet. In een downloadable PDF staan deze Best Practices opgesomd in 54 pagina’s. De inhoudsopgave geeft een goed overzicht van de onderwerpen:

  1. Hardware for Use with VMware vSphere
    Validate Your Hardware
    Hardware CPU Considerations
    Hardware-Assisted Virtualization
    Hardware-Assisted CPU Virtualization
    Hardware-Assisted MMU Virtualization
    Hardware Storage Considerations
    Hardware Networking Considerations
    Hardware BIOS Settings
  2. ESX and Virtual Machines
    ESX General Considerations
    ESX CPU Considerations
    Hyper-Threading
    Non-Uniform Memory Access (NUMA)
    Hardware-Assisted Virtualization
    ESX Memory Considerations
    Memory Overhead
    Memory Sizing
    Memory Overcommit Techniques
    Memory Swapping
    Large Memory Pages
    Hardware-Assisted MMU Virtualization
    ESX Storage Considerations
    ESX Networking Considerations
  3. Guest Operating Systems
    General Considerations
    Running Paravirtualized Operating Systems
    Measuring Performance in Virtual Machines
    CPU Considerations
    Storage Considerations
    Networking Considerations
  4. Virtual Infrastructure Management
    Resource Management Best Practices
    VMware vCenter Best Practices
    VMware vCenter Database Considerations
    VMware VMotion and Storage VMotion
    VMware DRS Best Practices
    VMware DPM Best Practices
    VMware Fault Tolerance Best Practices

Bron: virtualization.info

Read Full Post »

Older Posts »