Feeds:
Posts
Comments

Posts Tagged ‘hardware virtualization’

Hardwarevirtualisatie heeft de mogelijkheden tot het verhogen van de beschikbaarheid van servers aanzienlijk verruimd. Zo heb je binnen VMware’s vSphere 4 niet alleen de HA optie (High Availability), maar ook FT (Fault Tolerance).

Om duidelijker te maken hoe zich die oplossingen verhouden tot de meer traditionele Failover Clustering (zoals bijvoorbeeld geboden door Microsoft Windows Failover Clustering) heeft Scott Lowe een korte opsomming gemaakt. De essentie daarvan is:

  • Failover Clustering beschermt je beter tegen fouten in operating systemen en daarbinnen draaiende applicaties. Zowel VMware HA als FT beschermen in principe alleen tegen het uitvallen van de fysieke servers.
  • Failover Clustering geeft meer flexibiliteit bij geplande software upgrades. Dit geldt voor zowel operating systemen als applicaties.
  • VMware HA en FT zijn eenvoudiger te configureren en beheren dan Failover Clusters. Bovendien stellen ze geen eisen aan de te beschermen applicaties.
  • De allerhoogste beschikbaarheid is alleen te bereiken met VMware FT.

Zie Scott’s blog voor meer.

Read Full Post »

Hoe zou de wereld eruit zien zonder hardware-virtualisatie? Dus zonder producten als VMware ESX, Microsoft Hyper-V, Citrix XenServer en Oracle VM. De gemiddelde computergebruiker zal denken: ‘so what?’

moore's law

Zie verder Computable.

Read Full Post »

VMware heeft een goede Information Guide gepubliceerd over de verschillende vormen van X86 virtualisatie. Onderwerpen die onder andere aan de orde komen zijn:

  • De 32- en 64-bits varianten van X86
  • Binary Translation
  • Memory segmentation en de handicaps daarbij voor 64-bits architecturen
  • Extra hardware ondersteuning van Intel VT-x en AMD-V
  • Shadow Page Tables
  • Extra hardware-ondersteuning voor Memory Management Unit van Intel (EPT) en AMD (RVI)

De Information Guide is hier als PDF-document van 9 pagina’s te downloaden.

Read Full Post »

Parallels stond tot nu toe bekend als één van de weinige leveranciers van producten voor operating systeem-virtualisatie (nu “Parallels Containers” geheten, vroeger bekend als “Virtuozzo” van SWsoft).

Het bedrijf kondigt al sinds 2006 een bare-metal (dus type 1) hypervisor aan voor servers. Nu de details bekend worden lijkt het er dan eindelijk van te gaan komen. Echter, het zou wel eens “too little, too late” kunnen zijn.

Parallels Bare-metal Hypervisor

Hoewel de features er niet slecht uitzien is het geen stap vooruit ten opzichte van bestaande hypervisors van gerenommeerde leveranciers als VMware, Citrix en Microsoft. Het enige waar Parallels wellicht mee kan scoren is de integratie tussen hardwarevirtualisatie en operating systeem-virtualisatie. Echter ook die komt nog niet zo goed uit de verf. Wat me bijvoorbeeld erg verbaast is de ondersteuning van Live Migration voor operating systeem-virtualisatie en Quick Migration voor hardware-virtualisatie. Ik begrijp niet wat je aan Live Migration hebt bij operating systeem-virtualisatie: je blijft per definitie binnen dezelfde fysieke server en wisselt alleen van container. Wellicht bedoeld voor één of andere vorm van load-balancing? Of mis ik iets…

Bron: virtualization.info

Read Full Post »

Toen de wereld er nog eenvoudig uitzag bestond de Central Processing Unit (CPU oftewel processor) van een computer uit een chip die sequentieel instructies uitvoerde. Dit veranderde in eerste instantie met de introductie van het – inmiddels verouderde – hyper-threading hardwareconcept in de CPU en later met de introductie van multicore CPU’s. Een multicore CPU is in staat parallel instructies uit te voeren en gedraagt zich alsof er meerdere “logische” processoren aanwezig zijn binnen één fysieke processor.

Microsoft heeft er sinds de introductie van multicores voor gekozen om software-licenties te binden aan de fysieke processor, onafhankelijk van het aantal cores (logische processoren) die deze bevat. Een consequentie hiervan is dat Microsoft’s operating systemen bij opstart onderzoeken op hoeveel fysieke processoren ze draaien.

De introductie van Hyper-V – en hypervisors in het algemeen – maakt dit schema wat complexer. Dit komt omdat de scheiding tussen “fysieke” processor en “logische” processor wordt verstoord door de introductie van “virtuele” processoren. De vraag is dus of Hyper-V de logische processor aanbiedt aan de virtuele machine (dus aan het guest operating systeem), of juist de fysieke processor. Het antwoord is beide.

Voorbeeld 1: Stel Hyper-V draait op vier fysieke CPU’s. Je kunt dan voor een virtuele machine 1 tot 4 virtuele CPU’s definiëren, die door het guest operating systeem als 1 tot 4 fysieke CPU’s worden gezien.

Voorbeeld 2: Hyper-V draait op twee fysieke dualcore CPU’s, die elk dus twee logische processoren bevatten. Je kunt dan opnieuw 1 tot 4 virtuele processoren definiëren voor een virtuele machine. Het erin draaiend guest operating systeem zal dit achtereenvolgens zien als één singlecore CPU, één dualcore CPU, één singlecore plus één dualcore CPU, of twee dualcore CPU’s.

Voorbeeld 3: Hyper-V draait op één quad-core CPU, met dus vier logische processoren. Als je dan 1 tot 4 CPU’s aan een virtuele machine toekent, dan ziet het guest operating systeem altijd één fysieke processor met daarin 1 tot 4 logische processoren.

Zie de Virtual PC Guy’s weblog voor meer hierover.

Read Full Post »

In een leerzaam interview met de CTO van Citrix op GRIDtoday legt Simon Crosby uit waarom Citrix naar zijn mening de beste kaarten in handen heeft in de virtualisatie-markt. Daarbij positioneert hij virtualisatie terecht als een middel en niet een doel op zich. Wat Citrix betreft is het echte doel “application delivery”. Één van de troefkaarten daarbij, die wellicht te weinig aandacht krijgen, is overigens Netscaler.

Op de vraag hoe hij de toekomst van virtualisatie inschat:

Virtualization, the kind we do and VMware does, is just an emergent property of Moore’s Law. Super-normal is what Moore’s Law is right now. So, no surprise, we have to virtualize these boxes because the only thing that’s interesting about x86 is the legacy — large numbers of legacy single-threaded apps. That’s why virtualization is so relevant now.

Are those guys stopping? Gosh, no. We’ll see many-core systems very shortly. We’ll find that the hypervisor will become a key differentiator again, and there again an ability to be able to scale to 64 or 128 cores is going to be key, as is the ability to scale to massive memory architectures, and so on. Can Xen do this? Yes. Xen already runs on a 4,096-node supercomputer from SGI, and I have absolute confidence that an open architecture there will always win. The test that is really out there is whether a proprietary hypervisor development team sitting in one place — Palo Alto — can do a better job than the world’s best engineers sitting at 42 of the world’s leading IT companies. The answer is no, they can’t. They just cannot pull it off.

Virtualisatie – en dan met name hardwarevirtualisatie en servervirtualisatie – is denk ik inderdaad een logisch gevolg van de wet van Moore, die langzamerhand leidt tot een gigantische processor-capaciteit.  Veel meer dan wat grid computing probeert te doen (“hoe kunnen we veel computers inzetten als één geheel”) lost virtualisatie de vraag op “hoe kunnen we met onze bestaande software zinvol gebruik maken van de parallelle processor-capaciteit van één computer”.

Zoals alle technologische vernieuwingen zal ook deze virtualisatie eindig zijn. Wellicht bereiken we dat eind als we met nieuwe software beter in staat zijn om al vanaf het ontwerp gebruik te maken van parallelle processoren. De programmeertaal Erlang schijnt daarvoor weer sterk in de belangstelling te staan.

Read Full Post »

Johan De Galas schreef op AnandTech een uitstekend artikel over hardwarevirtualisatie. Hij gaat met name uitgebreid in op de performance-consequenties van de verschillende manieren van virtualiseren. Er heersen op dit vlak nogal wat misverstanden. Johan legt deze op een grondige manier uit en behandelt en-passant ondermeer de volgende begrippen:

  • Kernel mode versus user mode
  • De oude IBM S/370 manier van virtualiseren
  • VMware’s software gebaseerde Binary Translation methode voor x86 CPU’s
  • De enorme overhead van system calls bij SYSENTER en SYSEXIT
  • I/O virtualisatie
  • De Memory Management Unit (MMU) problematiek
  • Paravirtualisatie
  • Hardware Accelerated virtualisatie (Intel VT-x en AMD SVM)
  • Waarom paravirtualisatie veel sneller is dan hardware accelerated virtualisatie
  • Tweede generatie hardware-support voor virtualisatie (Intel’s EPT en AMD’s nested paging)

Het artikel wordt afgesloten met een uitgebreide set aan benchmark gegevens.

Een paar van zijn conclusies zijn:

When we first heard about Intel’s VT-x and AMD’s SVM technology we expected to see performance improvements over the software based solutions such as Binary Translation and Paravirtualization. Both AMD and Intel gave the impression that they were about to “enhance” and “accelerate” the current purely software based solutions.

Second generation virtualization (VT-x+EPT and AMD-V+NPT) is more promising, but while it can improve performance significantly it is not guaranteed that it will improve performance across all applications due to the heavy TLB miss cost. On the flip side of the coin: software virtualization is very mature, but there is very little headroom left to improve. The smartest way is to use a hybrid approach, and that is exactly what VMware, Xen, and Microsoft have been doing.

VMware ESX is the best example of this. ESX uses paravirtualized drivers for the most critical I/O components (but not for the CPU), uses emulation for the less important I/O, Binary Translation to avoid the high “trap and emulate” performance penalty, and hardware virtualization for 64-bit guests. In this way, virtualized applications perform quite well, in some cases almost as if there is no extra layer (the VMM).

Lees de rest van het artikel hier.

Read Full Post »

Older Posts »