2016. december 8., csütörtök

VMware Learning Zone - 60 napos ingyenes próba előfizetés

Véletlenül vettem észre, nem tudom meddig van ez a lehetőség. Azt hittem, hogy ez egy olyan hatvan nap, amikor a teljes tartalmat szabadon böngészhetem. De sajnos nem így van. Van amit igen, de olyan is van, amiből csak a demóhoz férhetünk hozzá. Pl. a VCP6-os vizsgaanyagok ilyenek.

Az előfizetés nagyon egyszerű, ha már van accountunk a VMware Education oldalán. Belépés után a főoldalon katt a VMware Learning Zone linkre.


Majd Free Trial és Register Now!

Kapunk egy összefoglaló képernyőt, majd folytatás.


Utána egy értesítés, hogy minden kész, lehet kezdeni. (erről email is jön)


Első belépéskor automatikusan elindul egy videó, ahol a lehetőségeket elmondják, de nyugodtan ki lehet hagyni, nem egy bonyolult felületen kell navigálni.
A kezdeti képernyőnk valami ilyesmi.


Ahol nem látjuk azt, hogy Enrolled, ott csak a demó tartalomhoz férhetünk hozzá. Ez gyakorlatilag azt jelenti, hogy a videó kb. első percét lehet megnézni.

Erről többet nem érdemes írni, aki kipróbálja, úgyis végignézi a lehetőségeket.

Regisztrációt követően a későbbiekben a MyEnrollments linkről tudunk továbblépni a tanagyagokat, webcastokat, oktató videókat tartalmazó oldalra.

Jó tanulást!!


2016. december 3., szombat

Xorux - LPAR2RRD Host monitoring

Ma megemlékeztem a Mikulásról egy majdnem 30 kilométeres teljesítménytúrán a Bükkben (1170 m szintemelkedés!!), és persze kaptam is tőle egy kis csomagot. Egy kis ízelítő, hátha valaki kedvet kap hozzá.




Miután megvolt a pihenés, folyadékpótlás :), úgy gondoltam hasznosan töltöm a szombat estét és a lpar2rrd-ről szóló cikkeknek megírom a harmadik részét. Íme.

Aki már olvasta az első és második bejegyzést az lpar2rrd kapcsán, az már nagyjából tudja, mit várhat, ha ESXi host monitorozásról van szó. Természetesen a szokásos (CPU, memória, diszk, hálózat) megvan, de vannak ettől összetettebb diagramok is, aminek egy rész most, de a többség majd az egyéb lehetőségeket bemutató negyedik részben lesz. Mint mondtam, a fejlesztés folyamatos, így várható, hogy a lentiektől eltérő lehetőségeket is beépítenek majd az eljövendő verziókba.

Heatmap

Teljesen hasonló, mint a virtuális gépek esetében. Az elmúlt óra értékei alapján egy színskála felhasználásával mutatja meg, hogy mekkora terheléssel üzemelnek a hostok. A szürke azt jelöli, hogy a host már nem létezik (nincs elmúlt órás adat), de a rendszerben még ott van, a régebbi adatok lekérdezhetőek. Az ábra "élő", azaz az egyes négyzetre kattintva az adott host részletes diagramjaihoz jutunk.



CPU (pool)

Megmutatja, hogy az összes core-ból (bal tengely) ill. rendelkezésre álló GHz-ből (jobb tengely) mennyit használ az adott host. Megszokott módon van elmúlt napi, heti, havi és évi ábra, valamint nagyobb méretben meg lehet nézni az egyes ábrát, valamint egy időszakot is ki lehet jelölni.


CPU (VMs aggregated)

Egy kis újdonság. Megmutatja, hogy egy adott host fenti ábrán látható terheléséből mennyit vesznek ki az egyes virtuális gépek. Látványos és hasznos ábrák, bár ha nagyon sok virtuális gépet futtat a host, akkor elég nehéz beazonosítani, melyik terület melyik gépnek felel meg. Mivel az összefoglaló ábrák kötött méretűek, ezért az ábrák alján a géplistából is csak egy részlet látható, de oda kattintva lehet görgetni a listát, sőt szűrni is lehet.


Természetesen ha egy ábrára  rákattintunk, akkor több információ kiolvasható a méret miatt is (több képpont), valamint az ábra alján az összes virtuális gép nevét és színét, és az értékeket is láthatjuk.



Memória (Total, Granted, Active, Baloon)

Egy ábrán láthatjuk a fenti négy értéket a szokásos napi, heti, havi, éves megjelenítéssel. Mivel a Ballon értéke szerencsére nulla, így az az érték nem látszik.


Memória (VMs aggregated)

Hasonlóan a CPU használathoz, megnézhetjük, hogy a Granted érték hogyan oszlik el az egyes virtuális gépek között. Itt is probléma, ha nagyon sok gép van, de ha kinagyítjuk a diagramot, akkor pontosabb képet kapunk, és az összes virtuális gép neve, és az átlagos granted érték leolvasható a diagram alján.


Disk (és Net)

Erről nem lehet sokat mondani. Példaként lássuk egy host estében a Disk használat alakulását.


View

Gondoltak arra is, ha valaki egy ábrán szeretné látni a különböző típusú mérések megjelenítését. Ezt nevezi View-nak. Külön van napi, heti, havi és éves értéket megjelenítő fül a GUI-ban.

Egy View a következőket tartalmazza:

  • Host CPU pool
  • Host CPU aggregated
  • Memória használat
  • Memória aggregated
  • Virtuális gépenként CPU használat

Az összes ábra nagyítható, vagy egy részlet kinagyítható belőle.


A fentieken kívül van még néhány lehetőségünk (historical report, TOP listák, stb.), de ezt majd legközelebb. Mint ahogy a Datastore monitorozás és vCenter vagy cluster szintű riportok is az utolsó, negyedik részben lesznek.



2016. december 1., csütörtök

Egy kis PowerCLI - virtual socket és virtual core lekérdezése

Már egy ideje lehetőség van arra, hogy egy virtuális gép esetében ne csak azt mondjuk meg, hogy hány vCPU-t tartalmazzon, hanem azt is, hogy ezek milyen virtuális socket/core elrendezésben legyenek. Ennek több előnye is van, pl. licence szempontból sokszor nem mindegy, hogy 1 db. 4 core-os CPU van a virtuális gépben, vagy pedig 4 db. 1 core-os.

Viszont ha bármelyik kliensben megnézzük egy virtuális gép adatait, ott csak az látszik, hogy mennyi CPU van. Ha az elrendezést is látni szeretnénk, akkor a virtuális gép módosítását kell választani, és ott már látszik.

Ha PowerCLI-t használunk, ott sem másabb a helyzet.


Tegyük fel, hogy olyan listát kell készíteni az SQL-t futtató virtuális gépekről, ahol látszik az is, hogy a fenti képen látható 8 vCPU mennyi virtuális socket-ben helyezkedik el. Ehhez persze lehetne írni szépen formázott kis eljárást, de most inkább maradjunk egy egysoros scriptnél, mivel a lényeg benne van.

 get-vm -Location SQL|get-view|select Name 
                                     ,@{N="vCPU";E={$_.Config.Hardware.NumCPU}}
                                     ,@{N="vSockets";E={$_.Config.Hardware.NumCPU/$_.Config.Hardware.NumCoresperSocket}}
                                     ,@{N="vCores";E={$_.Config.Hardware.NumCoresperSocket}}|ft * -AutoSize 

A fenti script valóban egysoros, csak az olvashatóság miatt van több sorba szétszedve. A "trükk" csupán annyi, hogy ezt az információt a get-view használatával kaphatjuk meg. A végén az -AutoSize nélkül a listát széthúzva mutatná az egész gépernyőn, így viszont összébb húzza az aktuális méreteknek megfelelően.

Az eredmény:


vCPU- amit egyébként is látunk
vSockets - mennyi virtuális socket van a gépben
vCores - egy virtuális socket-ben mennyi virtuális mag taglálható

2016. november 25., péntek

Xorux - LPAR2RRD VM monitoring

Az előző cikkben röviden leírtam, hogy mi is ez, honnan lehet letölteni, és hogyan kell telepíteni. Most azt mutatom be, hogy milyen lehetőségeket tartalmaz virtuális gépek monitorozásához.
Előbb néhány technikai adat.

Az értékeket a következő szabályok szerint tarja meg:

  • 1 perces értékek 60 napig
  • 5 perces értékek 3 hónapig
  • 1 órás értékek fél évig
  • 5 órás értékek egy évig
  • 1 napos értékek 3 évig őrződnek meg

Ezek a beállítások az ingyenes változatban nem módosíthatóak.

A másik fontos dolog, amit tudni kell, hogy hogyan kezeli a fizikai megjelenítést. Az alap diagramok 400 pont szélesek. Viszont egy teljes napi adatsor 24*60, azaz 1440 értéket tartalmaz. Így a megjelenítéskor átlagolja az értéket. Ez persze hatással van a rövid ideig tartó csúcsokra. Viszont tartalmaz három lehetőséget is arra, hogy teljes részletességgel lássuk az adatokat.

  • ha rákattintunk egy diagramra, akkor külön ablakban, nagyobb méretben megjelenik
  • lehetőségünk van kijelölni egy időszakot a digramon, és azt megnézni nagyobb ábrán
  • illetve vannak ún. historical riportok, ahol megadhatjuk, hogy hány képpont széles legyen a diagram

Akkor nézzük, hogy milyen lehetőségeink vannak virtuális gép monitorozással kapcsolatban.

Heatmap

Egy egyszerű összefoglaló ábra az elmúlt egy óra adatai alapján. Külön CPU és memória értékekkel. Az egyes kis négyzetek linkek is, egy kattintással megnézhetjük az adott gépet részletesebben is.



CPU %

Egy képernyőn megnézhetjük a legutolsó nap, hét, hónap és év értékeit, valamint ezen értékek alapján havi, három havi és éves trendet határoz meg.


Ha valamilyen napon vagy héten belüli ciklikusság van az értékekben, akkor ez innen ránézésre is leolvasható. Fentebb már írtam, hogy a kis méretű ábra miatt az értékek "laposabbak" a valóságosnál. De ha pl. a napi ábrára rákattintunk, akkor már másabb a kép:


De ha pl. a havi ábrának szeretnénk egy kisebb szeletét megnézni, akkor egyszerűen kattintsunk bele az ábrába a kezdethez, majd lenyomva tartva az egeret, húzzuk el addig, amíg ki szeretnénk nagyítani:


Ez egy kb. 11 nappal ezelőtti, egy napnál valamennyivel hosszabb időtartam.

CPU GHz

Nem szaporítom az ábrákat, a trend diagramot leszámítva pontosan olyan mint az előző ábra, csak nem %-ban, hanem GHz-ben vannak kifejezve az értékek.

Memória

Szerkezetében követi a CPU értékeknél megismertet, de itt több értéket jelenít meg egy ábrán:


Látszik a granted, az aktív és szerencsére nem látszik a baloon :)
Itt is van egy trend, amiből jó esetben vonhatunk le következtetéseket.

Disk és Net

Helytakarékosság miatt ide nem szúrnék be ábrát, de a fenti szerkezetben, MB/sec értékekben (illetve ha szükséges, akkor kB/sec) ábrázolja az storage ill. hálózati forgalmat.

vMotion

Nagyon látványosan mutatja be, hogy az adott virtuális gép mikor, melyik hoston futott, ott milyen CPU értékeket produkált GHz-ben. Ebből is van napi, heti, havi és éves ábra. Mivel a fenti gép nem sokat mozgott, ezért egy másik gép értékeit szúrom be:


Látszik, hogy február közepétől megy a monitorozás, onnan számítva május elejéig nem volt mozgás, utána viszont két hónapon belül volt négy is. Ilyet máshol még nem is láttam, szerintem nagyon hasznos.

Custom Groups

Ez egy viszonylag új képessége a programnak (AIX esetében már régebben benn volt). A lényege az, hogy tetszőleges szempont szerint összeválogathatok virtuális gépeket, és azt együtt ábrázoltatom. Az ingyenes verzióban sajnos maximum négy elemű lehet a csoport, de ha veszünk támogatást, akkor tetszőleges számú gépet berakhatunk a csoportba. Ezt tehetjük egyesével, vagy regex kifejezéssel.


Amikor több adatsorunk van, akkor még szűrni is tudunk az ábra alatt. Ha pl. van 4 gépünk, amit együtt érdemes figyelni, akkor ez egy nagyon jó lehetőség. Ha több van, akkor sajnos ezt ebben a verzióban nem tudjuk megtenni. A virtuális gépek összességére is képes trendet meghatározni, és természetesen itt is tudunk kinagyítani, vagy csak egy konkrét időszakra megnézni az értékeket.

Historical reports

Ismét egy nagyon jól használható funkció. Ki tudunk választani akármennyi virtuális gépet, meg tudjuk mondani, hogy mettől meddig akarjuk megjeleníteni az adatokat, megadhatjuk a diagram méretét (ugye ez fontos, mert minél nagyobb időintervallumot választunk, annál több adatpont lesz), és még azt is megmondhatjuk, hogy a CPU, memória, disk, hálózat, vagy a fentebb részletezett vMotion-t is megjelenítő diagramokat akarjuk-e látni. Ez utóbbira egy ábra:


Bizonyos esetekben arra is van mód, hogy a megjelenített ábrákat pdf állományba mentsük, de az ingyenes verzióban ez is csak korlátozottan érhető el.

Összegzés

Mint láthattátok, nagyon jól használható, nagyon látványos az lpar2rrd. Ha valaki tőlem valamilyen ábrát kér, akkor mindig ezt használom, főleg ha régebbi időszakról van szó. És mivel folyamatosan fejlesztik, várható hogy idővel még többet fog tudni.




2016. november 24., csütörtök

Xorux - LPAR2RRD

Régebben elég sok időt eltöltöttem azzal, hogy próbáltam a vCenteren lévő performancia adatok egy részét megőrizni úgy, hogy abból hosszabb távra is lehessen kimutatásokat készíteni mondjuk az 5 perces adatok alapján. Részsikerek voltak (ezekről itt és itt, valamint részben még itt írtam).
Persze világos volt, hogy találok ettől sokkal jobb, kényelmesebb és ingyenes megoldást is ha keresek, de egy kicsit jó volt beleásni magam a vCenter adatbázis felépítésébe.

Ha lesz rá mód, akkor írok a jövőben más termékekről is, de most szeretném nektek bemutatni azt, ami a legjobban tetszett eddig. Ez pedig a Xorux cég Lpar2rrd nevű terméke.

Ezt állítják magukról:

Bring on the market an easy solution for performance monitoring and capacity planning of your highly virtualized environment with the GUI understandable from technician to the management level. Our tools should act as the front-end tools where you can easy and quickly identify load abnormality and locate problems on the infrastructure level.

Nem a VMware az egyetlen amihez fejlesztenek, sőt talán nem is ez a legfontosabb, de majd mint látni fogjátok, komoly munkát végeztek itt is. A telepítése rendkívül egyszerű, mivel egy .OVA file-t kell csak letölteni, és telepíteni. Az appliance előre telepítve tartalmaz minden olyan komponenst, amivel nem csak a VMware, hanem a többi támogatott környezet is monitorozható.


Bár a többihez kell még némi manuális konfiguráció, a VMware esetében használatra kész. A fenti képen látható, hogy kb. mire is használható a termék.

Miután VMware GUI based linkre kattintunk, beállíthatjuk, hogy mely vCenterhez vagy vCenter szerverekhez szeretnénk csatlakozni. Ez a baloldalon található Configure opcióval érhető el. Ott kattintsunk a Create New Credentials gombra, majd adjuk meg a vcenter szerverünk adatait.


Ha több környezetünk van, akkor egyesével vigyük fel a rendszerbe. Ha végeztünk, akkor a run data load megnyomásával el is kezdhetjük az adatgyűjtést.


A termék ingyenes, de vásárolható támogatás is hozz. Ebben az esetben minimálisan több lehetőségünk lesz. De ha eddig bármi problémám volt, a fórumban mindig kaptam választ és megoldást is.

Folyamatos a fejlesztés, és a javítócsomagokat nagyon egyszerűen, a GUI-n keresztül betölthetjük. Ehhez csak le kell tölteni a kis méretű .rar file-t, és a baloldalon az RPAR2RRD alatt lévő Product upgrade funkcióval egyszerűen rá kell mutatni a .rar file-ra és Upload file. Ennyi.

A következő cikkben néhány látványos ábrán szeretném bemutatni, hogy mit is tud. Mivel már 8-9 hónapja használom, ezért már sok adat van, így nemcsak a napi, hanem az éves diagramok is használhatóak. De ezt majd legközelebb.

2016. november 17., csütörtök

Első találkozás a VMware Virtual Volumes (VVols) technológiával

Már biztosan mindenki ismeri a VVols mögötti elméletet, sőt biztosan többen ki is tudtátok már próbálni. Nekem eddig erre nem volt lehetőségem, viszont most már igen. Természetesen egyelőre szó sem lehet az éles használatról, hiszen annak ellenére, hogy már nagyon régen fejlesztik, még mindig nem egy kiforrott dologról beszélünk. Talán a 6.5 valamelyik upgrade csomagja után már komolyabban lehet majd venni. Addig is érdemes ismerkedni vele, elolvasni a lehetőségeket, és amennyiben mód van rá, testközelből megnézni.

Ehhez igazából nem kell más, csak 6-os vCenter és ESXi, valamint egy olyan storage, ami erre fel lett készítve. A felkészítve itt azt jelenti, hogy van hozzá VASA 2.0-ás provider. Jelen esetben ez egy HPE 3par StorServe storage 3.2.2-es firmware-rel.
Nem volt célom azt megnézni, hogy pontosan mit lehet ezzel kezdeni, milyen performanciára képesek az ilyen virtuális gépek, stb, hanem csak azt szerettem volna elérni, hogy legyen egy virtuális gépem, ami egy VVol datastore-on van, és be lehet kapcsolni.

Az egyes storage gyártók eltérnek abban, hogy a fentebb említett VASA provider-t milyen módon valósítják meg. Ez a HP esetében része a firmware-nek, így nagyon leegyszerűsíti a használatát. Fontos, hogy a a GUI-ba ebből semmi nincs kivezetve, minden storage oldali VVol specifikus konfigurálást a parancssorban kell elvégezni.

A showvasa paranccsal lehet lekérdezni a provider állapotát.


Ha még semmit nem csináltunk, akkor a képen látható módon tiltott állapotban van. Ahhoz hogy el tudjuk indítani, ahhoz egy megfelelő tanúsítványra is szükség van. Ha ez megvan, akkor el lehet indítani a startvasa paranccsal.


Most már engedélyezett, ez a része rendben van. A képen még egy fontos dolog látható. Ezt a linket kell majd a vCenter szervernél megadni, amikor a storage provider-t regisztráljuk.

Következő lépésben gondoskodni kell arról, hogy a VVol terminológia szerint létrehozzunk egy storage container-t. Ez a gyakorlatban a 3.2.2-es firmware-től azt jelenti, hogy létre kell hozni egy volume set-et, amit hozzárendelünk egy storage container-hez, a következő két paranccsal: createvvset <vvset_name> illetve setvvolsc -create set:<vvset_name>. Több storage konténerünk is lehet, ezek közül majd a VVol típusú datatsore létrehozásánál lehet választani. Természetesen legalább egy CPG-nek is létezni kell, különben a startvasa hibaüzenettel elszáll. Én egy vvol_vmware_set nevű storage container-t hoztam létre.

Leegyszerűsítve ennyi előkészület kell a storage oldalon HP StoreServe esetében.

Következik a vCenter oldali konfiguráció. Első lépésben fel kell venni a storage provider-erek közé a showvasa parancs által visszaadott linket. Ezen a címe keresztül fog a vCenter szerver, ill. az érintett hostok kommunikálni a storage-on futó vasa szolgáltatással. A beállítást a vCenter Server/Manage/Storage Provider fülön tehetjük meg.


Sikeres regisztráció után megnézhetjük a részleteket:


Illetve a storage provider és storage system részletei is kiolvashatóak:



Miután itt minden rendben van, tovább lehet lépni. Most már van vasa provideren keresztül elérhető storage rendszerünk, elvileg már csak egy VVol típusú datastore-ra van szükségünk, ahova a gépeinket tehetjük. Ehhez a szokásos módon kezdhetünk hozzá: Storage/New Datasore.



Látható, hogy erre a célra van egy speciális datastore típus. Természetesen a továbblépéshez ezt kell választani.


Adjunk nevet a datastore-nak, és válasszuk ki hozzá a megfelelő storage konténert. (Itt van egy kis csalás, mivel már a datastore-t létrehoztam korábban, ezért van kitöltve az Existing Datasore mező).

A következő, egyben utolsó lépésben meg kell adnunk, hogy mely hostok számára akarjuk elérhetővé tenni a most létrehozott datastore-t, és készen is vagyunk.
Megnézhetjük a szokásos Summary fülön, hogy mi is jött létre:


Ezek után már nincs semmi akadálya annak, hogy virtuális gépeket hozzunk létre. Persze ezt még lehet tovább finomítani, hiszen különböző storage policy-kat hozhatunk létre, amivel megmondhatjuk, hogy a virtuális gépek milyen "storage környezetbe" kerüljenek. Pl. thin vagy thick, milyen legyen a RAID szint, legyen-e deduplikáció, stb. Az, hogy milyen lehetőségeink vannak, az a vasa provider által a storage-ről küldött információkból tudja a vCenter szerver. Ebben a konkrét környezetben pl. ilyen lehetőségeink (is) vannak:


Azaz megmondhatjuk, hogy legyen RAID1, legyen a zero detektálás bekapcsolva és a deduplikáció legyen kikapcsolva.
De ha semmit nem hozunk létre, akkor is van egy default policy a VVol-ok számára.

Most már minden adott ahhoz, hogy létrehozzuk az első virtuális gépet. Mielőtt megtennénk, nézzük meg storage oldalról, hogy mi látszik:


Az első parancs (showvvolsc) megmutatja, hogy egy darab storage konténerünk van. Megtévesztő módon azt mondja, hogy egy darab virtuális gép van rajta, de ez nem igaz. A második parancs (showvvolvm) meg is mutatja, hogy nincs. Valószínűleg a HA által létrehozott mappára érti az egyet.

Hozzunk létre egy virtuális gépet egy lemezzel. Legyen ez a vvolvm1. A léterhozást nem részletezem, hiszen ez csak abban tér el, hogy a datastore-nak a korábban létrehozott VVOL3PAR_01-et adjuk meg.

Az elmélet szerint a létrehozott gép két VVol-t kell hogy tartalmazzon (bekapcsolás előtt). Egyet a virtuális diszk számára, egyet pedig a többi paraméter file számára (pl. vmx, diszk leírók, logok). Nézzük, hogy ez igaz-e.


És igaz. Kiolvasható a gép neve, az op. rendszer típusa, a VVol-ok száma, valamint a méretre vonatkozó adatok. Mi történik, ha bekapcsoljuk?


Csak attól, hogy bekapcsoltuk, egyel nőtt a VVol-ok száma. Ez azért van, mert a swap file számára külön VVol jön létre. Bekapcsolás után egyéb más file-ok is keletkeznek, de ez mind bekerül abba a VVol-ba, amiben pl. a .vmx file is van.

Csinálunk egy snapshotot.


Nézzük meg most a VVol-ok számát.


Látható, hogy kettővel nőtt meg a VVol-ok száma. Ennek az az oka, hogy a virtuális gép memóriájáról is készült snapshot, és az mindig külön VVol-ba kerül.

Könnyen kiszámítható, hogy ha pl. van egy gépünk 3 VMDK-val, és van róla két snaphot, ami a memóriát is tartalmazza, akkor összesen 3+1+1+2*3+2=13 darab VVol lesz a storage-on.

A végére egy kis összegzés. A HP által adott dokumentációk alapján viszonylag könnyen el lehetett végezni azokat a beállításokat, amik a rendszer működéséhez szükségesek voltak. Érzetre egy kicsit lassabb volt pl. a gép mozgatás VVol datastore-ról hagyományosra, vagy a datastore tartalmának böngészése, de ez nem biztos hogy valóban így van. Voltak gondok a storage policy-k körül is, de ez lehet hogy csak az én tudatlanságom miatt volt.

Az látszik, hogy a VMware adminisztrátoroknak igen nagy szabadságot adhat a VVol technológia, hiszen a storage admin feladata azzal véget ér, hogy biztosít egy storage konténert a virtuális gépek számára, de azt, hogy melyik gépet milyen módon tároljon a storage, azt már a VMware admin dönti el úgy, hogy storage policy-kat hoz létre a vasa provider által nyújtott információk alapján.

A végére egy kérdés: Nektek van-e már tapasztalatok ezzel kapcsolatban? Esetleg más gyártó termékével kapcsolatban. Van-e aki már élesben használja?


2016. március 29., kedd

vSphere HTML5 Web Client

Ha egy kicsit zavarosan akarok fogalmazni, akkor a húsvéti nyuszi meghozta az első fecskét :)

A lényeg, hogy fling formájában megérkezett az első HTML5 és Javascript alapú vSphere Web Client. A fejlesztők célja nem az volt, hogy egyből egy teljes körű klienst készítsenek, hanem mihamarabb bemutassanak egy működő, de még erősen korlátos képességű verziót. Nem nagyon tudtam neki elleneállni, hogy ezzel kezdjem a napot :)

Mivel én Windows alapú vCenter szervert használok, így az ide vonatkozó konfigurációs lépéseket mutatom be.

  • Töltsük le innen a server-configure.bat file illetve a h5ngcVA-1.0.0.0-3680819_OVF10.ova file-okat
  • Másoljuk be a vCenter szerver egy tetszőleges mappájába a server-configure.bat file-t
  • Admin módban indítsuk el, és ha minden ok, akkor a vCenter szerver aktuális konfigja alapján készít három file-t: ds.properties, stroke.js, webclient.properties
  • Az .OVA file alapján hozzuk létre a Web Client appliance-t (sima next-next)
  • Kapcsoljuk be, majd SSH-val lépjünk be rá.
  • Hozzuk létre a  következő három mappát: /etc/vmware/vsphere-client/,/etc/vmware/vsphere-client/config/, /etc/vmware/vsphere-client/vsphere-client/
  • Sorrenben a fenti három folderbe másoljuk be a stroke.js, ds.properties ill. a webclient.properties file-okat
  • Tanácsos beállítani ntp szervert, hogy az időszinkron redben legyen: /etc/init.d/vsphere-client ntp_servers ntp1,ntp2,..
  • És start :/etc/init.d/vsphere-client start (ez nálam kb. 90 másodpercig tartott, szóval türelem...)

Nincs más hátra, mint megnézni mit is kaptunk :)

https://appliance_ip_címe:9443/ui

Home képernyő

Viszonylag kevés dolog működik még, de azért éremes megnézni. A leírás alapján ezeket tudja:

  • alap vm power opciók
  • megváltoztathatunk néhány virtuális gép paramétert
  • van konzol
  • van host és vm summary 
  • hostok közti vmotion (storage vMotion nincs)
  • vm létrehozás (még nem tud minden opciót)
  • monitoring (korlátozottan, pl. real time adatok nincsenek)
Néhány screenshot a kliensből:


vm szerkesztés

Performancia chart


vmotion

A kliens legnagyobb előnye egyelőre az, hogy van:) Látszik hogy elkezdődött valami, és várhatóan sűrűn jönnek majd a kisebb-nagyobb fejlesztések.