Merhabalar,
Bu makalede, herhangi bir yatırım yapmadan, vMotion için yüksek hızlı bir network tasarımını nasıl yapabileceğinizi aktaracağım. 🙂 Bu yapı normalde çok önerilen ve belki pek de düşünülmeyen bir yapı. Klişelerin biraz dışına çıkacağız. Örnekleri olup olmadığını da araştırmadım. Fakat danışmanlık yaptığım bir firmada, mevcut ESXi host donanımının özelliklerine bakarak, yeterli olduğunu gördüm ve denemekten ne zarar gelir felsefesiyle, kamikaze test uygulaması yaparak, çok da güzel sonuçlar elde ettim 🙂 Hem de 10G switch altyapısı olmadan!!! Mantıken 2 PC ethernet kartları üzerinden birbirlerine direkt bağlanabiliyorsa, ESXi hostlar neden bağlanmasın ki?
Yeni tip sunucularda, en az 2 tane 10G onboard ethernet kartı bulunuyor. 1G altyapı kullanılan bir ortamda, ne kadar hızlı olduklarının önemi kalmıyor ve siz sıradan ethernet kartları gibi kullanmak zorunda alıyorsunuz…
Buradaki amacımız, normal network’e çıkmayacak, izole bir ortam network oluşturmak ve bu hızlı network’te hızlı vMotion veya benzeri işlemleri yapabilmek. Özellikle bakım moduna alırken, VM’lerin çok daha hızlı taşınmasını, provisioning ve template’lerden klon VM dağıtma işlemlerini de çok daha hızlı yapabileceğiz.
Makalenin sonunda, başka hangi amaçlarla kullanabileceğimizi ekleyeceğim.
Şimdi bu yapı için, ön şartları da şöyle özetleyeyim:
- ESXi hostlarının üzerinde, 10G ethernet portları olmalı. (Minimum 2 tane 10G port olması gerekiyor.)
- 2x10G port için, en fazla 3 tane ESXi host olmalı. Daha fazla host varsa, vMotion işlemi kademeli yapılabilir. Yani bir host üzerinden, sadece belli birkaç sunucu üzerine ve gerekirse de taşıma yapılan sunucu üzerinden başka bir sunucu üzerine şeklinde… Elbette ki 10Gb port sayınıza bağlı bir durum. 2’den fazla portunuz varsa, daha fazla host’la da direkt bağlantı kurabileceğiniz için, mantık olarak çalışacaktır bu da…
Geleneksel yapılarda, bütün ethernet kartları, tek virtual switch üzerinde toplanmış olabilir. vMotion network olarak da bu switch üzerindeki VMkernel port grubu kullanılıyor olabilir.
Aşağıdaki örneğimizde, vmnic0 ve vmnic1 ethernet kartları, sunucu üzerindeki 10G onboard ethernet kartlarıdır. Öncelikle burada yapacağımız işlem, 10G ethernet kartlarını bu vSwitch üzerinden silmek olacak. Her bir host üzerinde bulunan bu 10G ethernet kartlarını, bağlı oldukları vSwitch üzerinden silip boşa çıkmalarını sağlayacağız.
Bunun için MANAGE PHYSICAL ADAPTERS seçeneği ile devam ediyoruz. 10G kartlarımızı işaretleyip X tuşuna basarak, bu vSwitch üzerinden siliyoruz. Kalan bütün vmnic kartlarınızın, active adapters sekmesi altında olduğundan emin olun. Aksi durumda management bağlantınız kopabilir!!!
Son durumda vSwitch üzerindeki görünüm şu şekilde olacak. 2 ethernet kartı, yedekli olacak şekilde bu vSwitch üzerinde kalmış olacak. Tüm ESXi hostlarda, 10G kartları sildikten sonra durum bu şekilde olacaktır. Yapınıza göre vmnic kart sayısı daha fazla da görünebilir, sorun değil. Önemli olan 10G kartları boşa çekmektir.
Bu 10G ethernet kartlarını sildikten sonra, yeni bir vSwitch oluşturacağız ve kartlarımızı bu vSwitch’e ekleyeceğiz.
Ama ondan önce, kuracağımız bu test ortamında, ESXi sunucuları nasıl bağladığımı, aşağıdaki gibi göstermek istiyorum. Böylece yapmak istediğimiz işlem, kafanızda daha net görünecek.
Yaptığımız işlem, ethernet kartlarını direkt olarak birbirlerine bağlamak olacak. Sonra da vSwitch üzerinde küçük ayarlamalar yapacağız. 🙂
10G ethernet kartlarını silince, sunucuların başına gidip, CAT6 kablo ile şemadaki bağlantıları, 10G portlar arasında fiziksel olarak yapınız. Hangisinin hangisi olduğu önemli değil, bu sıralamada yapabilirsiniz.
Yeni vSwitch Oluşturma
Her bir host üzerinde, yeni bir vSwitch ve VMkernel port oluşturup, 10G ethernet kartlarımızı bu switch üzerine ekleyeceğiz. Ben sadece tek host için örneği paylaşacağım, kalanlarını da aynı yöntemle sizler oluşturunuz.
Host üzerinde, vSwitch bölümündeyken ADD NETWORKING seçiyoruz.
VMkernel Network adaptörü de ekleyeceğimiz için, ilk seçenekle devam ediyoruz.
New Standart Switch seçiyoruz ve Next ile devam ediyoruz.
+ tuşuna basarak, az önce boşa çıkardığımız 10G ethernet kartlarını buraya ekliyoruz.
Şimdi Next ile devam edebiliriz.
Ben burada 10G_Backup_Network ismini verdim. Makalenin sonunda yapacaklarıma da sufle vermiş olayım. 🙂 Bu network’te, management dışında herşeyi yapmak istiyorum. Management yapamayız, çünkü burası izole bir network ve LAN’a hiçbir şekilde bağlantısı yok. O yüzden management haricindeki herşeyi seçiyorum. Artık bu işlemler için, hızlı olacak bu izole network kullanılacak.
Next ile devam ediyoruz.
Tamamen alakasız bir IP seçtim. LAN üzerinde olmayan, kullanımda olmayan herhangi bir bloğu kullanabilirsiniz. Ben aşağıdaki gibi tanımladım.
Next ile devam edelim.
Finish ile işlemi tamamlayalım.
Son durumda yapı, aşağıdaki gibi görünecektir.
Birbirlerine direkt bağlı olduklarında, vmnic kartlarınızı 10000 Full olarak göreceksiniz.
Tüm hostlar üzerinde bu şekilde, vSwitch ve vmkernel portları oluşturup, IP verdiğinizde, çok az işimiz kalmış olacak.
Eski vSwitch Üzerindeki Network Ayarlarının Değişimi
Eski vSwitch üzerinde, bazı tanımlı ayarlar hala duruyor. Eğer bunları değiştirmezsek, hedeflediğimiz hıza ulaşamayacağız ve o network kullanılmaya devam edilecek. Bunun için, önceki adımlarda 10G ethernet kartlarını söktüğümüz vSwitch üzerindeki, VMkernel port özelliklerine girip Edit settings ile devam ediyoruz.
Burada, sadece Management seçeneğini aktif halde bırakıyorum. Sunucu yönetimi, bu vSwitch ve VMkernel üzerinden yapılacak.
Artık hazır sayılırız. Şimdi son ayarlarımızı yapalım.
Yeni 10G vMotion Network Ayarları
Her host için, yeni oluşturduğumuz vSwitch’ler üzerinde aşağıdaki ayarları yapacağız ve işlemlerimiz bitmiş olacak.
Yeni vSwitch üzerinde, EDIT seçeneği ile devam ediyoruz.
Sadece Teaming and Failover kısmında, aşağıdaki ayarları değiştirip, işlemi tamamlıyoruz.
Bu işlemleri bitirdikten sonra, ESXi sunucunuza SSH ile bağlanıp, her bir host üzerinde yeni VMkernel IP’lerini pingleyerek, birbirleriyle bağlantılarını test edin. Ping atamıyorsanız, şekildeki kablo bağlantılarınızı gözden geçirin…
Artık hazırız. Ben bu işlem öncesinde ve bu işlemi yaptıktan sonra, vMotion sürelerinin nasıl olduğuna dair test verilerimi paylaşayım.
Örnek bir test makinesi seçtim.
8 CPU ve 18 GB RAM verdiğim bir yedekleme sunucumu, vMotion ile hem eski yapıyla hem de yeni yapıyla taşınmaları arasındaki zaman farkını aşağıda paylaşıyorum.
Eski yapı: Yaklaşık 120 saniye
Yeni yapı: Yaklaşık 26 saniye
Bu hız ve süre değeri, kullanılan RAM miktarına göre değişiklik gösterebilir. 10 kata varan test değerleri elde ettim.
Yeni İzole Network Kullanım Senaryoları
Şimdi madem yokluklar içinde, böyle hızlı bir network oluşturmayı başardık, biraz da ne gibi nimetleri olur ona bakalım.
Örneğin hızlı yedekleme yapmak için, yedekleme network olarak da kullanabiliriz. Bunun için yeni bir port grup oluşturabiliriz bu yeni vSwitch üzerinde.
Test ortamımdaki VM’lere bir network kartı daha ekleyerek, bu yeni vSwitch üzerindeki port gruba bağladım. Böylece, bu sunucular üzerinde, bir bacağı bu hızlı network’e bakan, izole bir network elde edildi.
Bu yapı, farkını nerede gösterecek?
Daha önceki inceleme makalelerimde de bahsettiğim gibi, aynı host üzerinde çalışan VM’ler fiziksel network’e çıkmadan 10G hızında aynı host üzerinde birbirleriyle haberleşiyorlar. Fakat başka host üzerindeki bir VM’le haberleşmek için fiziksel network’e çıkıyorlar. Sizin LAN altyapınız 1G ise, artık bu VM’ler 1G haberleşmeye başlıyor ve farklı hostlar üzerindeki VM’ler arasında, hız düşmüş oluyor.
İşte bu yapı ile, hostlar üzerindeki 10G portlar arasında, direkt bağlantı kurup, VM’lere de bu network’e bakan ethernet kartları eklediğimizde, artık 10G üzerinde haberleşme imkanı da vermiş oluyoruz değil mi? 🙂
Elbette ki kullanım senaryoları sizin hayal gücünüze kalmış. Unutmamanız gereken şey, bu network, hiçbir şekilde LAN ile haberleşmiyor ve tamamen izole. Dolayısıyla, kullanım senaryolarınızı buna göre değerlendiriniz.
Ben kendi hayal gücümü çalıştırıp, klişelerin de dışına çıkıp, 10G ethernet altyapısı olmayan bir ortamda, böyle hızlı bir network oluşturmayı hayata geçirdim.
Bu ortam, danışmanlık verdiğim birkaç firmada daha kullanıldı ve sağlıklı şekilde çalışmakta. 🙂
Son olarak bu makalede verilen yapının, VMware tarafından önerilip önerilmediği tartışma konusu değildir. Tamamen klişelerin dışına çıkıp, farklı bir bakış açısıyla yaklaştığım bir denemedir. Daha önce de belirttiğim gibi, başkalarının kullanıp kullanmadığını da araştırmadım. Ben yaptım, oldu…
Eğer kullanılmamışsa ve yazılmamışsa, belki de bir ilk olma özelliğini taşıyacak 🙂
Bundan sonrasını, sanırım donanım satışı yapanlar düşünecek… Küçük ve belki orta ölçekli firmalar, belki de yüksek maliyetli fiber switch yatırımı yapmak yerine, 10G network kartları alıp, hostları direkt olarak birbirine bağlama dönemi de başlatabilir 😀 O zaman da donanım üreticileri beni linç edecek sanırım 😀
Yararlı olması dileğiyle.
Yusuf İşleyen