vSphereのvm-fexを介しおCisco UCSでDirectPath I / Oを起動する

぀たり、このテクノロゞヌにより、仮想マシンはハむパヌバむザヌを䜿甚しおサヌバヌ䞊の物理pciデバむスに盎接アクセスできたす。 ただし、このテクノロゞヌを䜿甚するず、 vSphereクラスタヌで蚱可されるほがすべおの有甚な機胜 fault tolerance 、 high availability 、スナップショット、 vMotion 、およびそれを䜿甚したDRSしなくなりvMotion 。


さらに、仮想マシンがデバむスを盎接䜿甚しお、ハむパヌバむザヌをバむパスするず、このデバむスはハむパヌバむザヌ自䜓にアクセスできなくなりたす。 たずえば、 DirectPath I/Oを介しお仮想マシン内にネットワヌクカヌドを投げるず、はい、仮想マシンからのトラフィックを凊理するためのハむパヌバむザヌのリ゜ヌスは䜿甚されなくなりたす-これは良いこずです。 悪いこずは、スロヌされたネットワヌクカヌドを䜿甚できる仮想マシンが1぀だけであるこずです。 結局のずころ、このテクノロゞヌは非垞に物議を醞すものであり、無駄です。 しかし、すべおがそれほど単玔ではありたせん。


楜しいCisco UCS


率盎に蚀っお、私はかなり退屈なタむプで、賞賛するこずはほずんど䞍可胜です。 それがうたくいったずしおも、私はい぀もそれを芋せたいずは思わない、そしお私がそれを望むずころに、私はい぀もうたくいくずは限らない。 正盎に蚀うず、 Ciscoブレヌドシステムに慣れる前は、 Ciscoがサヌバヌを補造しおいるこずすら知りたせんでした。 それは刀明し、生産し、そしお私が賞賛するのに飜きるこずのないものでさえも。


私は䞀生サヌバヌで仕事をしおいたしたが、ブレヌドシステムが手に萜ちるこずは少々少なくなりたした。 UCS manager初めお芋たずき、突然それを受け取らないこずが明らかになりたした。 なんで サヌバヌにボタンがないためだけです。 service profile特定の構成パラメヌタのセットから圢成されるたで、鉄片は圹に立たない。


プロファむルの構成パラメヌタでは、ブレヌドから䜕でもスカルプトできたすBIOSパラメヌタ、ブヌトシヌケンス、 ip-kvm 、 hba 、ファヌムりェアバヌゞョン、ネットワヌクカヌドのパラメヌタおよびmacアドレス iscsiおよび通垞。 これはすべお非垞に柔軟に行われ、䟿利な階局ず、アドレスやポピヌなどの倧幅に倉化するパラメヌタヌのプヌルを指定する機胜を備えおいたす。 したがっお、これがすべお研究されるたで、ブレヌドは機胜したせん。


ブレヌドネットワヌク


ここでは構成に぀いおは説明したせん。 Ciscoは、この䞻題に関する非垞に明確なドキュメントを提䟛しおいたす。 そしお、Habréを含むむンタヌネット䞊で、これに぀いお倚くの蚘事が曞かれおいたす。 Cisco UCSブレヌドシステムのネットワヌク郚分に぀いおCisco UCSたす。 ネットワヌク郚分も特別です。 実際、ブレヌドサヌバヌにはネットワヌクむンタヌフェむスがありたせん。 ブレヌドはネットワヌクでどのように機胜したすか それでも同じように、各ブレヌドにはネットワヌクアダプタヌがありたす。これはVirtual Interface Card  vic です。


バスケット内のIO Module  iom  iom 、これら2぀の鉄片により、実サヌバヌに必芁な量の仮想ネットワヌクむンタヌフェむスを䜜成できたす。 もちろん、制限はありたすが、制限は非垞に倧きく、すべおの人に十分なはずです 。 では、なぜブレヌドに100個のネットワヌクむンタヌフェむスが必芁なのでしょうか 仮想化を䜿甚しない堎合、理由はありたせん。 これが時が来た堎所です ノァレラ 圹に立たない DirectPath I/O思い出しおDirectPath I/O 。これは今ではたったく異なる芳点から芋られたす。


vSphereのドキュメントの 2番目の郚分では、 Cisco UCS DirectPath I/O突然DirectPath I/O ブラックゞャックず売春婊が付属しおいたす スナップショット、 fault tolerance 、 high availability 、およびvMotionで動䜜しvMotion 。これらには、 DRSが続きvMotion 。 「クヌル」私はそれに぀いお読んだずきに考えたした。 「さっそくやっお、みんな幞せになりたす」ず䞭断したした。 CiscoドキュメントにもVMWareドキュメントにも、これをすべお実行する方法の説明のようなものは芋぀かりたせんでした。 私が芋぀けるこずができたすべおのうち、ステップバむステップの指瀺を䜜成する詊みに非垞にリモヌトで䌌おいるものがありたした。 このサむトはすでに死んでいるので、りェブアヌカむブぞのリンクです。


もう少し氎


私は最初に詳现なマニュアルを䜜成するこずにしたした-私自身のために、もう䞀床タスクに盎面したずき、私は䜕も忘れずに、迅速か぀正垞にすべおを繰り返したす。 第二に、他のすべおの人にずっおは、ほずんどの読者、おそらく将来は自分もCisco UCS出䌚うこずはないだろうずいうこずをよく知っおいたす。 むンポヌト眮換にも感謝したす。


UCSでDirectPath I/Oを正垞に䜿甚するには、 vSphere virtual distributed switch  vds がどのように機胜するかを理解する必芁がありたす。 理解がない堎合、たたは開始できない堎合、このマニュアルを完了したず思われる堎合は、ここで説明されおいるすべおを実行できたす-これぱラヌです。 開始するこずが刀明する堎合がありたすが、その埌、誀解による誀ったアクションのために非垞に簡単に壊れたす。


同じこずがUCS managerも圓おはたりたす。 この蚘事では、 vds 、およびUCS managerほずんどの構成に぀いおは説明したせん。 VMWare 、 Cisco 、さたざたなハりツヌ、フォヌラムの質問ず回答、およびむンタヌネット䞊の他のものに関する十分な説明がありたす。


ucsmずvcsa


ucsmがvCenter Server Appliance vcsa にvdsを䜜成しおvcsaをドラむブするには、最埌にキヌを远加しおアクセスを蚱可する必芁がありたす。


  1. ucsmを開く→ vmタブ→ filter: all → vmwareよる → export vCenter extension 、 cisco_ucs_vmware_vcenter_extn.xmlファむルが含たれるディレクトリを瀺したす。 実際、スクリヌンショットを撮るのはあたり奜きではありたせんが、そのような鉄片を描くのは玠晎らしいこずです。
    ucs manager仮想マシン
  2. 次に、この拡匵機胜をvcsaにむンポヌトする必芁がありたす。 VMWareは、バヌゞョン5.1からのvCenterを䜿甚したすべおの操䜜は、Webクラむアントを介しお実行できるず䞻匵しおいたす。 たぶんそうですが、バヌゞョン5.1、5.5、たたは6.0のいずれかで、このファむルをWebクラむアントからむンポヌトする方法を芋぀けられたせんでした。

そのため、 vmware vsphere clientバヌゞョン6.0を開く→トップメニュヌ→ plugins → plugins manage plugins → プラグむンのリストが衚瀺されたりィンドりの空の堎所で、 → new plug-in... → browse... → cisco_ucs_vmware_vcenter_extn.xml → register plug-in


登録に成功するず、新しいCisco-UCSM-xxxプラグむンがリストに衚瀺されたす。xxxの代わりに、䞊のスクリヌンショットで難読化したキヌがありたす。


vcsaはvcsaからのコマンドを受け入れる準備ができたした。


vm-fex vds


vm-fexはucsmで䜜成および構成する必芁があるvirtual distributed switchを介しおvirtual distributed switchし、埌者は前の郚分で説明した統合によりvcsaこの構成を適甚したす。 この郚分のすべおの䜜業は、 vmタブのucsmで行われるため、すべおの点で参照するわけではありたせん。


  1. vmwareクリックし、 configure vCenterフィヌルドname 、 description 、およびhostname (or ip address) vcsaのデヌタhostname (or ip address)蚘述したす gallente tackler 、 10.7.16.69 、 10.7.16.69 → next 2回→セクションfoldersずdatacentersスキップ→ finish ;
  2. aresクリック→ create datacenter → nameずdescriptionフィヌルドにvcsaすでに䜜成されおいるデヌタセンタヌのデヌタを曞き蟌みたす dc → next →スキップするfoldersセクション→ finish ;
  3. dcクリック→ create folder → nameフィヌルドずdescriptionフィヌルドにvdsが含たれるcreate folderのデヌタを曞き蟌みたす ucs → next →section DVSs skip→ finish ;
  4. ucs-main右クリック→ create DVS → nameずdescriptionフィヌルドにvdsのデヌタを曞き蟌みたす ucs-main → OK → admin state: enable
  5. vds準備vdsできたした。 vds 、 port profilesを䜜成しport profiles 。 本質的には、これはdistributed port groupず同じですが、 cisco甚語では。 そのうち2぀しかありたせん。1぀はすべおのvilanが蚱可されるトランクプロファむル、もう1぀は仮想マシンの管理ネットワヌクを備えたタグなしvilanで、ゲストシステムは䜕らかの理由でトラフィックにタグ付けできたせん。
    1. port profilesクリックしたす。 nameずdescriptionフィヌルドで、プロファむルデヌタvm-mgmt-ucsを曞き蟌みたす。 host network io performance  high performance → VLANsのリストで、mgan mgmt反察偎の3番目の列のラゞオボタンを1぀遞択したす
    2. vm-trunk-ucsトランクポヌトに぀いおも同じこずを行いたす。 ラゞオボタンを遞択する代わりに、最初の列ですべおのvylansをオフにしたす。 ucsmに必芁なucsmがすでに䜜成されおいるこずが理解されおいたす。
    3. 次に、これら2぀のプロファむルをvds入れる必芁がありたす。 それらのいずれかをクリックしお、 profile clientsタブを遞択→右偎の緑色の[+] → name  all 、 datacenter  all 、 folder  all 、 distributed virtual switch  all 。 2番目のプロファむルでも同じです。 次のようになりたす。
      vdsポヌト
      しばらくしお、このucs-mainがvcsa登堎しvcsa 。 これが発生しない堎合は、 fsmタブを確認する必芁がありたす-ほずんどの堎合、理由がそこに曞き蟌たれたす。

ハむパヌバむザヌブレヌド


冒頭で述べたように、ブレヌドを起動するには、プロファむルを掛ける必芁がありたす。 これを行うには、最初にプロファむルを䜜成する必芁がありたす。 サヌバヌのプロファむルを䜜成するこずは、このドキュメントの目的ではないため、プロファむルを䜜成するために必芁なものはすべおそこにあるずいうこずです。 vm-fex関連するもののみを説明したす。これがないず、 DirectPath I/Oは機胜したせん。 各ブレヌドで、4぀の静的ネットワヌクむンタヌフェむスを実行したす。 4぀すべおが1぀のファクトリに関連付けられ、2番目のファクトリにfailoverされfailover 。 ブレヌドの半分は工堎で、残りの半分はそれぞれbたす。


最初のむンタヌフェむスは通垞のvSwitchのたたです。 2番目のむンタヌフェむスは通垞のvds接続されたす。 3番目のむンタヌフェむスはucs-vds接続されたす。 実際には、 ucs-vdsでのuplink圢匏のむンタヌフェむスの参加は、 ucs-vdsように芋えたす。 圌に䟝存するものは䜕もありたせん。 しかし、これが行われおいない堎合、仮想むンタヌフェむスの転送は機胜したせん-私はチェックしたした:)仮想マシンのポヌトをより柔軟に構成できるように、4番目のむンタヌフェむスを゜フトりェアcisco nexus 1000vずしお远加のvdsに接続するこずを蚈画したしたが、私の手はただ到達したせんでした。


VMWareレベルでstand byこずなく、すべおのむンタヌフェむスをスむッチに远加したす。 failover UCSレベルで実装されたす。 接続レベルで冗長ではない2぀のむンタヌフェむスを持぀通垞のブレヌドたたはサヌバヌの堎合、このスキヌムは正しくありたせん。 UCS以倖で䞍泚意にそれを繰り返さないでください。


adapter policy䜜成


adapter policyは、サヌバヌ内の各ネットワヌクむンタヌフェむスの蚭定の集合です。 最初のadapter policyは、4぀の静的ハむパヌバむザヌむンタヌフェむス甚で、2぀目のadapter policyは動的甚です。


  1. タブservers → policies → root → adapter policies右クリック→ create ethernet adapter policy → name  nn-vmw 、リ゜ヌス
    1. transmit queues  4 、 ring size  4096 ;
    2. receive queues  4 、 ring size  4096 ;
    3. completion queues  8 、 interupts  16 ;
    4. 曞き換えoptions怠zyなので、スクリヌンショットは次のずおりです。
      アダプタオプション
  2. 再びservers → policies → nn-vmw-pt → adapter policies nn-vmw-pt → name  nn-vmw-pt 、リ゜ヌス
    1. transmit queues  8 、 ring size  4096 ;
    2. receive queues  8 、 ring size  4096 ;
    3. completion queues  16 、 interupts  32 ;
    4. 残りは同じです。 動的むンタヌフェむスを実行するには少なくずも8぀のキュヌが必芁であるため、2倍のキュヌがありたす。 今のずころ確認の゜ヌスを提䟛するこずはできたせん。 もう䞀床芋぀けたら远加したす。

グルヌプ化されたvnic templateを䜜成する


ブレヌドにネットワヌクむンタヌフェむスを持たせるには、テンプレヌトを䜜成する必芁がありたす。 テンプレヌトは各プロファむルで盎接䜿甚するこずも、 lan connectivity policy介しおグルヌプ化するこずもできたす。 2番目のケヌスでは、サヌバヌプロファむルたたはプロファむルテンプレヌトごずに、必芁なすべおを実行する目的のlan connectivity policyを指定するだけで十分です。


静的むンタヌフェむス甚に2぀のテンプレヌトを䜜成したす。 1぀のテンプレヌトはファクトリヌaで動䜜し、 bでfailoverしfailoverが、2番目はその逆です。


  1. lanタブ→ policies → root → vNIC templatesによるcreate vnic template → create vnic template → name  trunk-a → fabric id  a 、 enable failover → target  adapterずvm  泚意 完成したテンプレヌトでこの蚭定を倉曎するず倱敗したす→ template type  updating template →すべおのvilanをオフにしたす→MACプヌルでdynamic vnicアドレスの事前に䜜成されたmac pool遞択したす→ connection policies  dynamic vnic 2番目のtrunk-bパタヌンは、 fabric idを陀いお同じです b 。
  2. グルヌプ化ずは、 lan connectivity policyを意味したす lanタブ→ policies → root → lan connectivity policies esxi4-trunk-a PCM→ lan connectivity policies create lan connectivity policy → name  [+] addボタンを䜿甚しおesxi4-trunk-a 、次に4぀のネットワヌクむンタヌフェむスを远加したす。
    1. user vnic template暪のボックスをuser vnic template 、3぀のフィヌルドのみを入力したす。 name  nic0 、 vnic template 前の段萜で䜜成されたtrunk-a遞択し、 adapter policy  nn-vmw 、以前に䜜成されたした。
    2. nameに぀いおさらに3回繰り返したすnic3 .. nic3 ;

name  esxi4-trunk-bに぀いおセクション党䜓を繰り返しbそれぞれファクトリヌbバむンドしたす。


bios policy䜜成


bios policy -これらはBIOS蚭定です。BIOS蚭定に倉曎するこずで倉曎できたす。 コン゜ヌルを開いお各ブレヌドにアクセスするこずは意味がありたせん。これがすべおブレヌドパックのためにすぐに䞭倮で実行できる堎合です。


  1. タブservers → policies → root → bios policiesによるbios policies → bios policies create bios policy 
    1. name  fex ;
    2. reboot on bios settings change反察偎のチェックボックス。
    3. たた、通垞resume on ac power loss サヌバヌでresume on ac power lossために、 resetラゞオreset反察偎に蚭定したす。
  2. processorセクション
    1. virtualization technology (vt)  enabled 。
    2. direct cache access  enabled 。
  3. intel direct ioセクションでは、すべおのラゞオボタンがenabled状態です。
  4. これはDirectPath I/Oには適甚されたせんが、 boot optionsセクションでboot option retryを有効にするこずも奜きです。
  5. これは、 DirectPath I/O必芁な最小倀ですDirectPath I/O 残りは必芁です。たたは、すぐに[ Finish抌したす。

その他の蚭定は、ポリシヌの䜜成埌に倉曎できたす。


service profile䜜成する


それから圢成され、ブレヌドに盎接掛けられ、それに応じお鉄片が構成されたす。 サヌバヌプロファむルを盎接䜜成し、クロヌンを䜜成できたす。 ただし、すべおの䟝存サヌバヌプロファむルで蚭定が継承および倉曎されるテンプレヌトから䜜成する方がより正確です。 サヌバヌプロファむルテンプレヌトには、ここでは考慮されおいない倚くの蚭定が含たれおいたす。これは、私の助けなしで既に完了しおいるこずを意味したす。 ここでは、 DirectPath I/Oが機胜するために必芁なもののみを怜蚎したす。


サヌバヌタブ→ service profile templates →右クリック→ create service profile template 。 name  esxi4-a 、 type  updating template 。 2番目の蚭定を完成したテンプレヌトに倉曎するこずはできないため、䜜成時に蚭定するこずを忘れるこずは非垞に重芁です。


networkingセクションで、 dynamic vnic connection policyを蚭定しcreate a specific dynamic vnic connection policyをcreate a specific dynamic vnic connection policyしcreate a specific dynamic vnic connection policy 。 number of dynamic vnics 。 マニュアルのネヌムプレヌトによるず、ここのデフォルト倀は54です私はucs 6296を持っおいucs 、 iomモデルはすべおのバスケットにiomを持っおいるので、最埌の行によれば、 iom 9000の堎合の最倧vif数は58、mtu 1500の堎合は58です116.この情報は郚分的にのみ真実です。


明らかに、 マニュアルを曞いたヒンズヌ教埒はこの問題を完党に理解しおいたせんでした。 真実は、アダプタポリシヌにキュヌ数ずring size誇匵された倀が含たれおいる堎合、ブレヌドは54の動的むンタヌフェむスをダむゞェストできたせん。 過倧評䟡された倀を拒吊するこずはできたせん。サヌバヌには膚倧なトラフィック負荷がかかり、ポヌトあたり10ギガビットをはるかに超えたすこれに぀いおは埌述したす。 アダプタヌポリ゜ヌルず数倀vif倀を入力する数孊的方法を䜿甚しお、私の堎合、ここで数倀33が正垞に蚭定され、远加の静的むンタヌフェヌスにわずかなマヌゞンがあるこずがわかりたした。 突然必芁です。


このため、4぀の静的むンタヌフェむスを持぀回路を遞択したした。 33の動的なむンタヌフェむスはたくさんありたすが、本圓に誰にずっおも十分なはずです 。 しかし、私のクラスタヌには、匷力なネットワヌクを必芁ずしない、半䌑眠状態の仮想マシンが倚数ありたす。 33個の動的むンタヌフェむスの1぀をそれらに費やすのは無駄です。 したがっお、これらのvdsは、より倚くを芁求し始めるたで、通垞のvds存続したす。 それらのほずんどはこのvds決しお到達しないのでvds圌らは通垞のvds絶えず生きたす。


adapter policy  nn-vmw-pt 、 protection  protected 。 これは、 ucsmが各ブレヌドのDirectPath I/O甚に䜜成する動的むンタヌフェむスが䞡方の工堎に均等に分散されるこずを意味したす。 どうしおこうするこずにしたのか思い出せたせん。 おそらく盎芳。 これが間違っおいる可胜性もあり、動的むンタヌフェむスは静的むンタヌフェむスず同じファクトリに固定する必芁がありたす。 時間はわかりたす。 再実行するのは簡単です。簡単で、倉曎のために仮想マシンを停止する必芁はありたせん。


how do would you like to configure lan connectivity?  use connectivity policy 。 ここで、前に䜜成したネットワヌクむンタヌフェむステンプレヌトのグルヌプ化を利甚したす。 lan connectivity policy  esxi4-trunk-a


vnic/vhba placement 、スクリヌンショットで簡単に衚瀺できたす。
vnic / vhbaの配眮


operational policiesセクションで、新しく䜜成されたbios policyを蚭定する必芁がありたす。 これで、サヌバヌプロファむルテンプレヌトを䜜成できたす。


テンプレヌトから、プロファむル自䜓を盎接䜜成できるようになりたした。 [サヌバヌ]タブ→ service profile templates → root → esxi4-trunk-aよるesxi4-trunk-a → create service profiles from template 。 naming prefix  test 、 name suffix starting number  1 、 number of instances  1 。 これは、 test1ずいう名前の単䞀のプロファむルがテンプレヌトから䜜成されるこずを意味しtest1 。


次に、プロファむルをブレヌドに関連付ける必芁がありたす。 タブservers service profiles root > test1クリックtest1 change service profile association 。 select existing serverをselect existing server 、衚瀺されたタブレットでブレヌド自䜓を遞択したす。ブレヌド自䜓は䜜成されたプロファむルに関連付ける必芁がありたす。 [ ok ]ボタンをクリックするず、 ucsmからブレヌドが再構築されるずいう譊告の質問が衚瀺されたす。 私は肯定で答え、 ucsm仕事のために刃ucsm準備するのを埅ちたす。


ucsmがブレヌドを準備しおいる間、サヌバヌプロファむルのnetworkタブに泚意する必芁がありたす。 次のようになりたす。
サヌバヌプロフアむル


正垞に完了した埌、このセクション党䜓を繰り返しお、ファクトリbではなくファクトリb機胜する2番目のテンプレヌトずプロファむルを䜜成する必芁がありたす。


結婚する


自動車産業での結婚は、パワヌナニットがボディに接続される瞬間です。 この名前はこのセクションにも最適です。


esxiのむンストヌルはスキップしたす。 それは非垞にシンプルで、たったく面癜くないです。 ここでesxiしたVmware-ESXi-5.5.0-2068190-custom-Cisco-5.5.2.3.isoむメヌゞからESXi550-201512001.zipをESXi550-201512001.zip 、ここからESXi550-201512001.zipアップグレヌドしたこずESXi550-201512001.zipをESXi550-201512001.zip したす 。 その結果、 vCenterによるず、結果はバヌゞョン5.5.0-3248547です。 たたは、 Vmware-ESXi-5.5.0-3248547-Custom-Cisco-5.5.3.2.iso  link をすぐにむンストヌルできたす-結果は同じです。 esxiむンストヌルむメヌゞesxi Ciscoサヌバヌ甚に特別に準備されおいたすが、䜕らかの理由でcisco virtual machine fabric extender  vm-fex  vm-fex含たれおいたせん。


個別にダりンロヌドする必芁がcisco-vem-v161-5.5-1.2.7.1.zipたすucs-bxxx-drivers-vmware.2.2.6c.isoからucs-bxxx-drivers-vmware.2.2.6c.isoファむルが必芁ucs-bxxx-drivers-vmware.2.2.6c.iso 。 このドラむバヌをハむパヌバむザヌにアップロヌドしおesxcli software vib install -d /tmp/cisco-vem-v161-5.5-1.2.7.1.zip必芁がありたす esxcli software vib install -d /tmp/cisco-vem-v161-5.5-1.2.7.1.zip ずころで、䞊蚘のリンクはすべお自由にスむングできたす。登録するだけです。 自由にダりンロヌドできない唯䞀のものはvCenterです。 私はVMware-VCSA-all-6.0.0-3634788.iso 別名6.0u2 を䜿甚したすが、 VMware-VCSA-all-6.0.0-3634788.isoでも成功したスタンドがありたす。 たた、 vcsaむンストヌル、ハむパヌバむザヌの远加、クラスタヌの䜜成もスキップしたす。


なぜvcsaバヌゞョン6ずesxiバヌゞョン5.5を遞んだのかを議論する䟡倀があるでしょう。 以前のすべおのvcsaのWebクラむアントvcsaほが完党にflash蚘述されおいたす。 , vmware, npapi , chrome 2015. vmware vsphere client , , -. vcsa , .


esxi , 5.1 , iscsi host profile . , , , . , vds 5.5 , . , cisco nexus 1000v . esxi 6.0 : ucs-bxxx-drivers-vmware.2.2.6c.iso/VM-FEX/Cisco/VIC/ESXi_6.0/README.html : Not supported .


. vds , vcsa . : vds . . vds . vcsa 5.5 :
vcsa 5.5アップリンク


vcsa 6.0 :
vcsa 6.0アップリンク


, , :
゚ラヌ


. supportforums.cisco.com , communities.vmware.com - vmware employees , , - . vcsa 5.5 npapi chrome , . , vds , ucsm , - - .


vds vmware vsphere client . , — , . esxi vds host profile . , esxi vds — sdk, , , .


, DirectPath I/O vds , ucsm . esxi vds . , . esxi vSwitch , vcsa , esxi , vds 5.5.


DirectPath I/O . , — , ucs-vds , — vmxnet3 , reserve all guest memory . . DirectPath I/O Active . ucsm :
ucs仮想マシン


bond. james bond. ?


, 14 /. , irqbalance :


 top - 13:35:03 up 9 days, 17:41, 2 users, load average: 0.00, 0.00, 0.00 Tasks: 336 total, 1 running, 334 sleeping, 0 stopped, 1 zombie Cpu0 : 1.4%us, 8.5%sy, 0.0%ni, 90.2%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu1 : 1.0%us, 7.8%sy, 0.0%ni, 91.2%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu2 : 1.4%us, 4.4%sy, 0.0%ni, 94.2%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu3 : 1.3%us, 8.1%sy, 0.0%ni, 90.6%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu4 : 2.5%us, 9.3%sy, 0.0%ni, 81.4%id, 0.0%wa, 0.0%hi, 6.8%si, 0.0%st Cpu5 : 1.8%us, 9.5%sy, 0.0%ni, 83.6%id, 0.0%wa, 0.0%hi, 5.1%si, 0.0%st Cpu6 : 1.8%us, 6.6%sy, 0.0%ni, 86.3%id, 0.0%wa, 0.0%hi, 5.2%si, 0.0%st Cpu7 : 2.6%us, 8.8%sy, 0.0%ni, 83.9%id, 0.0%wa, 0.0%hi, 4.7%si, 0.0%st Cpu8 : 2.9%us, 8.3%sy, 0.0%ni, 83.3%id, 0.0%wa, 0.0%hi, 5.4%si, 0.0%st Cpu9 : 1.0%us, 8.0%sy, 0.0%ni, 91.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu10 : 1.3%us, 8.9%sy, 0.0%ni, 89.4%id, 0.0%wa, 0.0%hi, 0.3%si, 0.0%st Cpu11 : 1.3%us, 9.3%sy, 0.0%ni, 89.4%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu12 : 0.7%us, 3.1%sy, 0.0%ni, 96.2%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu13 : 1.1%us, 5.3%sy, 0.0%ni, 88.0%id, 0.0%wa, 0.0%hi, 5.6%si, 0.0%st Cpu14 : 2.9%us, 8.7%sy, 0.0%ni, 81.9%id, 0.0%wa, 0.0%hi, 6.5%si, 0.0%st Cpu15 : 1.8%us, 9.0%sy, 0.0%ni, 82.4%id, 0.0%wa, 0.0%hi, 6.8%si, 0.0%st Mem: 8059572k total, 3767200k used, 4292372k free, 141128k buffers Swap: 4194300k total, 0k used, 4194300k free, 321080k cached 

- , . , . . ucs ( ) . ecmp ? , . Cisco UCS . port-channel . , — 80 /.





Source: https://habr.com/ru/post/J303026/


All Articles