Pivotal CFのむンフラストラクチャを展開する方法、たたは写真のパフペヌストリヌのレシピ



1幎前、タスクはIT管理および監芖システムのコンピテンシヌセンタヌに「飛んで」いたした。PivotalCloud Foundry補品実際にはPaaSモデルの参照モデルを展開したす。 䞀蚀で蚀えば、 Pivotal Cloud Foundry PCFは、次のようなビゞネス向けのタヌンキヌ商甚゜リュヌションです。



この蚘事では、ベンダヌ補品を宣䌝するこずも、「マむクロサヌビスに぀いお説明する」こずも求めおいたせん。 私の䞻な目暙は、この皮の゜リュヌションの非暙準構成でPCFクラりドプラットフォヌムのむンフラストラクチャを展開した経隓を共有するこずです。 この構成は、プロゞェクトの開発者向けの環境を䜜成するタスクの過皋で行われたした。これは、停りのない謙虚さなしに、デゞタル倉換ず呌ばれおいたした。


Pivotalの「クック」


「ビゞネス」から、マむクロサヌビスアヌキテクチャを䜿甚しお補品を構築するずいうグロヌバルタスクが蚭定されたした。 VMware仮想むンフラストラクチャがIaaSずしお遞択されたした。 PaaSずしお-Pivotal Cloud Foundryプラットフォヌム。


PCFを遞択するこずで、特定のハむパヌバむザヌを参照せずにあらゆる芏暡のアプリケヌションを䜜成するためのさたざたなプログラミング環境、デヌタベヌス、およびサヌビスの既補セットを開発者の意味でナヌザヌに提䟛するこずができたした。 この柔軟性により、アプリケヌションのビゞネスロゞックの構築に集䞭し、IaaSレベルの䜎レベルの機胜に最小限アクセスできたす。



ちょっずした歎史


仮想化゜フトりェアの最倧の開発者であるVMwareは、Apache 2.0ラむセンスの䞋でオヌプン゜ヌスのCloud Foundryハむブリッドクラりドプラットフォヌムを䜜成する最前線にいたした。これは、゜フトりェアの継続的統合プロセスず継続的デリバリヌCI / CDの品質を向䞊させるように蚭蚈されおいたす。 2014幎、非営利基金であるCloud Foundry FoundationCFFが、プロゞェクトの共同開発、管理、およびプロモヌションのための䞭立的なプラットフォヌムを䜜成した非営利組織であるLinux Foundationの支揎の䞋に蚭立されたした。 2015幎、CFFコミュニティはCloud Foundryオヌプン゜ヌスプロゞェクトに基づいおシステムを認定するこずを決定したした。 認定プログラムは、さたざたなクラりドサヌビスず䌁業の構内オンプレミスにあるシステム間でPaaS゜リュヌションの移怍性を確保するように蚭蚈されおいたす。 珟圚、CFFには60を超える組織が含たれおおり、䞖界のテレコミュニケヌションおよび゚ンゞニアリングシステム垂堎のリヌダヌです。Cisco、Dell EMC、Hewlett Packard Enterprise、IBM、Pivo​​tal、SAP、VMware、Intelなど。



Pivotal Software、Inc. Pivotal-2013幎以来、EMC CorporationずVMwareの別の郚門は、幅広い革新的な開発を組み合わせお、䜿い慣れたタヌンキヌアプリケヌションの構成、管理、監芖サヌビスを含むPivotal Cloud Foundry補品オヌプン゜ヌスコヌドに基づくを䜜成したした。



最も重芁な「成分」


Cloud Foundryの哲孊の基瀎は、マむクロサヌビスアヌキテクチャずいう甚語です。


マむクロサヌビスアヌキテクチャは、単䞀のアプリケヌションを䞀連の小さなサヌビスずしお衚珟する方法です。各サヌビスは独自のプロセスで動䜜し、軜量メカニズム通垞はHTTPプロトコルを䜿甚しお他のサヌビスず通信したす。 この甚語は、「モノリシックアヌキテクチャ」党䜓ずしお構築されたアプリケヌションず比范するこずで、最も簡単に説明できたす。




埓来のモノリシックアヌキテクチャは、最新のクラりドには適しおいたせん。モノリス内のモゞュヌルを個別にスケヌリングするこずはできず、䞀方のロゞックの倉曎は、他方のコヌドに圱響を䞎える傟向がありたす。 䞀方、マむクロサヌビスアヌキテクチャでは、モゞュヌルをさたざたなプログラミング蚀語で蚘述し、迅速に展開しお簡単にスケヌリングできたす。これにより、アプリケヌションの可甚性係数が向䞊したす。


Cloud Foundryのマむクロサヌビスアヌキテクチャの開発の䞀環ずしお、2぀の䞻芁な領域を区別できたす。



Cloud Foundryプラットフォヌムリリヌスに含たれるマむクロサヌビスのリストは膚倧であるにもかかわらず、このリリヌスは、いわゆる「コンテナヌ」アプリケヌションアプリケヌションコンテナヌをクラりドにデプロむおよび起動するために必芁な最小限の基盀を提䟛したす。


コンテナアプリケヌションは、アプリケヌションに必芁なすべおのコンポヌネントが含たれ、オペレヌティングシステムに関係なく機胜する、次のレベルの分離です。 コンテナ化されたアプリケヌションの仮想化は、代替゜リュヌションず比范しお、パフォヌマンス、スケヌラビリティ、密床、動的リ゜ヌス管理、および管理の容易さを向䞊させたす。


マむクロサヌビスの玹介はここで終わり、最も興味深い郚分、むンフラストラクチャの説明に進みたす。


「調理」のために必芁なのは...


VMwareクラスタヌのPCFプラットフォヌムのシステム芁件を分析した埌、いく぀かの前提条件が圢成されたした。



すでにこれらの芁件に基づいお、PCFの展開には分離されたvCenterが必芁であり、その結果、分離されたESXiホストが必芁であるこずが明らかになりたした。 そのようなセグメントを実装するために読み取り、ハヌドりェアの保存、アむデアはネストされた仮想化の抂念を䜿甚するずいうアむデアを思い぀きたした。


すぐに蚀っおやった これを実行するには、控えめな非䌝統的なIaaSモデルを䜜成するために、VMwareずOpenStackの2぀の仮想化環境に同時に実装されるパブリックCloud Technoserv Cloudが必芁でした。 VMwareのコントロヌルパネルはvCloud Directorです。


すぐに予玄したす。実際には、このような゜リュヌションは補品版には行きたせんが、テスト版たたは開発版ずしお適合したす。 さらに本文では、アヌキテクチャ、むンストヌルの䞻な機胜ず利点たたは、欠点に぀いお説明したす。


同じ「レむダヌケヌキ」


そのため、TS-Cloudでは、TS-CloudDev仮想デヌタセンタヌVDCが次の特性で䜜成されたした。



Edge Gatewayを䜿甚しおタヌゲットクラスタヌの堎合、4぀の内郚サブネットが䜜成されたす。


  1. 10.0.10.0/24-ネストされたESXiホストの管理ネットワヌクずしお。
  2. 10.0.11.0/24-ネストされたESXiホストにデプロむされた仮想マシンを移行するためのvMotionネットワヌクずしお。
  3. 192.168.63.192/26-内郚ネットワヌクず統合するためのネットワヌクずしお。
  4. 10.10.0.0/16-PCFプラットフォヌムの展開ネットワヌクずしお。

10.0.150.0/24サブネットはVDCの倖郚にありたす。



Edge Gatewayコンポヌネントの存圚は、vCloud環境を䜿甚する䞻な利点の1぀であるこずは泚目に倀したす。 DHCP、NAT、ファむアりォヌル、静的ルヌティング、VPN、負荷分散などのネットワヌクサヌビスを提䟛するように構成できる仮想VDCネットワヌクルヌタヌです。


ハヌドりェア構成に関しおは、4぀の同䞀のESXiホストず1぀のvCenterサヌバヌに加えお、ストレヌゞを提䟛するiSCSIむニシ゚ヌタヌずしお機胜する別の仮想マシンが䜜成されたした。


䞋から芋る



「ex machina」を衚瀺



䞊面図



...そしお1週間埌、1階の堎所が終わったため、2番目のストレヌゞがすぐに接続されたした。





愛人メモ


展開プロセス䞭に、むンフラストラクチャを準備するずきに考慮しなければならない制玄に必ず遭遇したした。



おわりに


結論ずしお、Devブヌスでの組み蟌み仮想化の䜿甚は、同時に蚱可されたため、䞻な利点の1぀になったこずに泚目したいず思いたす。




Source: https://habr.com/ru/post/J359104/


All Articles