ブログ
, Regular Visitor
ブログ
SDN時代のデータセンターアーキテクチャー/Forwarding Plane (後編)
Sep 10, 2013

前回のエントリー「SDN時代のデータセンター・アーキテクチャ/Forwarding Plane (前編)」では、データセンター•アーキテクチャのトレンドとユーズケースの概要を基に、L2デザインデータセンターとL3デザインデータセンターについてご紹介いたしました。

今回はその続きとして、L2 over L3デザインデータセンターとHop-by-Hopデザインデータセンターについてご紹介したいと思います。

 

- L2 over L3デザインデータセンター

ここからが、いわゆるSDNのフォワーディング・プレーンのお話になります。

データセンター内で仮想マシンを展開し、ユーザーに提供するというサービスを行う場合、前述のとおり仮想マシン運用の観点からL2デザインデータセンターを用いる必要があります。また、このL2デザインデータセンターを大規模に展開する場合や、複数のDC/サイロを接続しようとした場合、VLAN IDの上限数やVLAN IDのバッティングについて意識する必要があります。よくVLAN 4Kの壁といった言われ方もしますが、このVLAN 4Kの壁を越えるために近年ではVLAN拡張技術(QinQ/PBB)やVLAN Translation、装置内でL2インスタンスを複数持たせるといった、ネットワーク機器の機能を用いる事でこのVLAN問題を解決し、ユーザーに対してマルチテナンシーを提供してきました。

 

 データセンターアーキテクチャとマルチテナンシー.jpg

<図4.データセンターアーキテクチャとマルチテナンシーの提供方法>

 

しかし、ここ最近ではSDNを用いてマルチテナンシーを実現しようという動きが出て来ています。SDNを用いる事で、VLAN数やポート数といった物理ネットワークに存在するリミテーションの問題を克服し、SDNにて一元管理する事でConfigurationやトラブルシューティングといった運用面の改善や、サービスそのものの質を向上させたい、といったところが狙いです。このマルチテナンシーを実現するSDN技術といえばVXLAN, NVGRE, STT, MPLS over GREといったIPトンネリングを用いたOverlay方式とOpenFlowを用いてフローベースでトラフィックを制御する方式があげられます。

では、Overlayネットワーク(仮想ネットワーク)を導入する場合、Underlayネットワーク(物理ネットワーク)をどうするか?を考えなければなりません。極論を言うとOverlayトンネルを終端するエンドポイント間でIPリーチャビリティがあれば良い訳ですが、OverlayトンネルはUnderlayネットワークのL3の経路に依存するため、やはりサービスを行うためにはUnderlayネットワークも運用しやすいトポロジーであり、安定したパフォーマンスを提供できる装置であるべきです。Overlayトンネルに注目するあまりUnderlayネットワークの検討を疎かにすると障害や運用上の問題といった事が後々影響すると思われます。その答えの一つとして、Underlayネットワークに対して上述したL3 Fabricが最近注目を集めています。Spine-and-LeafのL3Fabric構成を用いる事で、拡張性や経路制御のしやすさといったメリットを生かす事ができるため、Overlayトンネルも制御がしやすく、継続して安定したネットワークサービスを提供する事が可能になります。

また、ジュニパーのQFabricをUnderlayネットワークに用いる事も有効です。QFabric自体もSpine-and-Leafデザインで構成され、ノード間は全て同一Pathで接続されます。そもそも、QFabricは1つの大きな装置であるためUnderlayネットワークという事を意識しなくてもよく、拡張性や運用といった視点からもOverlayネットワークと組み合わせる事に適しています。

 

 overlay&underlay.jpg

<図5.Overlay/Underlayネットワーク>

 

ところで余談ですが、今年のInterop Tokyo 2013 ShownetではL2 over L3データセンターアーキテクチャを用いて、実際にOverlayトンネル技術によるマルチテナンシーのサービスを幕張の会場に提供しました。新製品であるEX9200と他社製品にてBGPを用いて大規模なL3ネットワークを構築し、その上でVXLANを動作させるというものです。この試みは見事に成功し、有り難い事にEX9200はBest of Show Award/Shownet部門グランプリを頂きました。

 

Shownet_1.jpg

<図6.EX9200とBGPによる大規模Overlay/Underlayネットワーク>

 

ちなみに、筆者もコントリビューターとして今年のShownetに参加し、このShownet部門グランプりの受賞式では、ちゃっかり賞を頂く大役を勤めさせて頂いた次第です(笑)

 

 Shownet_2.jpg

<図7.ジュニパーShownetメンバーの努力が報われた瞬間>

 

 

- Hop-by-Hopデザインデータセンター

タプル(パケットやフレームのヘッダ情報)を用いてトラフィックを制御するOpenFlowは既に多くのメーカーから製品が提供されています。このOpenFlowスイッチはOpenFlowコントローラーによって機器や経路が集中制御されますが、OpenFlowは基本的にHop-by-Hopデザインのネットワークとなります。OpenFlowを用いる事で装置の設定変更を行わずにコントローラーからのAPI連携でフローベースの経路制御ができるため、より細かなネットワーク運用が可能になります。また、OpenFlowを用いて自立分散型で動いていたネットワークを集中管理する事でよりシンプルな運用になるというメリットもあります。

ただ、OpenFlowについては現時点でのコントローラやOpenFlowスイッチの実装においてスケーラビリティに問題があると言われており、またアーキテクチャの視点からも大規模なデータセンターには向いていないとも言われています。例えば、多くのユーザーに提供しているVPNサービス。これはエッジから流れてくるユーザーの通信に対してMPLSやIPヘッダを付与し、さらにネットワーク側ではBGPなどを用いて自立分散して動かす事で大規模にネットワークサービスを展開するというモデルでした。つまり、細いものを集めて太くし、太くした物を個々の装置が制御するというアーキテクチャです。一方でOpenFlowは逆のアプローチとなります。ユーザー のトラフィックをフローという単位で制御し、それを中央集権的に運用するというものです。つまり、細いものをさらに細くして、それをまとめて管理するという形です。そのため大規模になればなるほどコントローラーやOpenFlowスイッチにとって多くのリソースが必要となります。従って大規模データセンターを構成するよりは、エンタープライズのデータセンターやキャンパス、WANやVPNへのゲートウェイ装置としてより効果のあるプロトコルであると考えています。

 

■おわり

ここまで現在多く用いられている代表的なデータセンターアーキテクチャとビジネス要件、技術要件の整理を行い、SDNのフォワーディング・プレーンという事でOverlayトンネルやOpenFlowを用いたネットワークについてもご紹介いたしました。ただ、SDN時代のデータセンターとなると、実際は今回ご紹介したフォワーディング・プレーン側の技術だけでなく、コントローラーやオーケストレーターといったコントロールプレーン、マネジメントプレーンを制御するコンポーネント類についても考慮が必要となります。また、 NFV(Network Functions Virtualization)という事で、x86サーバー上で動作するアプリケーションや、それらのアプリケーションを連携させる”Service Chaining”といったサービスプレーンについても議論が必要となります。この辺りの技術についても、いずれご紹介させて頂きたいと思います。

 

 

profile.jpg有村淳矢

技術統括本部

サービスプロバイダ技術本部

システムズエンジニア

2003年国内大手システムインテグレーターに入社。通信事業者担当のネットワークエンジニアとして全国規模のネットワークプロジェクトを経験し、2010年ジュニパーネットワークスに入社。以降、通信事業者/サービスプロバイダ担当のハイタッチSEとしてインターネットバックボーン、データセンター、SDNといった幅広い領域での業務に従事。

 

※ご意見やご質問など、是非otoiawase@juniper.netにメールを頂くか、コメント欄やTwtitter(@Juniper_Japan)からお寄せください。

 

 

==============

関連ブログ

==============

「シリコンバレーのアグレッシブな投資環境が牽引するSDNのイノベーション!!」

 

「SDNの今後の展開。クラウドの次はモバイル?」

 

「SDN時代のデータセンター・アーキテクチャ/Forwarding Plane (前編)」

 

0 件の賞賛
Feedback