OSSユーザーのための勉強会 <OSS X Users Meeting> #5 OpenStack
にいってきた。その内容をメモメモ
Openstack NII 19階
会場70人くらい?
SCSKのホームページに資料載るよ!
OpenStackNetworking(Neutron)解説
VA Linuxの人
VA
・たち位置的には、開発
・Neutronの歴史
OpenStackのコアプロジェクトの1つ
プロジェクト間は疎結合(HTTP通信)
以前は、Nova-Network
→Quantum
Folsom(ふぉろさむ)
→Quantum
Grizzly,
Havana,
Quantumから、neutronへ
IceHousr
いまここ
・API
リソースを定義し、REST APIでリソースの操作を行う
・コアリソース
ネットワーク:L2スイッチ
サブネット:IPアドレスブロック
ポート:L2スイッチのポート
・ネットワークAPI
実行例は、ドキュメント見ればわかるので省略
・ポートAPI
・CLI neutronコマンド
だいたいAPIでできることは、できる
Python-Neutronクライアント
実行例はあとでみてね
デバックオプション
・VMの起動
・その他のリソース
仮想ルーター(l3エクステンション)
仮想ロードバランサーなど
・仮想ルーター
floating IPサポート
・Newtrin-server
APIとDBの処理を行う、
Pythonでできている
・プラグイン
コアプラグイン:
サービスプラグイン:サービスタイプごとにプラグイン
継承して作る→コンフィグレーションファイルで指定
・エクステンション:リソースにAPI追加
コマンドで確認できる
・サーバーと実行系の処理の流れ
典型的な処理の流れ
仮想L2の実装
・Netronサーバー、プラグイン、DB、ネットワークサービス、コントローラー
・インターフェースドライバー
・エージェント:プラグイン固有処理(プラグインによってはないものも)
処理の流れ
・環境の準備
(1)プラグインの選択
(2)ホストの実行環境設定
・テナント用ネットワーク作成
・ポートの作成
・インターフェースの作成
VMを起動するNovaComputeがインターフェースを作る
・インターフェースの検知
・ポート情報の取得
・インターフェースの設定
OpenVSwitchプラグイン、リナックスブリッジプラグイン
→ML2プラグイン
ML2
・タイプドライバ
・メカニズムドライバ
→個別のプラグインを作成する代わりに
ML2のメカニズムドライバで実装できる
L3拡張機能の実装
その他のサービス実装
・基本的な構造はL3と同じ
情報源
・Launchpad
・Wiki
-----------------------
OpenStack導入事例 Yahoo
・自己紹介
・導入経緯
2008~09年 VMの提供までだいぶ時間かかる
2010から11年 VMを管理しきれなくなる
WebUIによる機能を作成
リソースを事前取得
ロードバランサーの設定LBaaS)
Ciscoスイッチのコンフィグ変更
2012年
技術的に古く、パフォーマンスよくない
好きなとき好きなだけVM作れない
コンポーネント依存
社内で爆速がキャッチフレーズに
→OpenStack検証
ベーシックな機能は問題なし
Jenkinsなどとも連携
Qemuを手を加えた
ConfigDrive
構成のポイント:安定して稼動できる
・導入システム構成 VM Net、Volume、nova config、
RPCタイムアウト
Quantum config,config_drive
・Openstackの開発と管理
社内Github,Jenkinsを利用して,Upstreamと独自コードのマージ
Jenkinsによる自動テスト
・苦労したところ
amqpの高い稼働率
・今後
Nutronまわりの検証
(べあめたるあらため)Ironic導入:物理サーバーの利点は大きい
Nova-cellsの検証、実装
社内ニーズに応じた実装
Q&A
ZEN→KVM
構成管理は内製
cloudstackとOpenstack
明確にこれっていうのはなくて、手が進んだのがOpenstack
APIが結構かわるよね。
進化している証拠。ポジティブにとらえる
バージョンアップは?
資源があるので、はばなとぐりずりー両方つかって
にいってきた。その内容をメモメモ
Openstack NII 19階
会場70人くらい?
SCSKのホームページに資料載るよ!
OpenStackNetworking(Neutron)解説
VA Linuxの人
VA
・たち位置的には、開発
・Neutronの歴史
OpenStackのコアプロジェクトの1つ
プロジェクト間は疎結合(HTTP通信)
以前は、Nova-Network
→Quantum
Folsom(ふぉろさむ)
→Quantum
Grizzly,
Havana,
Quantumから、neutronへ
IceHousr
いまここ
・API
リソースを定義し、REST APIでリソースの操作を行う
・コアリソース
ネットワーク:L2スイッチ
サブネット:IPアドレスブロック
ポート:L2スイッチのポート
・ネットワークAPI
実行例は、ドキュメント見ればわかるので省略
・ポートAPI
・CLI neutronコマンド
だいたいAPIでできることは、できる
Python-Neutronクライアント
実行例はあとでみてね
デバックオプション
・VMの起動
・その他のリソース
仮想ルーター(l3エクステンション)
仮想ロードバランサーなど
・仮想ルーター
floating IPサポート
・Newtrin-server
APIとDBの処理を行う、
Pythonでできている
・プラグイン
コアプラグイン:
サービスプラグイン:サービスタイプごとにプラグイン
継承して作る→コンフィグレーションファイルで指定
・エクステンション:リソースにAPI追加
コマンドで確認できる
・サーバーと実行系の処理の流れ
典型的な処理の流れ
仮想L2の実装
・Netronサーバー、プラグイン、DB、ネットワークサービス、コントローラー
・インターフェースドライバー
・エージェント:プラグイン固有処理(プラグインによってはないものも)
処理の流れ
・環境の準備
(1)プラグインの選択
(2)ホストの実行環境設定
・テナント用ネットワーク作成
・ポートの作成
・インターフェースの作成
VMを起動するNovaComputeがインターフェースを作る
・インターフェースの検知
・ポート情報の取得
・インターフェースの設定
OpenVSwitchプラグイン、リナックスブリッジプラグイン
→ML2プラグイン
ML2
・タイプドライバ
・メカニズムドライバ
→個別のプラグインを作成する代わりに
ML2のメカニズムドライバで実装できる
L3拡張機能の実装
その他のサービス実装
・基本的な構造はL3と同じ
情報源
・Launchpad
・Wiki
-----------------------
OpenStack導入事例 Yahoo
・自己紹介
・導入経緯
2008~09年 VMの提供までだいぶ時間かかる
2010から11年 VMを管理しきれなくなる
WebUIによる機能を作成
リソースを事前取得
ロードバランサーの設定LBaaS)
Ciscoスイッチのコンフィグ変更
2012年
技術的に古く、パフォーマンスよくない
好きなとき好きなだけVM作れない
コンポーネント依存
社内で爆速がキャッチフレーズに
→OpenStack検証
ベーシックな機能は問題なし
Jenkinsなどとも連携
Qemuを手を加えた
ConfigDrive
構成のポイント:安定して稼動できる
・導入システム構成 VM Net、Volume、nova config、
RPCタイムアウト
Quantum config,config_drive
・Openstackの開発と管理
社内Github,Jenkinsを利用して,Upstreamと独自コードのマージ
Jenkinsによる自動テスト
・苦労したところ
amqpの高い稼働率
・今後
Nutronまわりの検証
(べあめたるあらため)Ironic導入:物理サーバーの利点は大きい
Nova-cellsの検証、実装
社内ニーズに応じた実装
Q&A
ZEN→KVM
構成管理は内製
cloudstackとOpenstack
明確にこれっていうのはなくて、手が進んだのがOpenstack
APIが結構かわるよね。
進化している証拠。ポジティブにとらえる
バージョンアップは?
資源があるので、はばなとぐりずりー両方つかって