ウィリアムのいたずらの、まちあるき、たべあるき

ウィリアムのいたずらが、街歩き、食べ物、音楽等の個人的見解を主に書くブログです(たま~にコンピューター関係も)

AmazonMWSのAPIで、XMLの値を取り出したいとき

2014-12-25 15:47:40 | Weblog
自分へのメモ

AmazonMWSのAPIを使うと、XMLで値を取得するサンプルはついてくる。

たとえば、GetMatchingProductForIdを行った場合、
サンプルでは、echo $dom->saveXML();で書き出し、
その結果、以下のような値を得る


このとき、XMLの中身、例えばASINを知りたい場合、

http://stackoverflow.com/questions/13948694/amazon-mws-products-api-xml-parsing-with-php

にあるように

foreach ($dom->getElementsByTagName('ASIN') as $item) {
echo $item->nodeValue;
}

で値を表示する。しかし、1件しかないことが分かっている場合、
冗長である。

この場合と、ns2内の値、属性について、こうすると、取得できる


(実行して、何も出てこないときは、ソースを見よう!)

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

CentOSでMySQLいれて、PHPでアクセスするまで

2014-12-25 12:40:19 | PHP
やったことについて、自分へのメモ

■前提
・Apacheは動いている
・PHPも動いて、phpinfo.phpが見れる
・カーネルの確認
  cat /etc/redhat-release
 したら、CentOS

■作業
(前提)root権限で入っている

(1)mysqlインストール・起動

yum install mysql-server
yum install mysql-devel
/etc/init.d/mysqld start

(2)確認
mysql -u root
*はじめはrootのパスワードが設定していないので、これで入れる
*show databases;などして、exitで抜ける

(3)phpとの接続関係インストール
yum install php-mysql
yum install php-mbstring

(4)apache再起動
/etc/init.d/httpd stop
/etc/init.d/httpd start

(5)phpinfo.phpで、mysqlが動いているか確認

(6)接続プログラム
http://www.phpbook.jp/tutorial/mysql/index3.html
の下のほうにあるtest1.phpの
   ユーザー名 root
   パスワード なし(最後の,'testuser'を削除)
して保存、それをアクセスに行く。


■参考

http://changineer.info/server/mysql/mysql_installation_linux.html
http://d.hatena.ne.jp/rx7/20081010/p2
https://tamosblog.wordpress.com/2012/06/15/centos_web/

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

NoSQLは、普通の選択肢になったよね

2014-12-25 10:15:53 | Weblog

「NoSQL」は根付いた
http://itpro.nikkeibp.co.jp/atcl/watcher/14/334361/122200146/?ST=bigdata&P=1

前みたいに、騒がれなくはなったけど、
KVSは、どんどんデータが発生する状況で、
一時的にデータをいれたいときの選択肢として
普通に考えられるようになったよね
Cassandraとかmemcachedとか

NoSQLといったからおかしくなったのであって、
非構造化データ用DBといったほうが・・・
・・・マーケティング的にはNoSQLといったほうが、よかったんだろうね。

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

どんなデータをそろえると、どんな分析ができて、どのように経営に役立つか-その1 流通業編

2014-12-24 11:06:48 | AI・BigData
今日の夢が微妙な夢で、

「某社(夢の中では会社名が出ていたけど省略)
 の心無いビッグデータ活用のあおりのおかげで、

 一般の人は
   どのようなデータを集めたら、
   どのような分析が行え、
   どのような効果が出るかわからず、
 ビッグデータに投資した企業が没落し、社会が崩壊する・・・」

って感じなんだけど、

まあたしかに、

「どのようなデータをそろえると、
 どのような分析が出来て、
 どのくらい経営に貢献するか」

というのは誰も書いていないので、投資に失敗する可能性はあるわな・・・
(でも、社会は崩壊しないと思うけど・・)

というので、そんへんについて書いてみる。
今回は、主に流通(とくに小売)向け

実は、その夢に出てくるように、意外な結末になるのだ・・・




■データの種類-どのようなデータを集めたら

データ分析用のデータは、以下のようなものが必要で、
1から2,2から3と、順番に整備していかないと、
意味のないデータ解析になる危険性がある*。


1.売上データと商品データ
→バスケットレベルが吉、商品データが売上データに入っていれば、それでもよし
→そのとき何が店舗に出ていたかの情報があると(仕入れと在庫量が分かると出る)
 吉なのだが、たぶん、そのデータは取れないので、なくてよい。

2.販促データ
→値引き、チラシ広告、景品、エンド陳列などの販促状況が分かるデータ
→売上データに入っていれば良いが、そうでない場合ヒモ付けが必要で
 その際、店舗データが必要になるかも

3.IDつきPOSデータ
→2種類ある。顧客にアプローチできるCRMデータと、
 顧客の個人情報が一切抜かれた属性データ。

4.ソーシャルデータ
 SNSなど・・

なお、有償のものも含めた、オープン(な)データ
  (気象庁が出している天気データ、
   流通システム開発センターが出している流通POSデータベースサービス(RDS)、
   JANコード統合商品情報データベース(JICFS/IFDB)等)
は、どの段階でも、ある程度役立つ


*意味のないデータ解析
 たとえば、3.IDつきPOSデータを使い、「50台女性は商品Aを購入する」というデータ
が出たとき、じゃあ50代女性がこのスーパーの顧客に多いから、Aは売れるはず

  ・・・と解釈してしまうかもしれない。

 この場合、Aをチラシに出して特売すると、50代女性はチラシを見てわざわざ
買いに来ているかもしれない。これは2.販促データがないと、わからない。
なので、販促で売れているような場合、IDつきPOSデータだけで判断すると、
意味のない結果が出たり、間違った判断をしたりする。




■データ解析法-どのような分析が出来て

集めるデータによって、分析範囲が異なってくる。

●1.売上データと商品データ

・売上データから、まず、売上傾向とトレンドや季節性について見れる
 (前年より、よい・わるい)
 商品分析に入る前に、全体の売上傾向を見ておく。
 そうでないと、「不況だから売れない」のか「商品力がなくなったから売れない」
 のか判断できないから。

・次に売上商品ごとのランキング、前年期比などをみて、調子いい商品、
 調子悪い商品の全体傾向を知る。
   →ABC分析等も、ここで
 ただし、売上をみるときは、「欠品していないかどうか」や売り場面積も
 確認(意識)しておくこと。
 うれるはずの商品が売れていない→売れすぎて欠品していたから
 ってこともあるので。

 - ここまでは、グラフや表を使った、基本的な分析(記述統計レベル)となる -

・商品ごとのアソシエーションをみるために、バスケット分析をすることもできる

 バスケット分析は、

 ・すべてのバスケット全組み合わせ(A,B,Cを買った人はDを
  買うのような、2種類以上の組み合わせ)を見たい場合には、
  アプリオリというプロトコルを使う。Rで解析できる

 ・組み合わせだけでよければ(Aを買った「バスケット内では」Bも買っている)
  RDBでも量が少なければ見れる。
   自己結合を使い、
   SELECT TBL_A.商品 TBL_B.商品
    FROM 売上テーブル AS TBL_A
    JOIN 売上テーブル AS TBL_B
       on TBL_A.バスケット番号=TBL_B.バスケット番号
   WHERE TBL_A.商品 != TBL_B.商品
  とすると、TBL_AとTBL_Bのバスケット内商品の直積がとられ、全組み合わせが出てくる
  なので、こいつをカウントする。

 ・でも、もっと簡単に商品Aを含んでいるバスケット内には、他に何がある?
  というのを見たいのなら
   SELECT TBL_A.商品
    FROM 売上テーブル AS TBL_A
    JOIN 売上テーブル AS TBL_B
      on TBL_A.バスケット番号=TBL_B.バスケット番号
      AND TBL_B.商品=知りたい商品
   WHERE TBL_A.商品 != 知りたい商品
  で出てくる。


・このほか、コーザルデータ(天候や地域行事)を加えて、
  こういうときは、売れるというのを見ることもできる
  機械学習でもいいけど、まあ、ざっくりと
    アイスクリーム 気温30度以上のとき、そうでないとき
  をわけてグラフ表示・ピボットテーブル(クロス表)してもいい。

・流通システム開発センターのRDSを使うと、比較が出来るかも?


●2.販促データ

・どのような販促を打ったら、効果あったかないかがわかる。
 これも、コーザルデータのときのように
  ある商品に対して
    販促Aを行った、行わない
  をわけてグラフ表示・ピボットテーブル(クロス表)してもいい。

・値下げをしている場合、価格によって、売れ行きがどうかというのが見れる。
  ヒストグラムで見るのが普通かもしれないけど、
  Xを価格、Yを売れた数にして、散布図で見るという手もある。

●3.IDつきPOSデータ

◎IDだけを使う場合、「1.売上データと商品データ」よりも細かい
 商品情報が見れる

  ・デシル分析:購買者を購買金額上位からならべて、ほぼ10等分し、
   各階層で、ある商品をどれくらい買っているか見る。

   顧客をデシルに分けるには、NTILEウィンドウ関数で分けられる

  ・RFM分析:さらに顧客をR(最近買った日)、F(買った回数)、
   M(類型金額)によって、分類し、その各階層で、どの商品
   をどれくらい買っているか見る。
   上記のようにSELECT文でNTILEウィンドウ関数で分けてがんばる!

  ・トライアルリピート
   商品をはじめて買った人(トライアル)、2回目以上買った人(リピート)に
   わけ、どのくらいの人が買っているかを見る。
   リピートを2回にするか、2回「以上」にするかの違いが有り、
    2回の場合は、主に商品力を見たいケース
    2回以上の場合は、棚割りで、棚から削除すべきかどうかの判断
   につかう。
   SELECTにLEADウィンドウ関数(OVER 販売日時)を使うと、次の購買日が
   出せる。それを利用するのかな・・

  ・アソシエーション分析(Aを買った人はBを買っています)
   バスケット分析はバスケット内で判断するが、これは期間内で判断する
   Aを買った人は次の日Bを買っていた場合、バスケット分析ではカウント
   しないが、これはカウントする。
   バスケット分析の「バスケット」を「人」に代えただけだが、
   全部求めると(直積すると)すごいことになるので、普通
   商品Aを買った人は、何を買う?ということで

   SELECT TBL_A.商品
    FROM 売上テーブル AS TBL_A
    JOIN 売上テーブル AS TBL_B
      on TBL_A.顧客ID=TBL_B.顧客ID
      AND TBL_B.商品=知りたい商品
   WHERE TBL_A.商品 != 知りたい商品
  で出てくる。
   
  ・ロイヤリティ?スイッチャー?
    その人が、同じカテゴリーの商品を買う場合、同じ商品を買っているか、
    違う商品を買うことが多いかを出す
   
    SQL的には、知りたい商品のカテゴリーをもとめ、そのカテゴリー全商品
    に対して、各商品の売上合計を求めれば求まるが、

    欠品のために他の商品を買っていることもあるので、注意が要る

◎属性値も含む場合、属性情報を使った販売情報が見れる・・・ことになっている
  Aという商品は、20代女性の購入が多いなど


●4.ソーシャルデータ
 Twitterの情報を加えると、購入していない人の情報までも取得できると
 言われている

 たとえば、Aという商品が売れない場合、TwitterのつぶやきでAという商品
 を解析すると、その商品が売れない理由が分かったりすると「言われている」




■どのくらい経営に貢献するか

●1.売上データと商品データ

 商品の売上状況が分かると、今後どのくらい仕入れたらよいかの予測がつけられる
 とくに、コーザルデータとあわせて、「明日運動会だから、もっと仕入れる」など、
 より精度の高い予測がつけられる。

 さらに、アソシエーション情報が分かると、チラシなどの広告や、販促を行ううえで
 役に立つ。この商品を売りたいから、これも広告に載せておこう、セット販売しよう
 など。とくにリフト率が分かると、これがやりやすい

●2.販促データ

 販促に意味があったのかなかったのか、値下げは無駄だったのか、そうでないのかが
わかる。値下げはむやみにするものではないので、値下げたぶん、売れていないのであれば
値下げすべきでない。

 販促効果があったかなかったかは、リフト率を見れば分かるが、クロス表でも
 まあ、雰囲気はつかめる・・

●3.IDつきPOSデータ

 これは、IDだけを使うのであれば、「1.売上データと商品データ」と同じ
効果が期待できる。

 しかし、属性情報がわかっても、顧客理解はすすむが、経営に資するかどうかは
わからない。
 たとえば、「育毛剤は、30、40代女性が多く購入している」
というデータが出て場合、ご主人のために買っているのだろうなという
想像がつき、顧客理解はすすむ。

 でも、その情報から、どのように販促したらいいのかがわからない。

 個人情報つきの場合には、DMを打つなどの方法もあるのだが、
 そのような情報のない、属性データの場合、どのように販売に
結びつけるか・・・意外と難しい。

●4.ソーシャルデータ
 もっと難しいのが、ソーシャルデータで、これに至っては、
売れない理由はわかっても、では、なにをどうすれば・・・
途方にくれてしまったりする。

 もちろん、お店のTwitterをするという手もあるけど、
それはデータ分析とは関係ない




ということで、実は、IDつきPOSデータや、ソーシャルデータは、
お金がかかる割りに、経営に資するものかどうかは、疑問だったりする。

「1.売上データと商品データ」「2.販促データ」の解析はExcelで
すんでしまうわけで、そうすると、ビッグデータは本当に経営に役立つか・・・
・・・投資しただけ、回収できず損になる・・・

・・っていう夢なわけでした・・

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

最近、スマートグリッドとか、スマートメーターって、どうなったんだろう・・・IoT?

2014-12-22 10:15:41 | AI・BigData
ここのニュース


あの“時代の寵児”企業、経営危機に 否定した疑義を一転認め、赤字転落と株価暴落

に(太字は上記サイトより引用)

スマートグリッドなど次世代のエネルギーマネジメントでも高い成長性が評価されていた

っていう言葉が出てくるけど、最近、スマートグリッドとか、スマートメーターって、どうなったんだろう?

家庭用は大丈夫みたいだけど、太陽光発電も買取が中止になるところもあるみたいだし・・・

・・・っていうか、IoTという言葉に様変わりしたのかしら・・・


ちなみに、スマートグリッド、スマートメーター、IoTのGoogleトレンド


  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

AIは言わなくなった、いまはBI,CIの時代、ってことは・・・

2014-12-19 17:13:04 | Weblog

元専門誌記者が抱く「イマドキのAI」への期待とモヤモヤ感
http://itpro.nikkeibp.co.jp/atcl/watcher/14/334361/121600141/


そういえば、最近AIという言葉を言わなくなった。
ニューロとか、GAとか、やったとしても。。。

今は
BI:Business Intelligence
CI:continuous integration
が話題な時代でしょうか・・・?

ってことは、次は
DI:dependency injection
がくるんでしょうか・・?
2月か、3月ごろに、「もうすぐ春(Spring)ですねえ~」っていって・・・
いや、景気動向指数という考えもあるか・・


ちなみに、
GIは、G.I.ジョーのGIじゃなくって、
ガードインターバル?


  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

開発の期間や人件費を削減できる箇所は、大きく3つ(要求、環境構築、テスト)

2014-12-18 19:34:25 | Weblog
あれ、これ書かなかったっけ?

開発費を削減したい場合、やみくもに自動化してもうまくいかない
現在において、開発期間の短縮、人件費の圧縮ができるのは、3点だと思う

(1)要求仕様におけるUI関連仕様の削減
(2)開発、運用、テスト環境の標準化・自動化
(3)テスト自動化・品質向上

これ以外の、設計部分の自動化は、導入コストに比べると、あまり効果が
出ないと思う。現時点でも、かなり行われている。
 以下、それぞれについてみてみる




■(1)要求仕様におけるUI関連仕様の削減
 従来ユーザーインターフェースは紙でUI仕様書を作成し・・
 としていたが、プロトタイプでUIを作成、さらにはHTML5で
記述して、アジャイルによりコードを即座に作成していくこと
により、UI仕様書作成のための時間と人が削減できる

 また、JQuery等の利用により、UIのコーディング量は、
一時的に減っている。そのため、画面修正を即時にでき、
アジャイルを適用することにより、ユーザーと開発者間の
コミュニケーション量を増大させることが出来、その分、
意思疎通不足による工数は削減された
(一方、意思疎通しすぎによる、ユーザーが決められないための
 工数は増大中なんだけど・・・)




■(2)開発、運用、テスト環境の標準化・自動化
 従来は、いろんなパソコンに開発環境をいれ、
 開発が終わったら、テスト環境にインストールし、
 全部テストが終わったら、運用環境を構築し・・・

 ・・・といちいち別々に、手作業で構築していた。
 これが仮想化技術(開発用のクラウドを含む)や
コンテナ技術により、仮想環境を一回構築すれば、
その環境をコピーして、みんなが使えるようになった。

もう、この時点で、個別のインストールがなくなるということ、
環境の違いによるバグが生じにくくなったというメリットがあり、
これだけで、工数は大幅に削減している。

 さらに将来的には、Chef、Dockerによる自動環境構築、
Serverspecによる環境テスト等もあるんだろうけど、
そこまで行かなくても、効果は増大。




■(3)テスト自動化・品質向上

 回帰テストの自動化、とくにUI関係の自動化による、工数削減効果が
期待されている。

 テスト観点により、テスト品質をあげることに関しては、すでに
行われているが、問題は、要求仕様、UI,プログラミングの一貫した
テストに関しては、アイデアレベルではあるものの、実用化には
至っていない。


たぶん、今後大きく工数削減・費用削減ができるのは、
テストだと思う(自動化だけでなくSHIFTVALTESのような第三者テストを含めて))


  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

IEの互換性の修正・テストをする方法が書かれたサイトについて

2014-12-18 16:05:16 | トピックス

IE8が2016年1月12日にサポート終了するので、互換性テストどうするか、聞いてきた!
http://blog.goo.ne.jp/xmldtp/e/7814720f034ccd91797ed151c37648db

で聞いてきたはずの、IEの互換性の修正・テストをする方法について、まとめてみる。




■概要

IEの互換性テストをするには

方法1
・UIテストを流して、問題点を検出する
・Internet Explorer 互換性クックブックを見てがんばる

方法2
・Compat Inspectorを使う

いずれにせよ、修正したら
・各バージョンのブラウザで確認する。

という手順をとるが、これを行うツールがある。それについて




■UIテストを流して、問題点を検出する

VisualStudioのバージョンによっては、自動でUIテストができる。
くわしくは、
1.UI オートメーションを使用したコードの検証
http://msdn.microsoft.com/ja-jp/library/dd286726.aspx


2.自動 UI テストを使用したユーザー インターフェイスのテスト
http://msdn.microsoft.com/ja-jp/library/vstudio/dd286726(v=vs.100).aspx


を参照のこと。

なお、自動UIテストはseleniumでもできるが、seleniumのIEによる自動UIテストは、
seleniumIDEから、captureEntirePageScreenshotがエラー
に書いたように、なんかうまくいかない・・・(自分だけ?)




■Internet Explorer 互換性クックブックを見てがんばる

UIテストをして、ターゲットとなるブラウザで動かない場合、互換性の問題となる。
どんな互換性の問題があり、どうすればよいかは、


Internet Explorer 互換性クックブック
http://msdn.microsoft.com/ja-jp/library/ie/dn384059(v=vs.85).aspx


を見れば、わかるらしい。




■Compat Inspectorを使う

UIテストして、互換性クックブックをみてなおしてもいいが、
IEの互換性で問題がある機能を調べて、どう直すか教えてくれる
Compat Inspectorがある。
これは、Javascriptで、これを入れるのはめんどくさい。
そこで、プロキシFiddlerを通してCompat Inspectorを動かす方法がある

詳しくは、


Compat Inspector - ソースコードからIE独自機能を機械的に検出しWeb標準へ置き換えさせる方法
http://furoshiki.hatenadiary.jp/entry/2014/01/06/030742


を参照のこと(そこにやり方が書いてある)




■各バージョンのブラウザで確認する

とにかく、修正したら、各ブラウザで確認する必要がある。

http://modern.ie
にいくと

のように、「仮想マシン」を使ってIE6~11までの動作状況を確かめられる。
同様に確認できるものとしてBrowserStackがある。


  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

Excel VBAで、REST(JSON)データ取得

2014-12-18 12:45:25 | Officeソフト&VBA
Excelのマクロ(VBA)を使って、
RESTでJSON形式で返ってくるサイトにアクセスして、
結果を表示したいということって、ありませんか?
(ないって・・・あると思ってください)

例えば、今、ある検索を、RESTでサーバー側で実行させていて、検索結果をJSON
で返して、ブラウザに表示しているんだけど、実は、Excelでも見たいんだよねえ~
というケース。


VBAでJSONを扱う
http://javascript.dohow.jp/advance/jsonvba.shtml


に、そのやり方が書いてあったので、やってみました。




■例

今、以下のJSONデータ
{
  "mytablename":"user",
  "mytable":[
    {"myid":"1","myname":"family1 last1","mydate":"2014/12/10"},
    {"myid":"2","myname":"family2 last2","mydate":"2014/12/10"},
    {"myid":"3","myname":"family2 last3","mydate":"2014/12/10"},
    {"myid":"4","myname":"family3 last4","mydate":"2014/12/10"}
   ]
}

が、jsontestdata.phpにアクセスすると、得られるとする。
(JSONでのレコードの書き方は
Javascript|JSONでの、レコードの表現方法(配列、連想配列)→{}と[]の違い
を参照)
これを取得する

■ソースコード

Sub ボタン1_Click()

'#########################################
'# JSON操作:VBAでJSONを扱う
'# http://javascript.dohow.jp/advance/jsonvba.shtml
'# から引用
'#########################################
Dim objSC As Object 'Script Control
Dim strFunc As String '関数文字列
Dim strJSON As String 'JSONデータ(文字列)
Dim objJSON As Object 'JSONファイルをパースしたもの

'# JSONの為の設定
Set objSC = CreateObject("ScriptControl")
objSC.Language = "JScript"
strFunc = "function jsonParse(s) { return eval('(' + s + ')'); }"
objSC.AddCode strFunc


'# jsontestdata.phpアクセス
target_url = "http://localhost/jsontestdata.php"
sendData = ""

' POSTで飛ばします
Set httpObj = CreateObject("MSXML2.XMLHTTP")
httpObj.Open "POST", target_url, False
Call httpObj.setRequestHeader("Content-Type", "application/x-www-form-urlencoded")
httpObj.send (sendData)

strJSON = httpObj.ResponseText
Set objJSON = objSC.CodeObject.jsonParse(httpObj.ResponseText)

'# 結果表示
recno = 1
For Each rec In objJSON.mytable
Cells(recno, 1) = rec.myid
Cells(recno, 2) = rec.myname
Cells(recno, 3) = rec.mydate
recno = recno + 1
Next

End Sub



■実行してみた



■注意点

名前がmytable,mynameなど、myをつけている理由。

これをtableとしてしまうと、VBAはTable,Nameなどのように、
1文字目を大文字にしてしまう(VBAにそういうプロパティ等があるため)
ところが、大文字にしてしまうと、当然、違うものなので、エラーに
なってしまったりする。

それが面倒なので、全てにmyをつけている。


  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

ExcelからマクロでPHPにアクセスしたときに、セッションはどうなるか?

2014-12-18 10:43:54 | Officeソフト&VBA
セッションIDを送らなくても、引き継がれるか実験。

■ソースコード

●PHP側 session.php

<?php

session_start();

if (empty($_SESSION['count'])) {
   $_SESSION['count'] = 1;
} else {
   $_SESSION['count']++;
}
?>

Hello world! <?php echo $_SESSION['count']; ?>Times.


http://php.net/manual/ja/session.idpassing.phpを参考に一部編集

●Excel側session.xls(2003以前の形式xlsで保存)

「ボタン1」をクリックしたときの処理
(「標準モジュール」として作成)

Sub ボタン1_Click()

target_url = "http://localhost/session.php"
sendData = ""

' POSTで飛ばします
Set httpObj = CreateObject("MSXML2.XMLHTTP")
httpObj.Open "POST", target_url, False
Call httpObj.setRequestHeader("Content-Type", "application/x-www-form-urlencoded")
httpObj.send (sendData)

' 結果表示
MsgBox (httpObj.ResponseText)

End Sub



■実験結果
●ボタン1をクリックすると、

Hello world! 1Times.
Hello world! 2Times.
Hello world! 3Times.

と上がっていく。ファイル(session.xls)を閉じても、Excelが開いて
いる場合は、カウントアップしていく

●Excelを閉じて、再度Excelを立ち上げ、開くと、1からカウントアップする
→つまり、Excelを閉じると、そこでセッションも切れる。


●ここで、3Timesになったとき、session.xlsをコピーし、session-コピー.xlsを
作成し、それを立ち上げ


session-コピー.xlsの「ボタン1」をクリックすると

Hello world! 4Times.
となる。つまり、Excelが同じなら、そこで開いているファイル内で
Sessionは共有される(ブラウザのタブと同じ?)


  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

SparkやMLlib等、Javaの機械学習の話を聞いてきた!

2014-12-17 21:00:29 | AI・BigData
12月17日

JJUGナイトセミナー 機械学習・自然言語処理特集!
に行ってきた。その内容をメモメモ

(記事になるらしい)




■Javaでカジュアルに始める機械学習

自己紹介
 SmartNews

機械学習!機械学習!

機械学習を始める前に知っておきたいこと
・機械学習とは何ぞや
  データによって賢くなるアルゴリズム
   →データから知識、ルールを自動獲得
・機械学習で何ができるのか
  分類・識別
  予測・回帰
  パターンマイニング・アソシエーションルール
  クラスタリング

 教師あり学習→データに正解がある
  分類・識別
  予測・回帰

 教師なし学習→正解はない
  パターンマイニング・アソシエーションルール
  クラスタリング

・何を入力データとするのか
  どんな形式のデータでもOKというわkではない
    数値列→非構造データはそのままでは与えられない
    非構造データ→特徴量を抽出→特徴量
  訓練データはラベルなど付与する

・得られた結果は正しいのか
  →教師なしは政界かどうか分からない
 教師あり学習
   k-分割交差検証(k-fold cross validation)
 正しさを量る
   Precision Recall,AUC,F-Mesure
 予測・回帰
   相関係数、決定係数 MAE,RMSE

・線形分離、非線形

・オンライン学習、オフライン学習
  オンライン学習:ストリーム
  オフライン学習:バッチ

最初に之だけは
・車輪の再発明はやめましょう→実装、辛みしかない

Javaによる機械学習向き不向き
1.問題認識
2.データ理解
3.モデル作成
4.モデル評価
5.システム化
 →3~5がJava、ただし、3、4はアドホック:RやPythonのほうが
  5に向いている

・Weka、Sparkインタラクティブ
・Rはシステム化が難しい

Javaから使える機械学習ライブラリ

・libliner-java
 ロジスティック回帰、SVM
 LibSVM;線形に特化
 割とがんばってる

Weka
 実装されている
 少量のデータなら

MLlib(Spark)
・アドホックでも利用できるはず(すからーで)

Mahout
・かなりオワコン感。かれている

SAMOA
・Stormなど

Jubatus(ゆばたす)
・リアルタイムな機械学習

h2o
・Deep learning これいったく

はじめてみよう機械学習
・データセット
  UCI マシーン ラーニング リポジトリ
  CSVで
 覚えておきたいデータセット
  とにかくiris:機械学習界隈のハローワールド

Wekaで分類 http://bit.ly/jjug-ml
・Wekaの入力形式 ARFFファイル
・CSVを変換するのはめんどうなので、
  CSVLoaderで

利用したクラス
 ・k-分割交差検証
 ・ロジスティック回帰
 ・決定木
 ・線形回帰

デモ

まとめ
・機械学習のお話
・ライブラリ
・Weka




■Spark/MLlib

・自己紹介
  hadoop,Spark

・お話しすること
  Spark+MLlibが解決したこと

大量データの扱いに関する課題
・大量データを使いたいとき
   精度を上げたい
   爆発的に増え続けるデータ
 →機械学習時間、データをどこに
・昔のライブラリは、単一マシン上に→コスパよくない
 →リーズナブルなスケールアウト

Hadoop
・オープンソースの大規模分散処理基盤

・HDFSとHadoop MapReduce
  HDFS:大きいファイルシステムに見せる
  MapReduce:Map処理→シャッフル→リリース
 →連携して動く。大きいファイルのバッチ処理
 →スループットに重きを置いている

Mahoutの登場
・苦手な処理

デモ
・k-Meansでグループ認識させる
・結果見る→精度良くない
・反復10回
 反復処理を重ねると、レイテンシが遅くなる
 →起動のオーバーヘッドがかかるから

Apqche Spark
・スループットとレイテンシの両立
・スカラーで開発
・1.2.0 数日中にリリース?

Hadoop2→YARN

MapReduce
 複数段のMapReduce
Spark
 RDDの変換チェイン、キャッシュする仕組み
Sparkのエコシステム
  SparkSQL
  SparkStreaming
  MLlib
  GraphX

MLlib
・すから、ぱいそん、Javaサポート
・オンラインk-mean
・SparkMLが後継

デモ

K-means
・何度も読み込み→キャッシュ(フレームワークが面倒見る)
・一連の反復全体を1つのジョブに

機械学習の仕組みを加速する仕組み
・試行錯誤できる
・分散フレームワーク間で連携が可能
  →成形されてない生データをHadoopで

まとめ
・Hadoopが切り開いた道
・機械学習
・Spark+MLlibが解決した問題
・加速する仕組み




■Luceneと日本語の検索

自己紹介

Lucene(るしーん)とは
・だぐかってぃんが生みの親
・高速検索
・Apache
・4.10.2最新もうすぐ3
・JDK7だたし、u25から55のものをつかうと、index壊れる

主な機能
・転置インデックス
・検索結果のスコアリング
・豊富なクエリ(近傍、フレーズ、範囲など)
・フィールド指定

転置インデックス
・用語
  インデックス
  ドキュメント(1レコードに相当)
  フィールド:メタ情報
  クエリ
  ターム、トークン:インデックスのキーになることば

・かつおはさざえの弟

 単語に分ける
   かつお は サザエ の 弟

 単語をベースにIDが引ける→転置インデックス

サンプルコード
 後日、GitHubに上げる

単語の抽出
  単語の区切り方:英語は簡単(スペース)
  日本語の場合・・・
オーソドックスなやり方
 N-GRAMと形態素解析
  形態素解析:意味がある単語の区切り→未知語では?
  N-GRAM:インデックス肥大化、品詞

Analyzerの概要
  tokenizer:英語系→日本語用もある
  stopward
  語尾の変化baseform

日本語
・kuromji
 Lucenには行っている
・lucene-gosen
 せん→ごせん→るしんごせん

そのほかのluceneの機能
・GEO
・ハイライト
・ファセット
・グルーピング

バージョン
モジュール

Elastic Searchのデモ

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

人工知能のWatson Analyticsがベータ版の提供を開始したらしい

2014-12-17 13:07:42 | Weblog
12月16日に来た
IBM【BD&A Today-3】
に、こんなことが書かれていました。

◆ Watson Analytics ベータ版の提供を開始

ビッグデータを分析してビジネスに生かすにはそれ相応のインフラと分析スキ
ルが必要です。ただし、全ての分析業務が最高度のものを必要としているわけ
ではありません。もっと、誰でも手軽に日々の業務でデータを素早く分析して
ビジネスの改善に生かすことができたら、驚くべき前進がなされることでしょ
う。クラウドにデータをロードするだけで自動で集計や統計分析が実行され、
かつ、ダッシュボードによりビジュアル化される。また、自然言語で質問をし
その答えを元に更に質問を繰り返すことで、欲しかった洞察に辿り着く。
そんな、夢のような話が、今、ここにあります。
Watson Analyticsが実現します。クラウド経由ですぐに始められます。

ご紹介ビデオ (YouTube 英語)
https://ibm.biz/WA_Info
こちらから、無料ですぐに開始できます。
http://www.ibm.com/analytics/watson-analytics/



おおおお、これは見なくては!

ちなみに、その下も

◆ 『IBM Big Data University』新コンテンツ掲載

Big Dataについて学べるサイト『Big Data University』に新規コンテンツが
アップロードされました。
・モバイル / IoTのデータベースソリューション:IBM Cloudant
・信頼できるビッグデータ活用を実現する方法とは?
・ビッグデータ・セキュリティーの最新動向と事例
・ビッグデータ・インテグレーションの最新動向と事例
・ビッグデータ時代に対応する最新データベース・テクノロジーとは?
IBMの専門家がビッグデータの最新テクノロジーについて、わかりやすく解説
します。いつでも、どこからでも気軽に学習可能なコンテンツを各種ご案内。
技術者の皆様の日々の業務に役立つ情報がきっと見つかります。
ぜひ、ご活用ください。
http://ibm.biz/BigDataUniv

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

ビッグデータによる要求開発を聞いてきた

2014-12-17 08:21:42 | AI・BigData
12月16日

要求開発アライアンス 2014年12月 定例会
ビッグデータによる要求開発
(ハッシュタグ#redajp)
に行って来た!その内容をメモメモ




はじめに
・IT戦略支援部
 ・ビッグデータ推進G
 ・公共PMO支援G
・九州先端科学技術研究所

・ビッグデータビジネスのドライバー
  予知、予見だけでない
  高度ICT利活用
    予見-販促、デリバリー、故障箇所:キャリブレーションから(先のこと)
    監視-カードの不正利用、IoT、異常行動者の発見(現在)
    診断-病名診断、販売不振原因(過去)
 3つのわけかた-重要
   解決方法
   分析手法
 ※ワインの数式モデル:使いきり、バッチで十分→Hadoop:バッチのJCL
  異常発見者:バッチじゃ困る、CEP
  診断:バッチ、リアルタイム両方あり得る

・HPC&CEP
  背景は情報爆発 info-plodion(和製英語)
  2006年まで 16エクサバイト
  2006~2008年 そのくらいに
 ものすごくニーズがあるのは:役に立つデータ

・データを捨てる技術
  例:Amazon Kinesis
   1年でペタいく場合→データセンター作る話
   オンメモリー アベイラビリティーゾーンで処理
    →機械学習:HPC

  クラウドに来る前にどうするか?

・SDN(このあとに48はつきません)
  PFC(ぷろぐらまぶるふろーこんとろーらー)

・監視はニーズある
  実際は、入口から問題ある



自部署が必要なデータは社外にある
  オープンデータ 政府が公開するデータ
  RDF
  SPARQLのエンドポイント
  総務省の事業で開発
  →コンテスト、グランプリ50万、副賞20万
    bodic.org
  G空間:長野県と国土交通省
    登山する人にiBeacon
    準天頂衛星
    Webで場所が分かる。危険の予知

ビッグデータによる要求開発
1.スタッフが少ない力不足
2.データの分析活用方法が分からない
3.大量データの処理システム基盤がない
4.分散しているデータの統合が困難
5.データ収集・分析コストの増

データの分析活用方法が分からない→どちらともいえない

業務システムの要求開発
・何をどうして自動化するのか
ビッグデータの要求開発
・何をどのような情報で決めるのか(意思決定)

因果関係≠相関関係
 因果関係=かならずそうなる
 相関関係=9割あたればいい。

因果木の限界:経済的効果のあるアクションは因果律に縛られる必要がない
 特性要因図-理屈が正しいか(特にビジネス活動)

業務の自動化+意思決定のできる限りの自動化
 Industry4.0 ドイツ→すばらしいショーケースになっている
   →アカデミズムが先行?
 何を、どのような情報で決めれば良いのか
因果木からはじめない
 BSC戦略マップは、本当に戦略性があるのか
   戦略空軍、
 亀岡太郎:戦略とは、差別化である
 ビジネスモデルキャンバス→戦略キャンバス
現場が作るBSC戦略マップには限界がある
 →概念になってしまう
  事実から始まる
まずは、ゴール記述書
  課題:ゴールを達成する障害は何か
お金をもらうのに、かっこいい言葉は要らない
 データで証明できればいい
→10年分の仕訳解析がいっぺんにできる

PoCというアプローチ
→ぷるーふおぶこんせぷと
 コンセプトの確認だけはできる
BODIC.org,wCloud
 リポジトリ、データマーケット
 エンジンAWS

e-ラーニングも仮想プロジェクトルームで行う
人材育成
「ビックデータ事始」無料で見れます。
一通りやると、理解できる。マーケティング寄り
絵は自動的に作ってくれる
 反転学習
 インタラクティブマーケティング


22日開発者サイトオープン
福岡 BODIK コンテスト
で検索してね!アプリコンテストの案内出るから


事業を興すとき
・売る人と売るもののどちらが先
売る人
 マーケットがなけりゃ、物は売れない
・マーケットを知る

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

12月16日(火)のつぶやき

2014-12-17 05:41:01 | ネットワーク

「銀行とかで使ってる(メインフレームの)Z-Linuxは、SUSEが多いという話を聞いてきた」 blog.goo.ne.jp/xmldtp/e/70905…

1 件 リツイートされました


  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

銀行とかで使ってる(メインフレームの)Z-Linuxは、SUSEが多いという話を聞いてきた

2014-12-16 17:40:03 | Linux
12月16日

SUSE OPEN Forum 2014
https://www.suse.com/ja-jp/events/suse-open-forum/2014/

に行ってきた。その内容をメモメモ




■ごあいさつ ノベル
・まさにクラウドのなか
・SUSEの違い→ダウンタイム0ミッションクリティカル
・お知らせ:ディープに詳しく 1月に別途セミナー:cephベースのもそこで
・お願い:ブログやSNSでの発信(ギーコ、帽子、リュックくれる!)





■SUSEの歌のビデオ
・ぺんぎんが、踊ったり、ギターひいたり
 Everything is Open





■ダウンタイム・ゼロへの挑戦
・今日のテーマ ALWAYS OPEN
・OPEN エンタープライズ
・なぜオープンソースなのか
  イノベーション
  コラボレーション
  セキュリティ
・20年以上実績があるオープンソース
  世界中のお客様
  43カ国の従業員
・はじめての
  :
  メインフレーム Linux
・継続的なイノベーション
  Live Kernel Patching
  OpenStackの高かようせい

・継続的な新機能
  ミッションクリティカルなワークロードの強化と最適化
  広範、強固なパートナーシップ

・オープンビジネス
  受注増加 27%増加
  売り上げ 16%増加
  新規受注 47%増加
  新規ビジネス65%

・ダウンタイム・ゼロへの挑戦
  ライブカーネルパッチ
  インスタントシステムロールバック
  システム自動化

・サービスの可用性を最大化

・ハードウェア向けに最適化
  ミッションクリティカル

・SUSEのビジネス文化
  傾聴し、理解し、考慮する
  お客様の言葉
   技術
   質
   予測性
   信頼性
   安全性
   セキュリティ

ユーザー事例
・Swiss Re
  再保険会社
・香港ジョッキークラブ
  合法ギャンブル
・大手通信会社
  プライベートクラウド
・ボンバルディア
  航空機、列車→ヘテロな環境を標準化:コントロールを取り戻す

オープンなビジョン
・成功要因
  基盤
  リーダーシップ
  推進力

エンタープライズ向けLinux

クラウドとクラウドインフラ

統合されたシステム(OEM、OSのカスタム化)

ALWAYS OPEN




■SUSEのOpenStackへの取り組みとパートナーシップ
・クラウド
・ビッグデータ・ストレージ
・アライアンス

ALWAYS OPEN
・クラウドコンピューティングにおけるSUSEの戦略
  パブリッククラウド
  プライベートクラウド OpenStack
  ハイブリッドクラウド

・幅広いパブリッククラウドの用途

・パブリッククラウドのサポート
  実験:テストしやすい→AWSテストドライブ
  SLE12

・SUSE Cloud4
  プライベートクラウドのインフラ
  OpenStack あいすはうすベース
 →20分いないでできる
 →高可用性

お客様の声
・ADP  OpenStackで
 FIS-ASP
 ストレージベンダーの1社
 James Staten
・SUSE+OpenStack
  設立&プラチナメンバー
  Alan Clark
  OpenStack貢献
・SUSE Cloud コンポーネント
 cephの技術が入っている

低コストのビッグデータストレージ
→すべてではない

ビッグデータのABC
A:アナリティクス:専門性
B:バンド(帯域)
C:キャパシティ(コンテンツ)
  マーケット準備できている、革命の土台Ceph

エンタープライズストレージの需要
  格納データの増大
  格納データの巨大化
  格納でーたの長期化
→コンプライアンス
 アナリティクス

Suse Storage
・来年はじめ

クラウド管理
・クラウドワークフロー
  パッケージ
  導入
  保守&測定
  処分

SUSE Studio
・イメージ再利用
・クラウドへ直接導入

・SUSE Managerによる保守
 エンタープライズ:セグメント化
 SUSE Studioと統合可能

・包括的なツールキット

・アプローチ
 ・コミュニティへのとりくみ
 ・コードやファンデーションへの貢献
 ・質の高いサポート
 ・強固なパートナーシップ

アライアンス
・グローバルパートナーエコシステム
  SAP:シームレス
  すーぱーくらすたー
  テラデータ!→ebay

・お客様が求める最高の成果

まとめ
・SUSEのビジョン
・OpenStack
・分散ストレージ
・パートナーシップ




■SUSE Linux 12
・最新バージョン
  オリジナル ドイツ

 ALWAYS Open

・SUSE LINUX Enterprise 12
 成功に向けた高度な基盤
  ・アップタイムの工場
  ・運用効率の改善
  ・イノベーションの加速

Linuxカーネル 3.12
→3.Xのカーネルはもう何年も前から・・・

64Bitホストのみ
→32bitの実行環境は整っていて、バーチャルマシンもサポート
64TBのメモリ、八千百いくつかのCPUを1つに

3.12
・ライブカーネルパッチング
  →中断なし
 けいぐらふ

・システム全体のスナップショットとロールバック
   シームレスに
   システム全体をもとの状態に復元

・Btrfs:コピーオンライト
  →もともとのはそのまま
  →あたらしいのは追記

・Btrfs:サブボリューム
  論理的に細分化

・スナップショット管理
 やすと:すなっぷしょっともじゅーるを含んでいる
 変更比較できる

・相互運用性 Samba4
 サーバーサイドコピー
 btrfsだと・・・ファイルのポインタを変えるだけ
  物理的にコピーしなくていい

・推奨ファイルシステム
  新規ファイルシステム
    何のため
      OS  btrfs
      OSでないデータ、スナップショット btrfs
              スナップショットいらん xfs
  新規でない
     いま xfs そのまま
     らいざーfs btrfs
     etx3,4   btrfs(たくさんあるならそのままも)

・柔軟な構築および導入
  KIWI SUSE Studioの中心
  Dockerもサポートしてる

・クラウド対応
  パーフェクトなゲスト:VMWareとMicrosoftどちらからも
  ハイパーバイザー、KVM,Xen
 →選択しある
  SUSE Openstack Cloud

・仮想化対応
  Xen,KVM+Linuxコンテナ
  Docker
  zVM+LPAR、日立なども・・・
 16TB RAM,4096CPU

・合理化されたインストール
 11:いくつかのステップ
 12:始め登録、再起動はやい
   Grub2
   Systemd
   wicked:ネットワーク(合理化)

・Workstation Extension

・モジュール
 オンラインでのデリバリー
 モジュール詳細
  puppetサポート
・ライブカーネルパッチ
  バージョンがあってる必要性

・高度システム管理
  →こうごきたい
 
他には
・サポート
  ライフサイクル:13年サポート
  10の人は、新しく
  11の人は、長期サポート
  12は2027年

高可用性
 入っている
 Geoクラスタリング
    東京、大阪、第3
 航空管制でつかってる

Solid Driver
 API,ドライバ開発

まとめ
・12 最新版、3.12カーネル
・スケーラビリティ
・アップタイム最大限
・業務効率
・テンプレートから

詳細情報
・Webサイト
・ソーシャルでも

おさらいと日本のお客様
・ハイブリッドクラウドあたりまえ
・ダウンタイム0
・様々な投資
→SUSE




■System zとLinuxの融合がもたらすイノベーション
日本IBM
・z・・あとがない?ではなく、究極、ゼロダウン
・SystemZ 50周年 provison:メインフレーム50周年
・メインフレームのLinux z/Linux

Z/Linuxの歴史を振り返る
・投資・・・ノウハウ、アプリ蓄積
  →互換性維持
  EC12,BC12→360のプログラムが動く
・性能MIPSで
  →Linuxでは比較できない
  →最近は、クロックで
  →シングルプロセッサで測ると業界最高速
・仮想化
  もともと、メインフレームの技術
   →タイムシェアリング
   →VMWareがはじめではない
   →1967年から
・メインフレームビジネス:垂直統合
・メインフレームLinux 15年

z/Linuxの現状
・メインフレームビジネス
 ふぉーぶす500社の71%が基幹系
・世界の銀行のトップ100社のうち92%が
  基幹系・勘定系でSystemZ
 →のこり8社の多くは日本。
・公共機関:日本は富士通、NEC,NTTデータ
  世界はIBM System Z
・Linux on SystemZが増えている
  トップ100社の80%はZLinux
  過半数はLinux用
  8割はSUSE Linux(2割がRedHat)
   →SUSEが先に出しているから
    ZLinuxとSUSE Linuxは近くにあるから(ドイツ)

事例:
・三菱東京UFJ
 →センター統合
 →一番多く使っている。SOA化→ESB(エンタープライズサービスバス)
  MQ

・SOA基盤は、Z-Linux
  ・三井住友銀行

・みずほ銀行
  みずほダイレクト=Z-Linux
    Power→Z-Linux Active-Active
    Oracle→DB2へ

・日本精工
  グローバル統合→無停止 COBOLをJava化
  同じ筐体で、仮想化によりZOSとLinux共存

・大手通信事業社
 OracleをZ-Linuxで動かすのが一番大きい
  →ソフトウェア料金の80%削減
 Oracleのソフトでメインフレームが買えちゃう

ZLinuxの今後
・ソーシャル
・モバイル
・ビッグデータ
・クラウド
→1割

9割はいまのところ定型

でも将来5割

そうすると・・・OpenStack
メインフレームは対応

まとめ
ベースはOpenStack




■SAP向けに最適化された「SLES for SAP」は

Why SAP ON Linux
・Linux:SAPのアプリとして一番多い
  Windowsと大して差がないが
 Linux-First,Linuxonly
・主な理由
  コスト削減
    Windowsからの場合も
  標準化
  豊富な選択肢
・SLES for SAP
  SAPとSUSE:同じドイツ
  SAP HANAが動くOS
  強固なパートナーシップ
・SAPアプリケーションに最適化された専用Linux
  ClamSAP
  パッチを当てる
  18ヶ月
・SAPインストールウィザード
・ページキャッシュ制限機能
  アプリケーションのメモリを最優先する
・HAエクステンション
 SAP NegtWeaverシステムのHA
・4つの構成例

・SAP向けに最適化されたOSとは
  SAPの開発プラットフォーム
   →基準となるOS
   →最適設定を自動的にやってくれる

・DEMO

SAP HANA OSとしての優位性
(1)HA
  ホストオートフェールオーバー
  システムレプリケーション
   →システムレプリケーションの自動化
ロードマップ
・スケールアウト
・マルチティア
・シングルティ亜With Dev/TST

SAP HANA OSとしての優位性
(2)セキュリティ
・HANA用セキュリティ
  SAP HANA用OSセキュリティ強化設定
  SAP HANA用SUSE Firewall
・MInumal OS パッケージ

まとめ

さらにSUSEは
 SAP on Linux
  ↓
 SAP on Openstack




■OpenStackでのダウンタイム・ゼロへの挑戦
 OpenStackのHAを再定義する

・オープンソース=オープンマインド

・投資の保護&共同作業

・クラウドコンピューティングのお約束事
・クラウドコンピューティングの種類
・パブリックとプライベートの違い

・違い
  アーキテクチャの違い
  ライフサイクル

・特徴
  スケーラビリティ
・パブリッククラウドへのかかわり、提供
・なぜ、OpenSourceクラウドなのか
  →OpenStack+SUSE

・PrivateCloudのIaaS
・なぜOpenStack
  ・迅速に対応
  ・SUSEのかかわり

・クラウドの典型的ユースケース

SUSE Cloudとは
・OpenStack+Crowbar
・アドオンで機能追加

手動でOpenStack
 1400以上のパラメータ、11コンポーネント、2日間
SuseCloud

Suse Cloud Storage Ceph
Cephって何?
・オープンソースストレージ
・任意にスケールアウト
管理画面(β用)I
IOまでチューニング
・しんだー、ぐらんす→せふで

OpenStackに対するHA
・コントロールノードにHA
・Suse Cloud
コンポーネントフェール評価
HA化されたOpenStack
(ヒートを使うとできるらしい。)

サービス
・HAの方針
・クラウド構成

SUSE Cloud HA再定義
  ・ニュートロンでひとつ
  ・サービスでひとつ
  ・データベースでひとつ
 のサーバー

SUSE Cloudの位置づけ

SUSE Cloudの目指すもの
・HANA
・ミッションクリティカル

ロードマップ
・Suse cloud5
・Docker




■OpenStack Summit2014 Paris報告
 ベアメタルクラウドの現状とNTTドコモさまの検証報告

・自己紹介
・会社紹介
・OpenStackSummit
ポイント3つ

(1)参加者数
 着実に増えている 有料セミナー1000ドル(10万円)に
 4700人
・OpenStackエンジニアの求人engineerjobs.com 1589(3倍)

来年秋:Openstack summitが東京に!

(2)NTTドコモさまの検証報告
  ・100台の物理サーバー
    ラック10G

  ・VXLAN:オフロード処理
    CPU負荷率7割削減

  ・HA環境を構築
→資料公開したらEnterprise.jpでアナウンスする

(3)ベアメタルクラウドの現状
・ベアメタルプロビジョニング
・2つのケース
  ベアメタルプロビジョニングしたい
    IBM softlayerみたいなの
  大量のサーバーを一元管理したい
    自動化したい
・方法
  ベアメタルプロビジョニングしたい
    OpenStack Ironic
  大量のサーバーを一元管理したい
    OOO,クローバー
・Ironicのロードマップ

・今後のIronic
 仮想ネットワーク
 ベアメタルマシンのライフサイクル管理
・NFVでのOpenStackの適用検討
 キャリアグレードのOpenStack活用

■ごあいさつ

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする