ウィリアムのいたずらの、まちあるき、たべあるき

ウィリアムのいたずらが、街歩き、食べ物、音楽等の個人的見解を主に書くブログです(たま~にコンピューター関係も)

SPSSのModelerがオープンソースになった感じのRapidMinerなんかを説明してもらった!

2016-02-29 19:45:07 | Weblog
オープンソースカンファレンス 2016 Tokyo/Springの展示ブースで見てきたときの話

ファーエンドテクノロジーで「Redmine」のお話
開発のプロジェクト管理にも使える?例えば営業とか(SFAのつもりで聞いた)
にたいして、「開発案件以外にも使われている。営業とかにも使えると思う。
実際、いま会社では、RedMineから指示がでてくる」という話をしていた。

入門RedMineを1000円で売っていたので買った


KSK Analyticsのお話
RapidMinerというオープンソースを紹介してもらいました。
分析がGUIで設定できる、つまりですね、SPSSのモデラーが、オープンソースになったかんじ。コマンドラインからはnysolというのがあるらしい。
あとグラフ化するのにBIツールのpentahoをつかうが、このETLツールを使えば、データ加工できる

(と、説明を受けたが、素直にETLは、オープンソースのtalendを使い、データをCSVにしたところで、
 RapidMinerで分析すればいいんじゃないだろうか?と思う)

Analytics Newsでいろいろ紹介している

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

コンテナ、DockerとLXD,LXCの違いなどを聞いてきた!

2016-02-29 15:26:21 | Weblog
コンテナ型ハイパーバイザー「LXD」入門

2月27日のオープンソースカンファレンス 2016 Tokyo/Springに行ってきた!つづき

コンテナ型ハイパーバイザー「LXD」入門

をメモメモ




【ツール】
LXD(れっくすでぃー)について
・Go言語製のコンテナが他ハイパーバイザー
 LXCを使って複数のホスト上の複数のコンテナを管理する仕組み
 クライアントサーバーモデル
 設定管理システム追加
 イメージ管理システム
 (クライアント)マルチプラットフォーム対応
 OpenStack Nova向けプラグイン

LXC:Linuxのコンテナ機能を使うためのインターフェース
・Docker,systemdでも使われているカーネルのnamespaceやcgroupsなどを使用
・コンテナと呼ばれる軽量な仮想環境を構築
・CPUの仮想化支援機能が不要
・KVMに比べると、軌道が高速でイメージサイズが小さい
・各種言語向けのバインディングが存在
・Linuxでしか動作しない
→詳しいことはLXCで学ぶコンテナ入門ー軽量仮想化環境を実現する技術

Docker
・主にアプリケーションコンテナを作る
・1コンテナ1プロセス
・一度作ったら中身を変えない

LXC
・主にシステムコンテナを作る
1コンテナにinit以下のフルシステムが動く
・コンテナ内部にログインして作業を行う

上記はあるまで一般論で異なる使い方も可能

LXCの不満点
・何をするにしても管理者権限が必要
・同一ホストのコンテナしか操作できない
・コンテナの施ty亭を変更する方法が分かりにくい
・複数のホスト間でコンテナインスタンスを共有しづらい

LXCの昨日よりはユーザー向けのインターフェースに問題がある
→LXCのハイパー倍剤を作るLXD

改めてLXDについて
・LXCを使って複数のホスト上の複数のコンテナを管理する仕組み
・クライアントサーバーモデル
 サーバー、コンテナを管理するlxd
  lxdコマンドは管理権限が必要
  lxcグループに入っていればいい
  サブコマンド方式で統一性
 ネットワーク透過性
 REST APIの提供
 設定管理システム
  コンテナの設定をsqlightに
 イメージ管理システム
  非特権システムコンテナを簡単に構築
  マイグレーション
  他ホスト上にも
 マルチプラットフォーム対応
   Windows/Macからubuntu上のコマンドを操作できる
 OpenStack Nove向けプラグイン
  KVMより一杯のもの立ち上げられる

非特権システムコンテナ
 rootがUID=0ではないコンテナ
 特権コンテナではホストとUIDを共有する
 非特権コンテナは、user namespaceを使ってマッピングしている
コンテナの中にコンテナ作る場合は、親コンテナは特権コンテナ

LXD,LXCに向いている仕事
・KVMやVMWあれ、Xenが行っていたシステムの仮想化
・リソースが少ない環境での仮想化
・組み込みでも使える(ubuntu Phone)

むいていない仕事
・ホスト、ゲストで異なるカーネル
・すでにDocker資産がある

LXD入門
・ubuntuで動かす
・2種類0.x系と2.0系がある
・0,x系はこれまでのリリース版
・2.0系は次期正式リリースとして開発中
・unbuntu 16.04 LTSでは2.0が入る
・今から評価するなら2.0を使ったほうがいい

必要なもの
・ホストマシン ubuntu14.04以上(ZFS使うなら16.04以上)
 クライアント ubuntu14.04以上
・デモサービスある

インストール
・ppa追加
・update
・フルアップグレード
・apt install
・newgrp lxd

ZFSについて

最初の一歩
sudo lxd init

イメージの取り込み
 lxd-images import ubuntu --alias ubuntu
 lxc image list

イメージの起動
 lxc launch ubuntu first

ホストとゲストのプロセスの状態
 lxc exec first -- ps axjf
  --のあとに実行したいプロセス

リソースの制限
 lxc config set first 制限したい項目

スナップショット
lxc snapshot first clean
lxc restore first clean

インスタンスをイメージに
 lxc image list
 lxc stop first
 lxc publish first --alias first-base

イメージリストを他に

ライブマイグレーション

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

オープンソースで始めるIoTデータ活用(PentahoでBI,RapidMinerで解析)

2016-02-29 12:12:15 | AI・BigData
2月27日のオープンソースカンファレンス 2016 Tokyo/Springに行ってきた!つづき

オープンソースで始めるIoTデータ活用~異常検知・故障予測、始めてみませんか?~

をメモメモ(途中から)




【ツール】
分析ソフト
・一長一短

Open Anaritics
・BIツールと データマイニングツールでカバー
 Pentahoなど、 今日紹介するRapidMiner

RapidMiner
 だれでも使える
 Rapid Miner Studio
  249種類の分析など
   クラスタリング
   クラス分類
   次元圧縮
   回帰分析
 ほかのものと連携
  Rと連携できる
  エクステンションはレコメンデーション、テキストマイニング(英語)、時系列分析も
 可視化
  でーたの見せ方→はこひげず

予防保全と異常検知のデモ
・RapidMinerで分析プロセスを作る
   ドラッグ&ドロップで
   結果画面で結果をみる
 →テンプレートが入っている

セミナー
 IoTデータ分析ハンズオンセミナー
 テキスト分析ハンズオンセミナー(日本語)みその
 Pentaho無料体験ハンズオンセミナー


【アジャイル分析】分析ノウハウがない
・分析あるある
 たまっているデータを使って何かできるだろう
・日本の現状
 データ活用不足
 データ活用できる人は減っていっている→人材不足
  データ分析できる人材を育てたい
  分析ノウハウの提供・教育も兼ねる
  ぶんせきほうほうをきめる:最後に仮説発見&検証を持ってくるとだめ

分析ツールパートナーから分析ビジネスパートナーへ
  くりすぷDM
 モデリング:何のアルゴリズム→そこから入るのではなく、ビジネスの理解から

分析事例
・IoT:故障予測
・離反分析
・レコメンデーション→パターン発見
・テキストマイニング:クレーム分析
・SFAデータ活用:最適な営業活動、新入社員教育、GISも
  →Analytics News
 →セミナー講演資料でダウンロードできる(来週の速いうちに)

世界の知恵が結集した「オープンソース」
反復型で効果を高める「アジャイル分析」

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

「Hadoopエコシステムの最新技術動向」を聞いてきた!

2016-02-29 09:46:43 | Weblog
2月27日のオープンソースカンファレンス 2016 Tokyo/Springに行ってきた!つづき

Hadoopエコシステムの最新技術動向とNTTデータの取り組み

をメモメモ



Hadoopエコシステムの最新技術動向とNTTデータの取り組み

・自己紹介
・Hadoopの概要
  HDFS
  MapReduce
  YARN
 エコシステムの最新動向
 データの取り組み

【Hadoopとは】
・オープンソースの大規模分散処理フレームワーク
・Doug Cutting(だぐかってぃんぐ)氏がJavaで開発
 扱うデータがビッグであるために従来のIT-キテクチャでは難しかった
  →2005年から開発開始
 名前:ぬいぐるみから

Hadoopの構成
・集中管理がらの分散システム
 Hadoopマスタサーバー
 Hadoopスレーブサーバー
 Hadoopクライアント

Hadoopを構成するコンポーネント
 分散ファイルシステム:HDFS
 分散リソース管理機構:YARN
→HDFSとYARNの2つのコンポーネントにより

HDFSとは
 分散ファイルシステム
 複数のサーバー 1つのファイルシステム
 →外から見ると1つの巨大なファイルシステム

HDFSの舞台裏
・分散ファイルシステムの舞台裏では
 各ブロックは複製され、スレーブサーバーに格納される
 ブロック→こわれたとき、スループット向上などのため
 レプリカは異なる3サーバーに配置される

MapReduceとは
 MapReduceアルゴリズム
  大量の件数のデータがあった時に複数ワーカーで並列に処理できるしくみ
 例として:選挙の開票作業

  第一段階
   1)用紙を適当に3つ分ける
   2)3人で並行して候補所ごとに仕分け
  第二段階                   MAP処理
   3)候補者ごとに用紙を集める
  第三段階                   Reduce処理
   4)3人で候補者ごとに枚数を数える

Map処理              Mapタスク
 M人でやればM倍のスピード
 (相互に影響を受けずに作業できる)          MapReduceジョブ
Reduce処理           Reduceタスク
 N人でやれば、約N倍のスピード
 (相互に影響を受けずに作業できる)

MapReduce:YARN上で動作
 MapReduce=YARN上のアプリケーションの1つ

YARNとは
 Yet Another Resource Negotiator
 分散処理のリソースを制御する仕組み
  Hadoopのスケーラビリティをさらに向上させる
  柔軟なリソース制御によるスループット向上
  MapReduce以外の分散処理を実行できる

ますたーサーバーの負荷軽減
 ジョブ・アプリケーション管理のイメージ
  Resource Manager
 YARNでは
  ジョブX→アプリケーション○
  仕事(アプリケーション)の管理はメンバに依頼、とりまとめ役になる
  任命されたApplication MasterはResourceManagerに進捗状況
  タスクごとの進捗状況はApplication Masterがかんり、
  ますたーサーバーの管理コストが減り、多数のメンバーを管理できる
   →スケーラビリティ向上 10000ノード程度のクラスタも構成可能に

HDFS
 大量データをこうスループットに読み込める
 サーバーが故障してもデータの安全性担保
 サーバー数を増やせば格納できるデータ数はスケール
YARN
 リソースベースで処理を割り当て、こうスループット
 サーバーが故障してもタスクが再実行されジョブは成功
 サーバー数を増やせば、処理性能は基本スケールする
MapReduce
 MapタスクRduceタスクのみを指定すればあとはYARNで

【Hadoopエコシステム】
 2011後半からYARN→YARNあたりまえ
 今、2.6.4と2.7.2

11年目Hadoop
・大容量、多件数データのバッチ処理基盤→仕組み・手法ともに成熟
  クラウド
・MapReduceにこだわらない処理→ベースは感性、成長著しい
・新たなステージ→群雄割拠
 SQL on Hadoop
 Hadoopエコシステムの拡大
 Apache Spark

・代表的なHadoopエコシステム
 Apache TEZ→Pigとじゃもうごく
 Apache Spark
 HBASE
 Apache Impale分散クエリ
 Apache Ambari
 Hue
 Kafka(メッセージングシステム)

特に
・MapReduceによらないあらたな分散処理

ApacheSpark:コアを中心に成り立つライブラリ
 大規模データの分散処理をオンメモリで実現
  繰り返し処理に柔軟に対応→機械学習のクラスタリング
   SPARK SQL
   SPARK Streaming
   MLIB
   GraphX

Spark最新動向
・フロントエンドとバックエンドの進化
 フロントエンド:DataFrame API→処理高速化
 バックエンド :Project Tungsten→CPUの利用効率高める

Hive2.0 新たな時代のHive
・Apache Hive2.0 :2016年2月リリース
 機能・運用面・性能面の強化
 CLIとしてBeeLineが標準に
 SQL Standard Authorization
 Hive Server2機能強化
 LLAP
 実行エンジンとしてMapReduceは非推奨に

HiveServer2
 Web画面:実行されたクエリの情報・実行計画
  →メトリクスも
LLAP
 秒未満のクエリ実行時間を実現するための仕組み
  コンテナ立ち上げに時間がかかった
  →YARNのリソース管理 YARN上にデーモン
   コンテナ:TEZ
 ベータ版

【NTTデータの取り組み】
・Apache Hadoop PMC就任
・その他公開資料
  http://www.slideshare.net/hadoopxnttdata

まとめ
・Hadoopは1台のマシンで扱えない規模の大量データを高速に処理するためのフレームワーク
・Hadoopエコシステムの開発の勢いは今も活発
・NTTデータもHadoopの開発に参画しています
  Hadoopだけでなく、エコシステム全般

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

RedMineの運用事例(アジャイル開発の場合、ウォーターフォールの場合等)をメモメモ

2016-02-28 21:09:23 | Weblog
きのう(2月27日)のオープンソースカンファレンス 2016 Tokyo/Springに行ってきた!つづき

業種別、開発プロセス別のRedmine運用事例紹介

をメモメモ



Redmine運用事例

・会社紹介
 Rails開発事例
 今年@ITでRedmine連載記事を予定
 昨年Redmine実践ガイドを出版
 Redmine入門書 入門Redmine

【Redmineの運用事例】
・ウォーターフォール型開発
(1)親子チケットで運用:機能が親・多い
(2)トラッカーで運用:トラッカーで設計、運用などわける・おなじ
(3)バージョンで運用:バージョン作るとロードマップが出てくる・おなじ
→チームの大きさによって変わるのでは?

・アジャイル開発
 DEMO
 チケットを作る
  新しいバージョン:イテレーションごとに
  標準のガントチャートで
 Lychee(らいち)ガントチャート
 LycheeRedMine
 かんばん

・製造業の現場
 工場:パソコンない→グループ、チームでステータス上がる
 クリティカルパス

・ゲーム会社の運用
 ゲームシーンAを作成する:管理チケット
   キャラクターを作成する
     キャラクターのモデルを作成する(作業チケット)
 ゲームシーンBを作成する:管理チケット
→進捗をバージョンで確認する
 チケットをコピーして重複の関連を設定する

【最後に】
・redmine tokyo 次回5月14日 @渋谷
 facebookかtwitter
 関西は頻度が多い

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

「 オープンソースをベースとしたパーソナルIoTの活用方法について」を聞いてきた

2016-02-28 18:08:30 | ネットワーク
きのう(2月27日)のオープンソースカンファレンス 2016 Tokyo/Springに行ってきた!つづき

オープンソースをベースとしたパーソナルIoTの活用方法について

をメモメモ




3つのテーマ
・パーソナルIoTの勘所
・パーソナルIoT2年間うごかした
・APIを使って

1.パーソナルIoTの勘どころ
・モノをインターネットにつなぐ
  サービス化
  モノづくり:3Dプリンタ
  範疇にはいりきれないものを、どう取り入れるか:自動運転、ドロー

・IoTMap
    インダストリー インターネット    パーソナルIoT
 インダストリー4.0

・パーソナルとしてのIoT
 現実的

・パーソナルIoTの勘所
 潜在している情報の顕在化
  習慣の見える化
  計量値、計数値
  さてなにをどのように見える化するか
  取得データの選別

・パーソナルIoTを実現する要素技術
 1)センサー、ハードウェア、3Dプリンタ
 2)シングルボードコンピューター
 3)ネットワーク
 4)OSSの活用(API、クラウド)

・パーソナルIoTの勘所
 取得したデータをどこの何とつなげるか
 どのような価値を生み出すか

・IoTの進展に備えて
 1)オープンな仕組みづくり、標準化
 2)オープンソースの活用

 OSSをいかに活用するか

 センサー→データフォーマット標準→オープンソース→フィードバック

・IoTの勘所まとめ
 全体像をつかむ
 協力体制をいかに組むか
 OSSの活用がカギ

・パーソナルIoTの例 おもしろカウンタ
 身の回りにある回数を数えるIoT
 →改めて 数えることにより見えてくること
  関連情報と比較して見えてくること

・パーソナルIoTの例
 お近づきカウンター
  ドップラーセンサーで通行料をカウント
  時系列での交通量の把握
   zigbeeでセンサーサーバーと通信

・まとめ
  IoTには無線がほしい
  どこのクラウドに転送するか
  データの活用方法を最初から描くこと

2.パーソナルIoTを2年間動かす
 センサーサーバー
・IoTの実証実験
  オープンソースをベースにしたスマートセンサーシステムの紹介
   話せばわかるコンピューターの会
・新築家屋での2年間のIoTの実証実験結果
  1)安定した室内温度、室温の維持
  2)SHS外断熱工法と床暖房の性能が実証された

・問題点1:1年後、湿度センサーからのデータ異常発生
  湿度100%続出→センサーが錆びついている:端子が腐食
    →センサーが環境に耐えられない
  センサー基盤端子とソケット間の腐食
  センサー基盤端子間の腐食
 →交換、百葉箱改善、ケーブル長くしたI2Cケーブル:限界(電圧降下で採れない)
  WiFi,無線で飛ばすのが現実的

・IoTデータのグラフ連携
 fluentdで

・実証実験でわかったこと
 データ分析 アラート 見える化
  データの見える化により分かることは意外と多い
  オープンソースをいかに活用するか

・まとめ
 センサーは故障する
 定期的にセンサーのセンシングをする
 IoTの環境を見てあげる

3.市販IoTのAPIを活用したデータ取得方法
・ウェザーステーションNetatmoからのデータ取得
 Netatmoウェザーステーション:API持っている
  node.js,pythonなどAPI提供
 →気象予想も出している
 リクエストを出して、アンサーをもらう
 手順
  キーの発行
  node.jsインストール
  node.jsモジュールインストール
  提供のAPIを参照
  APIをキー、バリューに変換
  CRONで起動

・IoTのデータ連携にはAPIがカギを握る
 例:CO2が上がると、照明の色が変わる:いかに身近に知らせるか

・Fluentdをミドルウェアとするデータフロー
・データ連携にはAPIがカギを握る
  JSON

・まとめ
 API連携で市販IOTをつなぐ
 API連携にはデータフォーマットは大事
 API連携で相乗効果を狙える


  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

美女と中年男性がITソングを歌って踊る!?「俺とお前とニフティクラウド」

2016-02-28 15:02:54 | ネットワーク
よくわかんないけど(^^;)

美女と中年男性がITソングを歌って踊る!? 突っ込みどころだらけの動画「俺とお前とニフティクラウド」
http://www.itmedia.co.jp/news/articles/1602/25/news005.html


Nifty cloudにVMWareで、なんかいいことあるの?
そこがよくわからない。
・・・って、Nifty CloudのDRサービス with VMWare vCloudの宣伝なのね。
・・・全然気付かなかったです(^^;)

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

IoTによさげなWIFIモジュールESP8266について、聞いてきた!

2016-02-27 20:14:21 | Weblog
きのう(2月26日)のオープンソースカンファレンス 2016 Tokyo/Springに行ってきた!つづき

IoTのセンサーノード側の主役に躍り出たESP8266、その実力と応用事例を徹底解説

をメモメモ(途中から)




今日の話について
・Monoistの連載一位:「基礎からのマイコンモーター制御」 この記事の著者名をクリック
・「話題の技適Wi-Fiモジュール「ESP8266」でIoTを手作りする」というのがでてくる
・その連載について、書けなかったことなど

技適について
・中国で作っているもの:日本の技適に申請していない場合あり(安いどんぐるなど)
  →日本で使っちゃだめ
・ESP8266は技適通っている。安い500円

なぜ、いままでのWifiモジュールは高かったか
  今まで、
  マイコンとつなげる→UART接続
   TCP/IPは
     wifi側で面倒をみる→マイコンより高性能?
  パソコンの場合は
     プロトコルをパソコン側で面倒を見ている
ESP8266は
 32ビットCPUプロトコルスタックが載っている
 チップ 2mm間隔の足→ブレークアウトボードを使う:秋月で売ってる
 USB変換→仮想COMポートとして見える→ATコマンドをたたく
 ボーレート合わせること
 行の最後にCRLF(改行コード設定)
→シリアル経由でしかアクセスできない
 GPIO I2C ADコンバーターもついているけど
  PC-シリアル-ESP8266
 UARTのファームが入っている
→ファームを入れ替えれば、NodeMSU:単独で動くが、入れ替えると技適していないことに

ESP8266情報交換初
ESP8266環境向上委員会

・卓上CNC(フライス)でブレイクアウトボードを作った
・ESP8266をTCPサーバー(telnetサーバー)にする
 ModeMCUだけど、MQTTを使ってBlueMixにつなげた



  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

REDMINEを使ったヘルプデスクシステムを聞いてきた!

2016-02-27 15:39:34 | Weblog
きのう(2月26日)のオープンソースカンファレンス 2016 Tokyo/Springに行ってきた!つづき

REDMINEを使ったヘルプデスクシステムでサポート業務を効率化

をメモメモ(時間がなく、途中までしか聞いていないので、そこでまで)




・自己紹介
・入門Redmine

・Redmine使った人:8割

Redmineとは
・課題管理、情報共有
 2006年から開発
 用と例
  プロジェクトのタスク管理
  バグとかの問題追跡
  顧客サポート
 多数のタスクの管理が得意
  チケットでタスクを管理
 チケット=課題を書いたふせん
・結構使われています
 10点もの書籍

運用中のWebサポート窓口の紹介
・RedmineのSaaS「My Redmine」のサポートが
 顧客が増えるにつれ、しんどくなってきた
 →メールはしんどい
 →ステータスの管理がしにくい
  サブジェクトてきとう
  やり取りの内容をおいかけにくい
・しんどいのをなんとかするために
 Redmineが使えないか
 →お問い合わせの対応とバグ管理は似ている
  RedMineが適用できそう

・Redmineによる顧客サポート開始
 1日20~30件、メーリングリストだと厳しい
 顧客の画面:問い合わせ作成
  項目を減らした画面でメールフォーム感覚で
  トラッカーの設定で、ワークフローでフィールドに対する権限:読み取り専用にする
 自分が作ったチケットしか見えない
  サポート担当者は全部見える
  ロールと権限「作成者が担当者であるチケットのみを表示できるように設定

効果
・対応すべきものが明確
・やりとりを追いかけやすい
 →注記で時系列に表示
・お客様とサポートチームが同じ情報を共有
 過去対応の参照、リンク提示
・担当者間の連絡がスムーズ
・メールの長々しい挨拶が不要

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

「今さら聞けない人のためのDocker超入門」を聞いてきた

2016-02-27 12:37:28 | Weblog
きのう(2月26日)のオープンソースカンファレンス 2016 Tokyo/Springに行ってきた!つづき

今さら聞けない人のためのDocker超入門 CentOS7.1対応版

を聞いてきたのでメモメモ




・自己紹介
・日本仮想化技術株式会社
 EnterpriseCloud.jpにある
 NTT Docomoのサービスインフラ

本日のアジェンダ

書籍
・Dockerエキスパート養成読本:難しい
・Docker教科書(翔泳社)のほうが、すこしやさしいかな

Dockerを動かそう
・Dockerの特徴
 1コンテナ1プロセスで動作する
  システム空間
  unix:すべてをファイル
  →仮想マシンに近い
 各方式の比較
  ベアメタル
  仮想マシン
  コンテナ
   カーネル1つ:ディストリビューションは混在可能
   ABI(バイナリ)の互換
→Docker:自動化の技術

・Dockerをインストールする
 Cent OS 7.1
 yum install docker
 bridge-utilsパッケージいれとく
 Docker用ストレージ領域
  LVM設定 (devsの設定)
  Docker-storage-setup実行
  dockerサービスを起動

・firewalldの止め方

・Dockerイメージをダウンロード

・Dockerコンテナを実行(基本)
  1.CentOSイメージでコンテナを実行

・Dockerコンテナを実行(応用)
 コンテナ名をつける
 シェルからコマンド実行
 Dockerファイル

Dockerのライフサイクル
・イメージとコンテナの遷移
  docker run
  docker commit
・コンテナをイメージ化
  httpdをインストール
  コミットしてイメージ化

Dockerのネットワーク
外部eth0→docker0でIPマスカレーと→dockerのeth0へ

Dockerfileに書ける内容
・複雑なことをやらせるには向いていない
  →chef,あんしぶる使う
 CMD,エントリーポイントでコマンド実行
・docker buildで(dockerファイルを指定しdockerイメージを作る


   
  

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

「ログ収集基盤ソフトウェア Fluentd 超入門」を聞いてきた

2016-02-27 08:35:43 | Weblog
きのう(2月26日)のオープンソースカンファレンス 2016 Tokyo/Springに行ってきた!つづき

ログ収集基盤ソフトウェア Fluentd 超入門

をメモメモ(途中から)




ログを効率よく収集できる
・ログの転送と集約
・ログの加工
・フィルタリング機能
・バッファっリング機能
・他ツールと連携してログの可視化

URL:http://fluentd.org/
開発:
・トレジャーデータ社
・コミュニティベース
・言語;RubyとC
・あぱっちれいせんす

イメージ
 データ入力Input →fluentd フィルタ・バッファ→データ出力

物理厚生い目―市
それぞれにfluentd
データを受け取る(集約)ところにaggregator
データ出力:えらすてぃっくさーちとか
→すべて同じプログラム:設定違うだけ

構成図
・JP1におくっている
・めとりっくすとってる

Fluentdとtd-agentについて
・プログラム:どんどんリリース
・トレジャーデータがパッケージングす他モノがtd-agent
・fluentd0.xx(偶数)がメジャーバージョン
 0.12系:td-agent2→カレントステーブル
 0.10.X:td-agent1→前まで使われていた(新しいのでは使わないほうがいい)
・RHEL,CentOS,
Windows版
・fluentd0.14~
 安定版は未リリース
 0.14.0.pre.1が2015年10月29
 nxlogに転送、nxlogからfluentdへ

fluentdの特徴
・観覧なインストール
・ログの構造化
・豊富な機能(プラグイン機能)

簡単なインストール
・コマンドい発
 curl-l https://とれじゃーでーたさんのところ
 起動・停止

Fluentdの設定とプラグイン
・fluentdの設定=利用したい機能(プラグイン)の設定をする
・4種類のプラグインを駆使してログ収集・加工・蓄積を行う
  Inputプラグイン
  Filterプラグイン
  Outputプラグイン
  バッファプラグイン
   Input → Filter → Output
 他にParserプラグイン、フォーマッタプラグイン(意識しなくて大丈夫)

プラグインの検索
・利用したいプラグイン=機能を検索
  http://www.fluentd.org/plugins
・Web上で検索(日本語で書かれた情報が豊富)
→結構大変

プラグインの追加方法
・ruby gemでインストール
  fluent-gem
・プラグイン数552種類

ルーティングとタグ
・ルーティングとは
 一つのログレコードに対して、どのような処理を行いながら、
 どのように最終目的地に届けられるか
 処理に対して利用するプラグインを定義
・タグとは
 ログレコードの識別し
  ログの種類、ミドルウェア名、ホスト名などで定義
  タグ名でログレコードが利用するプラグイン
   加工・転送・保存処理
  を使い分けてルーティングの制御を行う

ルーティングとタグのイメージ

・httpプラグインtailでログ取得
  タグの設定

  タグaccess.httpd.host名に対して
  filterプラグインgrepでリグ選別

  タグaccess.httpd.host名に対して
  Outputプラグインでログ加工

 タブ名(すべてのログ)に対して
 Outputプラグインforwardでログの転送

・転送先
 Inputプラグインforwardで」ログ取得
 Outputプラグインでログ加工

・Fluentdはタグ名でルーティングの制御をおこなうことができるが
  タグ設計が難しい
  設定ファイルが読みにくい
 ということで、
 fluentdでは、ラベルが使える

・ラベル利用時の注意事項
 すべてのプラグインでラベルが利用できるとは限らない
 Fluentd 0.10(td-agent)の時に開発され、メンテナンスされてないプラグイン
    Engine.emitX router.emit○

ログの構造化
・ログに構造を持たせてあと後検索しやすいように加工
・時刻フォーマットの統一と内容のJSON化
・構造化方法:正規表現で指定
・設定ファイルtd-agentd.confのformatに書く(時間はtime_format)

必ず利用する機能:バッファリング
・バッファプラグイン
 性能と信頼性向上
・バッファリングするOutputプラグインとセット
 チャンクとその個数が設定できる

必ず利用する機能:ログ転送
・forwardプラグインInputとOutput
・冗長化構成も取れる

ログの可視化ツール
・Elasticserchとkibana(きばな)
 えらすてぃっく社 
 商用バンとOSS版
 RESTで操作できる
 View部分がkibana
 データ肥大化
 短期的詳細ログ解析に向いている
GrowthForcast
 httpプロトコルを利用して
 サマリーデータで表示
Zabbix
 めとりっくすをzabbixい送信してグラフ化
 古いデータの可視化もしやすい

事例
・構築事例:金融系
・コンサルティング;携帯アプリのシステム
  グラフをgnuplotを使って
・サポート:機器メーカー→Mongoに格納
・サービスの紹介
 トレジャーさんと協業



  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

「PostgreSQL9.5新機能紹介」を聞いてきた!

2016-02-26 20:25:31 | Weblog
今日(2月26日)オープンソースカンファレンス 2016 Tokyo/Springに行ってきて、

PostgreSQL9.5新機能紹介

を聞いてきた!その内容をメモメモ




■PostgreSQL9.5新機能紹介

 資料:http://goo.gl/GoEBD8

自己紹介
 PostgreSQL虎の巻

アジェンダ
・開発者が加えた新機能のうちのいくつか
  大規模、運用簡単、アプリケーションを容易に、
  注意点
  先のバージョン

1.PostgreSQL概要
 PostgreSQL9.5の歴史
  1974年 Ingresプロジェクト:マイケルストーンブレーカー
  1997 PostgreSQL6.0~:今の先祖、あーきかたまる
  2016年1月 9.5
  2016年2月 9.5。1(セキュリティパッチ)

 今日説明しない
  ユーティリティ
  SQL文の新機能

 パフォーマンスの向上
  いままでは、機能を足していたが、今回は大幅パフォーマンス向上
   ソート処理の高速化
   集計関数の高速化
   トランザクション
   ロック範囲縮小:マルチプロセッサでスループット向上

2.大規模環境
 BRIN(Block Range Index) Index
  B-Treeインデックス:範囲検索、インデックス作成に時間、ストレージ容量
  BRIN:ブロックレンジ:ストレージ要領小、B-treeより速くはないが、フルスキャンより速い
   →最大値、最小値を持っている
  時系列データ

 Create FOREIGN TABLE INHERITS:複数テーブルを1つに見える
  パーティション機能がない:親子関係、制約で振り分けはできる
  MySQLふぇでれーテッド、Oracle:データベースリンク
  →集計処理、Order by→ローカル実行(全データが飛んでくる)

 SELECT TABLESAMPLE 散布リンク検索
  分析用データベース
  サンプリング方法:システム、ベルヌーイ
   システム:ブロック単位、ベルヌーイ:レコード単位
  →標準にそっているIBM DB2

3.運用を簡単に
 pg_rewind
   レプリケーション環境の再同期
    復活した時
      9.4までは、データコピーしてレプリケーション作りなおし
      9.5から差分更新(分岐されたところにRewind)

4.アプリケーション開発を容易にする機能
 SQLの拡張
  INSERT ON CONFLICT DO UPDATE( DO NOTHING )
   マージ、デュプリケートキ―
   →制約違反が起こったら、UPDATEまたはなにもしない
  →トリガー
    マニュアルに書いてないが、中途半端に動く
 Row Level Security:
   タプル単位のアクセス制御
   →GRANT文によるアクセス制御→テーブル、列単位
   バーチャルプライベートDBと同じ
   テーブルに対してローレベルセキュリティすること線がん
   ポリシーの作成

 UPDATE SET
   複数列の同時更新

 SELECT SKIP LOCKED

 GROUPING SETS /CUBE /ROLLUP
  →ないのがMySQLぐらいになった

 JSONとJSONBが利用できる
  →最近はJSONB型に機能拡張

 PL/pgSQLASSERT
  ストアドプロしジャーでアサーション

5.注意点
・ALTER TABLE SET UNLOGGED/LOGGED
 トランザクションログの書き込み→書き込み
 切り替えられる(内部実装今一つ:古いほうを消しているだけ)
・優先順位の変更
 演算子の優先順位変更→SQL標準に準拠するための変更
 →わかるためには、SET operator_recedence_warning = ON
  (デフォルトOFF)
・パラメーター増えてるけど、減ったのもある:checkpoint_segments廃止
・パッケージの変更:Contribからbinへ

6.PostgreSQL10?
・パラレルスキャン、パラレルジョイン

7.まとめ

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

GoogleのヒューマノイドロボAtlasが超進化し実用域に

2016-02-26 12:18:12 | Weblog
ですって。
今時間がないので、URLだけメモメモ
(まだ記事読んでない)

GoogleのヒューマノイドロボAtlasが超進化し実用域に
http://www.itmedia.co.jp/news/articles/1602/24/news075.html



  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

IBMの人工知能Watson、「空気を読む」機能を獲得

2016-02-26 08:34:49 | AI・BigData
自動音声認識とつなげて、
会議室に、置いておくといいかも

IBMの人工知能Watson、「空気を読む」機能を獲得。入力文章から相手の感情を分析
http://www.huffingtonpost.jp/engadget-japan/ibm-watson_b_9303662.html


  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

Wi-Fiの消費電力を1万分の1まで減らす新技術?

2016-02-25 19:01:29 | ネットワーク
元になる信号があって、それを反射することによって通信するみたいです。

Wi-Fiの消費電力を1万分の1まで減らす新技術「Passive Wi-Fi」でバッテリー長持ち・モノのインターネットが近づくかも
http://gigazine.net/news/20160224-passive-wi-fi/

たしかに反射する側は電気使わないけど、
元になる信号(RF側)は電気使うんじゃあ・・・
・・っていうツッコミはさておき、
反射を利用するってのは、光とかでも、いろいろ使えそう・・

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする