ウィリアムのいたずらの、まちあるき、たべあるき

ウィリアムのいたずらが、街歩き、食べ物、音楽等の個人的見解を主に書くブログです(たま~にコンピューター関係も)

メルカリ、現行紙幣の出品を禁止

2017-04-24 22:49:30 | Weblog
理由は、マネーロンダリングにつながる可能性から。
ちなみに、なぜ
1万円札を額面以上の金額で販売する出品
を落札するかについては
https://twitter.com/NAMAZUrx/status/855680168253206528/photo/1
クレジットカードで決済することで、カード枠の現金化

メルカリ、「現金出品」に対策 現行紙幣の出品を禁止
https://headlines.yahoo.co.jp/hl?a=20170424-00000056-zdn_n-sci

(以下太字は上記サイトより引用)

PS.その後
メルカリ、今度は"領収書"が売っていることが判明「天才すぎ」「何か問題なの?」
https://togetter.com/li/1104808

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

IoTによさそうなPLC

2017-04-24 19:32:39 | ネットワーク
PLCって、シーケンサのほうじゃなくって、
コンセントにつないで通信するほう。
電源の線だけでいいとなると、IoTなんかに向いてるかも?

家の電源コンセントに挿すだけで、電気配線で離れた部屋とデータ通信が行えるPLCアダプター、アイ・オーが「PLC-HD240E」発売
http://internet.watch.impress.co.jp/docs/news/1056356.html

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

CNNとRNNとLSTMを図示してみる

2017-04-24 15:25:42 | Weblog
「ディープラーニング」入門6時間集中講義/自然言語処理とニューラルネットワーク
http://lab-kadokawa18.peatix.com/

を聞いてきた!成果として、CNNとRNNとLSTMを図示してみる
・・・が、詳しく知っているだけではないので、
(ロリポおじさん程度の知識)
まちがていたら、ごめん




■CNN

こんなかんじ。

中間層は、
・畳み込み層
・プーリング層
の2つが、何段にも積み重なる感じ。

最終段(出力層のところ)には、全結合層がくる。

なお縦と横というのは、今回の説明用。
CNNの多層化構造を書くとき、実際には、横に書く。




■RNN

こんなかんじらしい。

中間層は、入力層の入力のほかに、となりの中間層からの入力もある。




■LSTM
こんなかんじらしい

RNNの一種ということらしい。

中間層1つ分で見ると、2つのノードがある。

・hのノード:これは出力層にいく。と同時にとなりのhにもいく
  →RNNと同じ

・Cのノード:記憶になる。隣のノードにいくので、記憶が伝播される・・・
 ・・・が、たまにクリアされ、隣のノードの影響が消えるらしい。

Cのノードで記憶を伝播・忘却する点が、純粋な?RNNと違うところ

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

ローソンのLoppyで、マルチペイメントサービスを使う

2017-04-24 13:18:15 | Weblog
昨日本家に書いた

東日本大震災の被災地の子どもたちのコンサート、4月29日に初めての東京公演
https://plaza.rakuten.co.jp/struts/diary/201704230004/


で、クラウドファンディングのお金をはらいにいったときに、
ローソンのLoppyでまよったので、メモメモ(じぶんだけかもしれないけど)

ちなみに、手順として、以下のように書かれている

手順ローソンの「Loppi」を使ってお支払い
1. Loppiのトップ画面右ボタン「各種サービスメニュー」を選択。
2. ¥マークの「各種代金・インターネット受付・~」を選択。
3. 「各種代金お支払い」を選択。
4. 「マルチペイメントサービス」を選択。
5. サービス内容を確認し、よろしければ「○はい」を選択。
6. 「お客様番号」を入力し、次の画面へ進んでください。
7. 「確認番号」を入力し、次の画面へ進んでください。
8. 通信中しておりますので、しばらくお待ちください。
9. 表示される内容を確認して、次の画面へ進んでください。
10. お支払い時の注意事項をご確認後、よろしければ「はい」を選択。
11. 本体から出力される「申込券」を持って、30分以内にレジにて現金をお支払いください。


※注その1 CAMPFIREのLoppiによる支払いは、
     Peatixの支払い方法とちがう。

peatixの場合、2次元バーコードを読み込ませるか
   一番左の「各種番号をお持ちの方」を選ぶ
 →受付番号と、電話番号等の入力が必要

CAMPFIREの場合、一番右の「各種サービスメニュー」
 を選ぶ
 →お客様番号と確認番号が必要

※注その2 各種代金~は似たような項目を2回選ぶ
 各種サービスメニューを選んだ後、
 「各種代金・インターネット受付・~」を選択すると
 右側にウィンドウが出るから、そこから
 「各種代金お支払い」    ★
 をえらび、次の画面で、
 「マルチペイメントサービス」
 をえらぶ。

ここまでの様子は、

https://www.well-net.jp/multi/119.html

で事前学習できる。

★が出るのを知らずに、きのう、ずっと悩んで立ちすくんでしまった
(そうすると=一定時間なにもしないと、はじめの画面に戻る)

ここから先は、画面の説明どおりやればいいので、まよわない
紙が出てきたら、レジに持っていって支払うことは
peadixと同じ。



  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

マルツオンラインが4月24日から28日送料無料の話

2017-04-24 10:18:52 | Weblog
マルツオンラインが4月24日から28日送料無料とか、STのボード無料でもらえるとか
http://blog.goo.ne.jp/xmldtp/e/f9b3cf6211734f99b7fc23a496004df6


で書いた、マルツの送料無料の話

マルツオンライン
https://www.marutsu.co.jp/

に載ってた。



  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

Googleニューラル機械翻訳について聞いてきた

2017-04-24 00:43:04 | Weblog
4月22日
「ディープラーニング」入門6時間集中講義/自然言語処理とニューラルネットワーク
に行ってきた!のつづき。、第三部(これで終わり)をメモメモ




6時間集中講義 自然言語とニューラルネットワーク
第三部 Googleニューラル機械翻訳

PBMT;句を利用
GNMT;Googleニューラル機械翻訳
・日本語はまだ低い。ポルトガル語はつよい
 英語と日本語の違い
  BLUE:統計的→質的には
  日本文法:主語の省略を許す、代名詞を落とす
 Google翻訳はよくやっている→質が違う。下訳として使える

・ニューラル機械翻訳に先行したもの
  ルールベース機械翻訳:機械翻訳の主役だった
   →いまはあまり・・・
  Combinatory
   →ルールベースも進化

 統計的機械翻訳モデル(SMT)
  すべてのソースとターゲットペアに確率を割り付ける
  対比したコーパスの学習→近い文を探す:検索

   P(J|E)     P(E)

     P(J|E)P(E)

 →語順が一致するとは限らない:
  いくつも対応、バータリティ、対応するものがない

・統計的機械翻訳モデルの成功と限界
 Very Very Large Corpora
  とても長いコーパスがいる
 スペル訂正 Power of data
 →Google翻訳は、量による質の改善ではない!
 
・パラレルコーパス
 現在のコーパス:共有されている
  英語フランス語:3600万
  英語ドイツ語:500万
 →Googleの自前のセットは、2~3桁多い。

・Googleの書籍のデジタル化
 ロゼッタストーン:最古のコーパス パラレル データ
  →しゃんぽりおん
 ベフィストン碑文:楔形文字
 ベントリス:エバンスが線文字Bとしたのを解読した

・ニューラル確率言語モデル Bengioの「次元の呪い」
 アルファベット:ワード 単語の数は追いかけられる
 文の複雑さ:限りない。量的な飛躍
   さらに
 見たことのない文

 →意味が違いものを捕らえるアプローチ
  特徴ベクトルを対応付ける
 →意味をフィーチャー

・語と文の複雑さの違いについて
 単語は有限個
 文は無限→用例集は存在し得ない

・Word2Vec語の「意味ベクトル」
 語と語の間に距離
 似た意味を持つ言葉は似たベクトルを持つ
 意味を変換するベクトルは共通?

・RNNの文法認識能力

・文法の階層性
 チョムスキーの階層
  Type-0,1,2,3

・DeepLearningの理解
  正規文法;1997
  文脈自由:
  自然言語:Google翻訳
 実はチョムスキーはリカーシブルな世界に関心?

・方法論上の問題
 機械の能力の階層性
  ディープラーニングの質的な違い:わかっていない
  機械にできるかできないかは、ある程度学習させると
   できる・できないの判断がむずかしい
  問題は、機械やデータではない
  機械学習:作ってみたら、できました!
 チョムスキーは形式的に証明できる
 機械学習は・・・

・Google翻訳は、意味を理解しているか?
 そうじゃない?→記号の変換の可能性もある

・人間と機械翻訳のギャップにはしをかける
 LSTM8段
  エンコーダーとデコーダーをアテンションでつなく
  いろんないいとこどり
  8ビット処理:TPU(8ビットのテンソル用ハード)も

・Encoder/decoder Hintonのオートエンコーダー
 圧縮して拡大する
 書類の分類にもつかってみる;図書のエンコーダー
 セマンティックハッシング

 AutoEncoder:うまくいく

・AttentionMachine
 固定長ベクトル:長い文でも短い文でも?

・GNMTはそういうのをみんな入れている

・WordPiece
 キャラクターをいれてキャラクターを出す
 →ワードを入れてワードを出す:精度はわるくない(効率は悪い)
 →人間の言葉は音、キャラクターモードに近い

・Wordへの分割の問題
 音のつながり:区切りの意味持たない
 日本語:構文解析が必要

 基本的な単語
 訓練用データセット:語の区切り方をサンプルで学習
 つながり情報があれば
 追加していく:バランス言い切り方を機械が決める

・意味:語に意味があるわけではない→つながりさえ維持できていれば・・・

・ワードピース32Kに抑える 2バイトでいける
 日本発の技術

・多言語ニューラル機械翻訳
 ひとつのシステムでマルチ機械翻訳
 特徴
  1:シンプルさ
  2:リソースの少ない
  3;ゼロショット翻訳:教えていない言語を生成

 実験;多対多
  性能は落ちるが、ペイする

・ゼロショット翻訳
 インターリンガ:内部で同じ言葉があるんじゃないか?
 ちょっとデータを追加すると成績が伸びる

・ビジュアルな分析:インターリンガの存在
 内部で意味をちゃんと捉えているか:YES
 アテンションがどう動くか
  英語、日本、韓国語:同じ文;近いところが活性化

 チョムスキー:ユニバーサルランゲージ

 ゼロショットだと、意味が分かれてしまう。

・混合言語
 日本語と韓国語を混ぜる:ちゃんぽんにならない
 ただし
 ロシア語+ベラルーシ→ウクライナ語がでることも!

・新しい人工知能観へ
 人工知能研究のパースペクティブ
 新しい人工知能観:自らの手で作る

  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする